 OK, herzlich willkommen beim heutigen Webmaster Essentials Sprechstunden Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Chance Analyst hier bei Google in der Schweiz, und Teil von dem, was wir machen, sind solche Webmaster Sprechstunden, wo jeder einfach kommen kann und seine Fragen rund um Websites und die Websuche stellen kann. Sind schon einige Sachen eingereicht worden auf YouTube direkt, aber wenn einer von euch gerade am Anfang loslegen möchte mit eigenen Fragen, seid ihr gerne dazu eingeladen? Hallo, John, ich hätte gerade eine Frage. Mein Name ist Jeanette. Und zwar geht es wieder mal um die Search-Konsole. Wir haben in der Search-Konsole eine Möglichkeit, glaube ich, relativ neu wieder, veraltete Links zu entfernen oder überhaupt Links aus dem Index zu entfernen, also das zu beantragen. Und wenn ich auf dieses Menü gehe, habe ich zum einen die Möglichkeit, diese Links vorübergehend zu entfernen, also den Antrag zu stellen. Und dann habe ich eine zweite Option. Und da heißt es veraltete URLs entfernen. Und ich habe für einen Kunden jetzt beides getestet, und ich kann keinen Unterschied in der Beschreibung erkennen. Also das Tool zum veraltete Links entfernen, das kommt von der alten Search-Konsole. Und meine Frage ist, jetzt gibt es da einen Unterschied überhaupt? Eigentlich nicht, ja. Wir haben einfach das alte Tool jetzt umgewandelt für die neue Search-Konsole. Und das sieht jetzt ein bisschen anders aus. Ich glaube, es sind ein bisschen die Informationen ein bisschen anders verteilt dort, aber grundsätzlich ist die Funktionalität gleich. Das heißt, in beiden Fällen ist es so, dass diese Seiten aus unseren Suchergebnissen entfernt werden. Sie werden nicht aus dem Index entfernt, aber einfach nicht mehr dargestellten Suchergebnissen. Und das sind in beiden Fällen auch nur eine temporäre Sache. Das heißt, wenn man die permanent aus dem Index entfernen möchte, dann muss man weiterhin mit 404 oder no index oder so arbeiten. Ja, es sind URL, auf die die Kundin keinen Zugriff mehr hat und die einen 404 Status erzeugen. Also ich gehe mal davon aus, dass es dann so einfach schneller geht. Kann man das gut sagen? Ja, also was da einfach passiert mit diesen Tools, ist, dass es einfach in den Suchergebnissen dann nicht mehr dargestellt wird. Das heißt, man sieht diese dann nicht mehr in den normalen Suchen. Aus dem Index werden sie allerdings erst dann entfernt, wenn sie wirklich einfach neu gecrawled werden und wir sehen, dass da effektiv auch ein 404 oder no index oder so etwas dabei ist. Aber das anfühlt sich, wenn man jetzt etwas schnell aus den Suchergebnissen entfernen möchte, dann ist das sicher der richtige Weg. Also 404 wird erreichen, sagst du, weil eben Zugriff hat sie nicht mehr, wir können jetzt keinen no index Status oder redirects mehr anbringen. Das ist eben das Problem. Ja, 404 ist perfekt. Super, vielen Dank. Ja, bitte. Okay, weitere Fragen bevor wir loslegen. Ja, man hört dich nicht. Der zweite Sucher nach den Knöpfen. Also ich würde dann auch eine Frage einwerfen wollen. Okay. Und zwar haben wir ein ganz spezielles Problem. Wir haben Paid-Content, der hinter der Paywall versteckt ist. Also versteckt, also geschützt ist. Und wir wollen den Googlebot durch diese Paywall durchlassen. Da hattest du vor einem Monat oder so schon mal auf eine Frage geantwortet. Es hat uns gut weitergeholfen. Jetzt ist nur die Frage, diese Nutzer, die diesen Pay-Content sehen können, sind bei uns Plus-Nutzer. Diese Nutzer bekommen auch keine Werbung ausgespielt. Können wir den Googlebot als Plus-Nutzer behandeln und auch keine Werbung ausspielen? Oder wäre das eventuell ein Problem? Wenn das dem entspricht, was Benutzer sehen würden, wenn sie quasi durch diese Paywall gehen, dann ist das an für sich okay. Okay, und dann aber beschränkt auf Paywall-Content. Oder wäre es okay, wenn der Nutzer quasi auf der, also der Plus-Nutzer sieht auf der ganzen Webseite keine Werbung mehr. Der normale Nutzer würde aber schon Werbung sehen. Ich würde das auf die Paywall beschränken. Okay, gut. Weil die Nutzer, die auf die anderen Seiten kommen, die würden das ja dann mit Werbung sehen, dann würde ich da weiterhin die Werbung entsprechend auch zeigen. Okay, super. Das hilft mir weiter. Vielen Dank. Bitte. Kann ich auch noch eine Frage stellen? Okay. Es ist eine ziemlich theoretische Frage. Wie würdest du das machen? Es geht um einen Online-Shop. Also, gehen wir mal von einem Online-Shop mit Schuhen. Der bietet ca. 50.000 Schuhe an in verschiedenen, also verschiedene Größen, verschiedene Marken und so weiter. Jetzt würde ich gerne nur wenige Einstiegsseiten für den Kunden bei Google generieren, also indexieren lassen. Jetzt ist es so, wenn ich jetzt von diesen Einstiegsseiten aus normale Links setze auf die Variation, dann wird ja Google diesen Links dann folgen. Es gibt ja verschiedene Techniken, um auch links zu maskieren. Könntest du mir eine Maskierungstechnik empfehlen oder wie würdest du das machen? Google soll halt nicht in diesem hinteren Bereich reinkommen von dem Online-Shop, wo dann, sagen wir mal, 500.000 Seiten vielleicht sind oder 50.000 Seiten? Ich würde die Links normal auf der Seite platzieren. Was man machen kann, ist mit noFollow arbeiten. Das hilft uns ein bisschen, aber ich sehe da keinen großen Vorteil, dass man die Links ganz versteckt. Das heißt, wir sehen die in vielen Fällen ja trotzdem und wir würden die vielleicht auch crawlen. Und dann sauber mit dem rel canonical oder mit noindex uns da weitergeleitet wird, dann sind das Sachen, die auf unserer Seite relativ schnell quasi gelernt werden und dann konzentrieren sich unsere Systeme einfach auf die Seiten, die ihr wirklich indexieren wollen. Und wie ist das mit dem PageWank? Man würde ja dann dadurch auch den PageWank verteilen auf diese Seiten, die eigentlich ja nicht gekreut werden sollen oder beziehungsweise nicht in den Index sollen. Also im ersten Moment würde Google ja über alle Seiten drübergehen oder nicht. Mit dem noFollow würden wir uns eigentlich schon eher auf die Seiten konzentrieren, die du effektiv normal verlängst. Also ich sehe da effektiv kein Vorteil, dass man da irgendwie die Links versteckt. Was wir einfach eher gesehen haben, ist, dass es oft der Fall ist, dass das Websites das Fall schon auch eingerichten und dass es dann okay funktioniert für normale Benutzer und Googlebot kann den normalen Teil der Website gar nicht mehr sauber crawlen. Und von dem her würde ich das eher möglichst einfach halten und einfach auch die Links normal dort platzieren. Und das Crawling würde dann irgendwann auch aufhören auf diesen Seiten, die jetzt nicht in den Index sollen. Also ganz aufhören tut es wahrscheinlich nicht, aber wir konzentrieren uns schon eher auf die Sachen, die wir indexieren können. Wenn wir längerfristig sehen können, dass die alle einen WorldCanonical haben, dass die alle noIndex haben oder was auch immer, dann konzentrieren wir uns auf die Sachen, die wir normal indexieren können. Okay, okay. Aber steht ja ein bisschen schon im Konflikt zu den Aussagen, die du tätigst, dass so wenig URL's wie möglich generiert werden sollen eigentlich. Oder? Ja, aber ich denke, wenn du diese URLs erstellen möchtest, weil du denkst, dass diese Varianten relevant sein könnten für Benutzer, dann sind das normale URLs. Da würde ich jetzt nicht spezielles machen, um die zu verstecken. Okay, einfach nur noIndex auf der Seite und dann findet ihr das dann. Ja, also wahrscheinlich eher mit dem WorldCanonical, wenn das jetzt wirklich nur Varianten sind, wenn das Sachen sind, die gar nicht indexiert werden sollten, dann schon mit noIndex. Okay, alles klar, danke schön. Okay. Mal schauen, ob das jetzt mit dem Ton klappt. Oder probieren wir später nochmal. Okay, dann gehe ich mal die Fragen schon mal durch. Wenn weitere Fragen dazu kommen oder Kommentare, einfach nur loslegen zwischen euch. Wir haben vor geräumert Zeit das Structuredata für die Sightlings-Searchbox hinzugefügt und fragen uns, was wir noch machen können, um das Anzeigen einer Suchbox bei Google zu begünstigen. Wahrscheinlich nicht wahnsinnig viel, weil das mit der Sightlings-Searchbox, das ist etwas, was für sich unabhängig vom Structuredata dargestellt wird. Das heißt, wenn wir kein Structuredata haben, nehmen wir einfach eine Sightup-Frage für diese Suchbegriffe. Wenn sie dargestellt wird, wenn wir Structuredata haben, nehmen wir natürlich die entsprechende Variante von eurer Website dazu. Aber Structuredata alleine würde nicht das Anzeigen dieser Sightlings-Searchbox irgendwie beschleunigen oder irgendwie noch eher prioritisieren, sondern wir versuchen einfach festzustellen, wenn wir sehen, dass Benutzern nach eurer Website suchen und dass sie dann nachher quasi weitersuchen innerhalb von eurer Website oder ein bisschen genauer suchen in den Suchergebnissen, um Inhalte innerhalb von eurer Website zu finden, dann versuchen wir diese Sightlings-Searchbox darzustellen. Das ist allerdings in vielen Fällen bei vielen Websites nicht der Fall. Und das ist nicht unbedingt etwas, was schlecht ist oder gut ist, sondern es ist einfach, wir merken, dass Benutzern mit der normalen Navigation in der Website zurechtkommen. Das sind normal mit den Sightlings, die vielleicht dargestellt werden in den Suchergebnissen zurechtkommen oder dass sie direkt zu den richtigen Inhalten kommen, wenn sie suchen für eure Website. Und das ist an und für sich ganz okay. Also es ist nicht etwas, was man mit Structuredata bestreunigen kann. Darf ich jetzt von gerade noch eine Frage stellen? Ja. Also von mir kam nämlich die Frage auch. Es ist jetzt aber so, es gibt auch auf der Google-Seite, ich habe jetzt den Link gerade nicht mehr vor mir, gibt es auch das, dass dort steht, dass man eben das hinzufügen sollte und dann wäre das auf jeden Fall, was vom Mittels begünstigt wird. Also garantiert steht da ja nichts. Also es wird ja nicht garantiert. Jetzt ist der Punkt, der bei uns ist es halt einfach, normal so, wir haben eine Seite, die davor aus ausgelegt ist, dass man 3D-Teile bei uns sucht. Also 3D-Modelle von bestimmten Schrauben oder Muttern oder sonstigen Sachen. Deswegen wäre es halt für uns interessant, dass die Suche dann auf Google-Seite entsteht. Aber das heißt, wir müssen einfach abwarten und entweder es passiert oder es passiert nicht. Mehr oder weniger. Normalerweise, was ich empfehle, ist, dass wenn man die Sightlink-Searchbox schon sieht in den Suchergebnissen, dass man sich dann überlegt, möchte ich über die eigene Suche oder über die Seitabfrage das machen. Nicht, dass man einfach vorbeugen quasi die Sightlink-Searchbox-Markup irgendwie dazu nimmt. Weil so weit ich weiß, ist es wirklich so, dass man überhaupt nichts an der Wahrscheinlichkeit ändert, dass man dieses Markup verwendet, sondern das hängt hauptsächlich wirklich damit zusammen, wie Benutzer mit eurer Website umgehen, wie sie quasi über die Suche zu den einzelnen Teilen innerhalb eurer Website kommen. Okay, perfekt, dann denke ich. Super. Wie sollen wir mit Structured-Data-Felder verfahren, welche Search Console uns als Warnings anzeigt und die wir nicht ausfüllen können? Wenn das Warnungen sind in Structured-Data, sind das eigentlich nur Warnungen. Also es ist nicht so, dass dann das Structured-Data nicht verwendet wird, sondern das sind einfach Sachen, wo wir denken, das sind vielleicht empfohlene Felder, die manchmal dazu kommen. Manchmal sind das einfach Felder, die die Darstellung ein bisschen verbessern, die das Verständnis von Structured-Data ein bisschen verbessern. Das sind nicht Sachen, also in den meisten Fällen sind das nicht Sachen, die kritisch sind, die man unbedingt ausfüllen muss, wenn man die Art von Rich Results haben möchte. Von dem her, wenn das Warnungen sind, die mit denen ihr leben könnt, wo ihr sagt, ja, wir haben diese Informationen nicht oder wir können die nicht einfach irgendwie dazu einbinden in Structured-Data, dann ist das halt so. Kann man nicht viel machen. Hingeben, wenn das effektive Fehler sind im Structured-Data oder wenn das Warnungen sind, die in die Richtung gehen, quasi, dass das jetzt etwas verändert wird in den Bedingungen für die Structured-Data, für die Rich Results, dann sind das vielleicht Sachen, wo ich vielleicht schauen würde. Macht es Sinn, dass man diese Informationen auch einbringen kann oder sind das halt Sachen, wo man sagen muss, gut, wir können das nicht anders darstellen, dann wird das vielleicht von Rich Results Seite her auch nicht so berücksichtigt. Also eben, wenn das Fehler sind. Wichtig ist vielleicht mit Structured-Data und Rich Results im Allgemeinen, es sind nicht Ranking-Faktoren, das heißt, das Ranking der Webseite wird sich nicht groß verändern, wenn man das verwendet oder nicht, sondern es bezieht sich in erster Linie wirklich einfach auf die Darstellung von diesen Suchergebnissen. Und von dem her, wenn man nicht alles quasi erfüllen kann und man einverstanden ist mit der Darstellung, wie das jetzt gemacht wird für eure Seiten, dann ist das ja eigentlich auch okay. Gibt es ein Limit, wie viele Links der Googlebot bei neuen Seiten crawled, bis er weitermacht? Mir würde zugetragen, dass der Googlebot nach 10.000 Seiten erst mal aufhört, die Links zu crawlen. Auf unserer Seite gibt es eigentlich keine Grenzen bezüglich der Anzahlseiten, die wir innerhalb einer Webseite crawlen. Das kann durchaus sein, dass wir am Anfang erkennen können, dass eine Webseite relativ groß ist und dass sie wahrscheinlich interessant ist für unsere Benutzer. Und dann gehen wir vielleicht los und crawlen erst mal ein paar Millionen Seiten. Das kann durchaus passieren. Es kann aber auch genauso gut sein, dass gerade bei neuen Webseiten, wo wir wenig Informationen über die Webseite haben, dass wir sagen, wir nehmen jetzt erstmal ein Teil von diesen Seiten im Index auf und wenn wir sehen, dass das alles gut klappt, dass wir erkennen können, dass die Inhalte effektiv auch gut sind, dann crawlen wir vielleicht wieder ein bisschen mehr. Und das sind eigentlich normale Prozesse mit dem Indexing, die durchgehen zu funktionieren und sind nicht unbedingt Sachen, die nur auf quasi neue Websites bezogen sind, sondern die allgemein einfach gelten. Wir indexieren in der Regel oder fast nie alle Seiten einer Webseite und von dem her versuchen wir uns auf das zu konzentrieren, wo wir denken, das macht am meisten Sinn für unsere Benutzer, wo wir erkennen können, dass die Qualität relativ gut ist, wo wir erkennen können, dass wir diese Seiten normal crawlen und normal indexieren können. Darf ich dazu gerade nochmal eine weitere Frage stellen? Ja. Die kam nämlich auch von mir. Das ist halt eine Sache, die uns intern interessiert. Wir hatten uns gedacht, weil wir haben eine JavaScript-Seite, also wir haben keine A-Text drauf, das heißt also keine echten Links und haben jetzt nach und nach die Seiten angeliefert per Sidemaps. Das nimmt auch Google, das ist auch überhaupt kein Problem, das funktioniert alles super. Wir hatten halt nur, wie gesagt, weil intern ging halt irgendwas rum. Da meinte einer ein Limit von 10.000 und dann geht es erst mal in der Weile nicht weiter. Wenn dieses Limit nicht vorhanden ist, heißt das im Umkehrschluss, wir könnten das Sidemap einreichen oder mehrere Sidemaps, das passt ja nicht in einer, mit sagen wir mal 250.000 Links und das wäre Google egal, also der Googlebot oder der Mechanismus dahinter geht halt drüber, wann es Ihnen halt passt. Ja. Ja? Okay. Also dann, das ist perfekt. Ja, also aus unserer Sicht ist da nicht eigene Begrenzung, dass wir sagen würden, nur so und so viele Seiten würden wir effektiv indexieren. Wichtig ist, vielleicht in euren Fallen ist es so, dass mit der Sidemap-Datei sehen wir welche Seiten ihr quasi einreicht, welche URLs und wir haben ein bisschen mehr Information über diese URLs, aber der Kontext quasi, wie diese URLs innerhalb eurer Website eingebunden sind, das ist für uns auch extrem wichtig. Das heißt, am liebsten würden wir quasi die Sachen in der Sidemap-Datei sehen, die wir auch beim normalen Crawling sehen würden. Das heißt, wenn wir saubere A-Tags finden mit href-Akributen, die zu diesen Seiten führen, dann können wir die Struktur der Website quasi einerseits, oder die Struktur können wir durch das normale Crawling finden. Wir können auch erkennen, welche Seiten wichtiger sind innerhalb der Website und die Gesamtmenge der URLs sehen wir dann auch in der Sidemap-Datei. Das heißt, es passt dann einigermaßen zusammen. Wenn man hingegen nur die URLs per Sidemap-Datei einreicht, dann ist es für uns ein bisschen schwierig, weil dann sehen wir einfach, da sind jetzt eine Menge von URLs, die wir indexieren könnten, wir wissen aber nicht, wie die quasi innerhalb der Website strukturiert sind, welches dieser URLs wichtiger sind, welche weniger wichtig sind und dann ist es ein bisschen schwieriger für uns zu sagen, gut, wir indexieren erstmal alles und schauen, was dann passiert, weil wir möchten uns eigentlich, sagt man, gerade am Anfang, auf die Sachen konzentrieren, wo wir das Gefühl haben, die sind wirklich auch wichtig für euch. Okay, das heißt halt im Umkehrschluss, da wir das jetzt nicht so anliefern können, mit den links, weil wir keine echten A-Tags haben, sondern das ist alles nur quasi auf Java gepasst. Das ist halt Google jetzt keine Prioritätensetzung, von sich aus macht, sondern nach und nach halt die Seiten durchgeht, aber halt ohne eine gewisse Logik, sag ich jetzt mal dahinter, die vorteilhafter wären für uns vielleicht. Genau, genau. Gut, das ist auch gut zu wissen, perfekt. Dann danke ich. Ja, bitte. Und mit JavaScript kann man übrigens auch normaler A-Tags einbinden. Das heißt, es ist nicht so, dass die A-Tags direkt in der statischen HTML-Version sein müssen, sondern man kann das ja auch mit einem JavaScript-Framework so machen, dass man da A-Tags erstellt und die normalen Links macht. Wenn das per JavaScript erstellt wird, ist das für uns auch okay. Ja, also es ist so, dass uns das bekannt ist, aber die Webseite ist so lange schon in Entwicklung gewesen, dass wir das erst mit einer nächsten Version quasi ändern, aber wir möchten jetzt schon halt was auf Google bringen. Das ist halt der Punkt. Aber perfekt, danke trotzdem für die Info. Ja, bitte. Ich habe dazu noch eine Frage. Wäre das nicht dann eigentlich so die Lösung für meine erste Frage, also ein JavaScript-Framework? Also ich will ja keine Links erstellen, sondern würde die Links dann hier rausnehmen. Also der Kunde landet dann zum Beispiel auf einer Seite und dann geht es nur noch mit dem JavaScript weiter. Wäre das eine Möglichkeit oder würdest du sagen, das ist nicht gut? Ich meine, es gibt verschiedene Wege, wie man die Links verstecken kann. Wenn man das machen möchte. Sondern sagen wir mal einfach, jemand landet bei uns auf der Seite und dann geht es einfach noch weiter, weiter hinten raus, was jetzt nicht unbedingt gekreut werden soll, sondern, ja. Ich denke, es ist ein bisschen schwierig, weil es ist nicht so, dass wir standardmäßig JavaScript nicht verarbeiten können, sondern wir versuchen ja JavaScript normal zu verarbeiten. Und schwierig ist es für uns, ich nehme jetzt mal, das ist jetzt der Fall beim Vorherrigen, bei der Vorherrigen-Website, wenn keine normalen Links auf der Seite vorhanden sind. Das heißt, in manchen Fällen haben wir gesehen, dass JavaScript-Entwickler quasi ein Bild oder ein Dev-Element so verarbeiten, dass wenn man draufklickt, dass quasi diese Navigation passiert. Aber dass das passiert über JavaScript und nicht über ein link-element- welches effektiv in der Seite eingebunden ist. Und das ist für uns dann schwierig, weil wir sehen, wir können diesen Links dann gar nicht mehr richtig voll. Und im Prinzip, wenn man das, sag ich mal, absichtlich machen möchte, dann ist es einfach eine Variante, wie man quasi diese Links verstecken kann vom Google, aber es gibt da verschiedene Wege, die man da machen kann, wenn man das unbedingt machen möchte. Ich denke einfach, im Normalfall mit einer normalen, sag ich mal e-Commerce-Website oder einen normalen Website im Allgemeinen würde ich das eher nicht absichtlich machen. Das heißt, wenn es vom Crawling-Hair problematisch ist, würde ich mit Robots Text arbeiten, dann ist das sauber blockiert. Wenn man einfach quasi die Priorisierung ein bisschen steuern möchte, dann würde ich einfach mit dem Real Canonical arbeiten oder mit dem No Index, dass wir uns auf die Sachen konzentrieren können, die wirklich wichtig sind. Ich würde nicht absichtlich mehr Komplexität einbauen, wenn das nicht irgendwie sonst nötig ist für die Website, wenn man nicht Funktionalität hat, die über JavaScript laufen muss oder wenn man nicht quasi in der Situation ist, dass alle Entwickler mit JavaScript arbeiten und dass man halt das halt jetzt so quasi erstellt hat. Würde ich da versuchen, möglichst die Struktur der Website einfach einfach zu halten? Also, geht es eigentlich eher bei deiner Empfehlung darum, nichts kaputt zu machen, aber wenn man jetzt der absolute Profi wäre, könnte man es probieren? Kann man sicher probieren, ja. Also, ich sehe einfach, ich denke, einfach in den meisten Fällen hat man keinen Vorteil, wenn man jetzt, sagen wir mal, gerade bei einer E-Commerce-Website, wenn man diese URLs verstecken will, es gibt verschiedene Wege, wie man das verstecken kann, aber ich sehe da eigentlich keinen großen Vorteil, wenn man das so versteckt. Okay. Okay, in Ordnung. Ich probiere das mal aus. Ich hätte noch eine Frage zu dem Indexing. Also, ich habe ungefähr so 80% von einer Webseite deindexieren lassen und ich sehe jetzt in den letzten Wochen, dass auf einmal URLs reinrutschen. Also, du hast gerade auch eine Frage beantwortet mit diesem Indexing, die eigentlich schon seit Jahren irgendwie online sind, aber auf einmal jetzt reinrutschen als gültige Seite in der Search-Konsole. Wie kommt das? Also, wie sind da wahrscheinlich auch rutschen dann auch in diese Qualitätsbewertung rein? Oder? Schwierig zu sagen. Weiß ich jetzt nicht, wie das in diesem speziellen Fall ist, aber es ist durchaus so, dass wir manchmal URLs-Aufgaben und die Neuindexieren, die seit langer Zeit quasi irgendwie vorhanden waren, aber nicht verwendet wurden. Okay, also es ist so, dass bei mir 5.000 Seiten dann auf einmal rausgerutscht sind innerhalb von einer Woche. Und dann geht es langsam, aber ich habe einen Satmap-Einbereich mit Neuindex-URLs und jetzt geht es langsam wieder hoch. Ganz langsam steigt es wieder an seit 3-4 Wochen ungefähr. Es sind wieder so 500 Seiten wieder reingerutscht, aber so Seiten, wo ich sage, okay, die brauche ich nicht. Und warum kommen die auf einmal? Die sind eigentlich ganz weit hinten auch in der Website. Schwierig zu sagen. Du hast ja gerade auch gesagt, dass ihr nicht alle indexiert, alle Seiten einer Webseite. Und dann auf einmal greift du die jetzt doch auf? Ja, also das sind an und für sich normale Prozesse, die da ablaufen. Ich würde jetzt nicht sagen, dass es damit zusammenhängt, dass du andere Sachen deindexiert hast und jetzt in die anderen alten Seiten wieder hervorgekommen, sondern diese Veränderungen von quasi die URLs, die indexiert werden, dass es eigentlich andauert kommt und geht das ein bisschen. Ich habe einige Test-Websites, die ich am Anfang mal erstellt habe, zum Testen von verschiedenen Sachen, wo, ich weiß nicht, 10.000 Seiten da indexiert sind oder vorhanden sind auf der Website und die Indexierung von dieser Test-Website, wo jetzt seit Jahren gar nichts mehr geändert wurde, das geht ständig hoch und runter. Okay. Das sieht einfach ein bisschen komisch aus, aber ich denke, das Kommen und Gehen ist eigentlich nicht so ein normaler Prozess, gerade bei der Indexierung. Ja, okay, alles klar. Dankeschön. Okay, ich glaube, jetzt funktioniert der Ton. Ja. Okay, cool. Ich habe meine Frage auch schon bei YouTube gepostet und da geht es darum, dass wir drei Stellen anzeigen für einen Kunden veröffentlichen wollen und in der Google Search-Konsole bei Job-Postings da sind die drei Stellen anzeigen hinterlegt. Jedoch bei, wenn man bei der Google Suchfunktion die Jobs eingibt, sind die leider bei Google for Jobs nicht zu finden. Und wir haben uns an den Leitfahren gehalten und haben auch wirklich viel probiert seit sogar letzten Jahr. Und die Angebote sind, die Stellenangebote sind bei Google for Jobs leider immer noch nicht verfügbar. Was könnte es denn liegen? Das ist schwierig zu sagen. Ich muss das mit dem Team vielleicht mal anschauen, was da der Fall sein kann. Du hast ja die drei URLs auch da hinein gepostet. Kann ich das mit dem Team mal anschauen. Wichtig ist vielleicht, ich glaube Google for Jobs ist nicht in allen Ländern verfügbar, aber ich glaube, in Deutschland, das sollte es ja eigentlich sein. Wie bekomme ich da Zugang mit dem Team? Wie kann ich mit dem Team reden? Ich müsste das an für sich auf unserer Seite machen und wenn alles klappt sollten die eigentlich normal dort erscheinen. Ich könnte mir vorstellen, dass unsere Systeme da vielleicht ein bisschen kämpfen, wenn sie sehen, dass es wirklich nur drei Jobs sind innerhalb einer größeren Website, dass sie da vielleicht überlegen, ja, sind das quasi richtig markierte Seiten oder ist es etwas problematisch. Aber ich muss das mit dem Team mal hier anschauen, weil das sollte eigentlich schon so funktionieren, wie ihr das gemacht habt. Gerade wenn das in Search Console dargestellt wird, das ist sicher mal richtig markiert. Okay, ja, wäre mega cool, denn das funktionieren könnte. Dankeschön. Ja, bitte. Okay, ich gehe mal die anderen Fragen ein bisschen durch. Wir führen eigentlich ständig A-B-Tests durch. Wie verhält sich das für den Crawler? Was müssen wir tun, damit A-B-Tests auch als solche zu erkennen sind und wir nicht Schwierigkeiten im Ranking bekommen, weil wir unterschiedliche Website-Versionen ausspielen. Kommt der Crawler überhaupt an die Test-Version? Falls das für die Frage relevant ist, wir nutzen das Tool Convert und spielen die unterschiedlichen Versionen durch unterschiedliche Cookies aus. Also, ich denke, im Allgemeinen ist es so, dass A-B-Tests für uns unproblematisch sind, weil wir indexieren die Seiten eigentlich so, wie sie kommen und wenn sie sich ab und zu verändern, ist das aus unserer Sicht weit okay. Wichtig ist vielleicht auch zu wissen, dass Googlebot keine Cookies verwendet. Das heißt, keine Cookies wieder zurück spielt, nachher. Das heißt, wenn wir Crawlen und ihr für den A-B-Tests Cookies verwendet um quasi die Version festzulegen, dann wird das so sein, dass Googlebot jedes Mal ohne Cookie kommt und je nachdem, wie ihr diese Situation dann einstuft, sieht Googlebot die andere Version. Wichtig ist vielleicht bei A-B-Tests dass wenn ihr die Inhalte grundlegend verändert und wir sie dann so indexieren, dann indexieren wir eure Seiten mit diesen veränderten Inhalten, wie wir das halt machen würden und wenn die Inhalte wirklich grundlegend anders sind, dann kann es natürlich sein, dass wir das Ranking oder die Indexierung entsprechend passen, weil jetzt sind Inhalte so vorhanden auf eurer Website. Das andere, worauf ich vielleicht achten würde, ist, wenn ihr unterschiedliche URLs für diese A-B-Varianten verwendet, würde ich dafür sorgen, dass man zum Beispiel mit dem Rail Canonical arbeitet und jeweils auf die Hauptvariante dieser URLs zurückverweist von den Test-Versionen, damit falls wir die Test-Version irgendwie auch finden würden durch vielleicht einen internen Link oder einen externen Link auf diese Variante dass wir auf jeden Fall zurück zur Hauptversion finden können und uns auf quasi die Hauptversion für die Indexieren konzentrieren können. Aber grundsätzlich finde ich A-B-Tests toll, man kann natürlich so relativ schnell testen was gut geht für die eigenen Benutzer und von dem her versuchen wir das auch so zu unterstützen. Darf ich dazu gerade noch eine Frage reinwärfen? Ja. Das passt nämlich gerade ganz gut zu etwas, was wir uns nämlich überlegt hatten. Es ist ja so, dass der Google-Bot kommt ja also zumindest bei uns steht das Google-Bot-Smartphone kommt ja auf Smartphone großen Verhältnissen quarter. Jetzt ist es so, dass bestimmte Elemente standardmäßig auf das Smartphone-Kurs bei uns ausgeblendet wird, aber mit einer Navigation quasi eingeblendet werden können wir das auch so Sachen aus. Wenn der Standard-Cuser jetzt kommt würde er bei uns einen 3D-Model angezeigt bekommen. Bringt den Google-Bot aber nicht so viel. Wäre es denn oder würde das negative Folgen haben für uns im Ranking stattdessen nur für den Google-Bot als erstes die Tabelle anzeigen mit den ganzen Informationen, wo der Google-Bot ja mehr von hat dass die Informationen stehen zwar auch im HTML schon drinnen aber die sind ja nicht als sichtbar eingeblendet die sind ja dann als Dispanon eingeblendet das wäre jetzt eine interessante Frage dazu. Wenn sie im HTML schon vorhanden sind, dann ist das für uns eigentlich schon okay, das heißt da würde ich jetzt das nicht speziell anders machen was ich vielleicht in einem solchen Fall mal überlegen würde, ist ob man auch mit irgendwelchen Bildern arbeiten kann wenn man erkennen kann, dass der Benutzer kein 3D-Funktionalität irgendwie verfügbar hat dass man da irgendwie mit einem Bild, mit einem Image als Backup auch arbeiten kann weil dann könnte man zumindest diese Bilder auch für die Bilderindexierung verwenden könnte mir vorstellen, gerade bei 3D Modellen, wer würde das vielleicht Sinn machen dass man da auch über die Bilder suche diese Komponenten finden kann was es auch auf unserer Seite gibt jetzt relativ neu ist die Möglichkeit auch 3D Modelle direkt in die Suche einzuspielen über Structuredata ich weiß nicht ob ihr das gesehen habt das wäre vielleicht auch mal eine Variante zu überlegen ich weiß einfach nicht, wie weit das jetzt überall schon verfügbar ist oder ob das nur quasi in dieser Testphase noch ist die Frage ist halt auch inwieweit das dann aussieht in der Google Suche ich hatte das zwar gelesen, aber es gab kein optisches Beispiel, wie das dann am Ende aussieht ich weiß nicht, ob die auch auf Deutsch irgendwie verfügbar sind aber wenn man zum Beispiel nach einigen Tieren sucht ich glaube nach Tiger oder Löwe dann kommt auch quasi so ein 3D Modell wo man das ausprobieren kann gut, das werde ich mal machen muss ich dann aber über die englische Google Suche wahrscheinlich gehen, oder? ich weiß es nicht ich müsste es auch ausprobieren immer so die Schwierigkeit gerade die neuen Funktionen werden oft auf Englisch erstmal zur Verfügung gestellt und dann wenn sie sehen, dass alles gut klappt wird das entsprechend auch weiter verwendet ich habe auch von einigen gehört die quasi nur Test 3D Modelle haben zum ausprobieren dass wir da nicht alles als 3D Modell indexieren, sondern dass unsere Systeme da wirklich auch sicher sein möchten dass es quasi jetzt 3D Modelle hat okay, perfekt, ja gut also was für 3D Modelle das wird ja sicherlich irgendwo aufgelistet sein wir haben da alles mit ihr an Unterstützung also das funktioniert dann schon perfekt, dann denke ich stimmt es das um Ressourcen zu sparen nicht bei allen Seiten das JavaScript ausliest also sollte man zur besseren Indexierung eine Seite so gestalten dass auch alles ohne JavaScript zugänglich ist grundsätzlich versuchen wir alle Seiten mit JavaScript quasi auszuführen wenn wir allerdings erkennen können, dass das Ausführen von JavaScript bei einer Seite keine große Veränderung hervorruft dann ist es so dass unsere Systeme das im Laufe der Zeit dann auch optimieren und sagen die können wir auch direkt ohne JavaScript normal indexieren von dem her ist es nicht so, dass wir einfach JavaScript dann ignorieren würden, sondern wenn wir erkennen können, dass wir es ignorieren können dann können wir es ignorieren und das hilft uns natürlich ein bisschen Ressourcen zu sparen und das sieht man dann unter Umständen auch dass die JavaScript Dateien vielleicht nicht so häufig aufgerufen werden ansonsten ist es schon so, dass wir versuchen auch JavaScript auszuführen und die gerenderte Version sauber zu indexieren im Moment ist es noch so, dass wir erst einmal die statische HTML Version indexieren im ersten Schritt und dass wir dann möglichst schnell danach die JavaScript Version quasi über Rendering auch versuchen zu indexieren in vielen Fällen ist das der zeitliche Unterschied und eher einfach eine Frage von vielleicht mal weniger aus einem Tag oder vielleicht ein paar Tagen von dem her ist es zwar so, dass die statische HTML Version ein bisschen schneller indexiert wird aber im Großen und Ganzen sollte das trotzdem klappen für normale Seiten gerade wenn man jetzt einen Nachrichten Website hat wo die Inhalte sehr schnell indexiert werden müssen da würde ich dann schon eher darauf tendieren die Inhalte auch als statische HTML Version ausliefert für Google damit wir die Inhalte möglichst schnell indexieren können ohne dass wir auf das Rendering behalten müssen wir haben ein Portal mit ca. 300.000 Datenbankeinträgen die alle eigene URLs haben Profile von diesen Profilen sind nur etwa 50.000 im Google Index im Google Index-Consult sehen wir dass ca. 250.000 Profile URLs ausgeschlossen sind mit der Begründung gefunden zurzeit nicht indexiert eine Überbelastung der Website lag nicht vor weshalb hat Google die Profile URLs nicht gekraut ich denke das geht ein bisschen in die Richtung zurück wie wir am Anfang schon mal angesprochen haben nämlich dass Google allgemein nicht alles indexiert was auf einer Website vorhanden ist nur weil das irgendwo vorhanden ist heißt nicht dass wir das dann auch indexieren würden und ich würde mal vermuten dass wenn das so normale Benutzerprofile sind dass wir auch in vielen Fällen einfach erkennen können dass es sich nicht großartig lohnt all diese Profile separat zu indexieren oder dass wir einfach erstmal merken müssen dass es sich lohnt dass das wirklich auch relevante Inhalte sind die wichtig sind, dass wir die auch indexiert haben das kann man anfühlt sich nicht wahnsinnig groß selber steuern sondern man muss natürlich schauen dass einfach die Inhalte dann wirklich auch gut sind und wenn wir können können dass es gute Inhalte sind wenn wir sehen dass die anfühlt sich auch gut in der Suche funktionieren dann versuchen wir von dem auch mehr zu indexieren hallo grüß Sie ja hallo oh ja ja oh, denke da ok machen wir hier mal weiter ich hatte auf meiner Seite einen Hack der recht viele Seiten generiert hat die dann durch Google indexiert wurden ca. 300 Seiten sollten es sein im Index sind jetzt 3100 der Hack wurde entfernt die Seiten existieren nicht mehr beziehungsweise es werden 404 Fehler zurückgegeben kann ich Google irgendwie dabei helfen die Seiten schneller wieder aus dem Index zu werfen das URL Removal Tool ist ja nur für temporäre und einzelne Entfernung gedacht ja also was was man natürlich machen kann ist einerseits dass sie 404 zurückgeben das ist schon mal ein wichtiger Schritt was man machen kann damit wir die Seiten ein bisschen schneller crawlen und diesen 404 Status sehen ist einfach mit einer Seitenabdatei zu arbeiten und dann innerhalb der Seitenabdatei ein Änderungsdatum angeben und sagen dann wurden diese Seiten entsprechend verändert und wenn wir erkennen können dass das Änderungsdatum jetzt nach dem letzten Crawl oder nach dem letzten Indexierung liegt dann versuchen wir die Seiten ein bisschen schneller zu verarbeiten und gerade bei 3000 Seiten sollte das eigentlich relativ schnell gehen vermute ich dass man da so relativ schnell wieder herausholen kann mit dem URL Entfernungstool würde ich dann arbeiten wenn diese gehackten Seiten wirklich sehr sichtbar sind in den Suchergebnissen wenn man zum Beispiel nach euren Firmennamen sucht und es kommen dann direkt 2-3 Seiten die aus diesem gehackten Bereich sind mit einem Titel oder Beschreibung die darauf schließen lässt dass die Inhalte vielleicht von jemand anderen erstellt worden sind in solchen Fällen würde ich mit dem URL Entfernungstool arbeiten um das möglichst schnell wieder ein bisschen einigermaßen einen sauberen Zustand zu bringen für die längerfristige Veränderung das heißt quasi dass diese URLs aus dem Index fallen würde ich dann eher mit der Seitenabdatei einfach arbeiten die normal crawlen und neu indexieren können dann eine längere Frage bezüglich einer Band Website wir hatten ca. 12 Jahre lang für unsere Band 2 unterschiedliche Websites die sich an unterschiedliche Zielgruppen gerichtet hat und ich glaub die Frage geht in die Richtung quasi wir möchten jetzt eine Website machen statt 2 was müssen wir da in Search Council machen wie muss man das verändern grundsätzlich ist es eigentlich denke ich mal eine gute Idee wenn man weniger Websites hat als wenn man mehr Websites hat gerade wenn das einigermaßen überlappend ist oder wenn das das gleiche Zielpublikum ist weil mit einer einzelnen Website statt 2 Websites oder statt mehreren Websites können wir natürlich den Gesamtwert ein bisschen besser konzentrieren und die vielleicht ein bisschen besser in den Suchergebnissen präsentieren die die Weiterleitung die ihr da gemacht habt mit den 301 redirect von der alten oder von der nicht mehr verwendeten Version zu eure Hauptversion das ist an für sich perfekt das ist so wie man das normalerweise macht wichtig ist dass man diese Weiterleitungen einfach das heißt wenn ihr eine Seite habt ich weiß nicht euer Repertoire dass man da von der alten Repertoire Seite auf die neue Repertoire Seite weiterleitet nicht dass ihr alles von der alten Website auf die Homepage der neuen Website weiterleitet weil wenn ihr das wirklich Schritt für Schritt so einzeln die Weiterleitung macht dann können wir diesen Zusammenhang ein bisschen besser beiderhalten wenn man auf die Homepage geht dann ist es für uns schwierig zu erkennen welche Seiten sind jetzt wie relevant in der alte Website Bezüglich Search Console wie man das da handhaben kann ich denke ich würde da einfach die alte Website auch in Search Console lassen einfach damit man auch Informationen über allfällige technische Probleme bekommt die über Search Console vielleicht verschickt werden und dass ihr da auch ein bisschen verfolgen könnt wie die Indexierung und die Such Performance sich verändert für die Website die ihr jetzt nicht mehr verwendet es gibt aus unserer Sicht eigentlich keinen Grund dass man die aus Search Console herausnehmen muss weil man kann durchaus Varianten in Search Console normal verifiziert lassen die die nicht in der Suche erscheinen sollen von dem her denke ich ich würde da einigermaßen auf den richtigen Weg mag Google eigentlich keine Schafe welche Gründe kann es sonst geben dass der deutsche Bereich und auch andere Übersetzungen so viel besser ranken als der englischsprachige Bereich die erste Frage hat mich ein bisschen verwirrt aber ich habe die Website angeschaut das sind überall Schafe auf der Website von dem her kann ich erst ein bisschen nachvollziehen grundsätzlich haben wir nichts gegen Schafe haben wir auch wir haben auch nichts gegen Schafe auf englischsprachigen Websites aber was was in vielen Fällen einfach der Fall ist ist, dass auf Englisch ist die Konkurrenz viel stärker in vielen Fällen und da kann es natürlich sein dass eine Website sehr gut im deutschen Bereich verfügbar ist in den Suchergebnissen einfach weil da die Konkurrenzsituation ein bisschen anders ist und dann auf Englisch kommen natürlich alle anderen englischsprachigen Websites dazu und da ist es vielleicht ein bisschen schwieriger in den Suchergebnissen sauber oder gut präsent zu sein und das hängt weniger damit zusammen quasi mit den einzelnen Sprachen und dem Version oder den Inhalten der Website sondern einfach weil quasi die Gesamtumgebung ist halt einfach anders in anderen Sprachen ist auch anders in anderen Ländern es ist zum Beispiel total normal dass eine Website vielleicht in Deutschland sehr gut funktioniert in den Suchergebnissen und in der Schweiz halt weniger gut oder umgekehrt in der Schweiz sehr gut klappt es sehr gut in Deutschland mit der gleichen Website klappt es weniger gut und das ist weniger weil Google quasi irgendwas gegen diese Website hat sondern einfach weil die Konkurrenzsituation ist dann halt ein bisschen anders in den einzelnen Ländern oder in den einzelnen Sprachvarianten ein Kunde von uns hat eine sehr bekannte Marke aufgekauft da unter anderem auch ein sehr gut rankenden Online-Shop besitzt nun möchte unser Kunde den organischen Trafik der aufgekauften Marke so gut wie es geht konservieren und auf den eigenen Online-Shops schiftern die gleiche Branche fast identische Kategorien und fast identisches Produktangebot uns liegen bereits einige Ideen und Konzepte vor wir interessieren uns jedoch sehr wie deine Empfehlung aussehen könnte also ich denke das geht in Richtung wie wie mit dieser Band Website dass man einfach zwei Websites schlussendlich hat und wo die Seiten zu einem bestimmten Teil vielleicht überlappend sind und dass man da halt einfach eine Weiterleitung auf Seitenebene jeweils macht von der einen Variante zur anderen Variante ich denke das ist wahrscheinlich quasi ein guter Ansatz hier vor allem wenn man wirklich sich auf eines dieser Seiten oder eines dieser Websites konzentrieren möchte es kann natürlich sein dass man sagt ich möchte am liebsten beide Websites normal in den Suchergebnissen präsentieren und dann würde man diese Websites eigentlich auch getrennt lassen bei zwei Websites sehe ich da eigentlich nicht so große Probleme ich könnte mir allerdings vorstellen dass gerade wenn im Konkurrenz innerhalb quasi wenn im Konkurrenzbereich diese Website irgendwie präsent ist dass andere Websiten für die gleichen Suchbegriffen quasi auch sehr aktiv sind dass man da eher mit einer konzentrierten Variante das heißt mit einer Website statt mit zwei Websites da abschneiden würde wichtig ist vielleicht aber auch zu sagen dass gerade wenn man Websites zusammenfügt dann ist es aus unserer Sicht nicht automatisch so dass man quasi den doppelten Verkehr von der Suche bekommt sondern wir müssen das an für sich auch neu einschätzen das heißt unsere Systeme sehen dann sind zwei Websites die sind zusammengefügt worden und dann versuchen wir eine neue Website irgendwie einzustufen und das kann also in vielen Fällen wird das schon so sein dass wir die ein bisschen stärker einstufen können weil das ist jetzt mal ein konzentrierte Variante dieser Website dann ist es eigentlich auch besser so aber es ist wahrscheinlich nicht der Fall dass man sagen kann so viel Benutzer sind zur alten Website gekommen so viel sind zur neuen Website gekommen wenn ich das kombiniere kann ich die Zahlen einfach blind addieren so was wir effektiv dabei herauskommen es kann sein, dass das einigermaßen stimmt es kann sein, dass das viel weniger Traffic ist schlussendlich es kann allerdings auch sein, dass es viel mehr Traffic ist wenn zum Beispiel die neue Variante viel besser ranked in den Suche-Ergebnissen kann es durchaus sein, dass man mehr Traffic bekommt aus der Suche als quasi nur die Summe aber das lässt sich sehr schlecht voraussagen im Allgemeinen erst recht nicht von dem her würde ich das vielleicht auch mal Schritt für Schritt ein bisschen analysieren und überlegen wie sieht das aus in der Konkurrenz für die wichtigsten Suche-Begreifer für eure Website wie würdet ihr quasi einstufen wie eine kombinierte Variante dastehen würde in den Suche-Ergebnissen würde sie höher ranken wie das wäre, muss man natürlich ein bisschen abschätzen, es gibt da kein Tool welches das automatisch für euch machen würde ich habe eine Frage bitte du hast ja gerade diese Konkurrenzsituation angesprochen wenn man jetzt ein Server-Standort in Deutschland hat und dann zum Beispiel in den USA etwas verkaufen möchte inwieweit spielt die Geschwindigkeit der Red-Seite inwie hoch ist der Ranking-Faktor dafür eigentlich also jetzt nicht nur die Qualität der Seite sondern auch die Geschwindigkeit in der Regel ist der Geschwindigkeits Aspekt dort erbegeregen das heißt, gerade wenn die Website einigermaßen im Normalbereich funktioniert von wegen der Geschwindigkeit dann ist es ja so, dass der zeitliche Unterschied vom Standort aus ist er im Bereich, ich weiß jetzt nicht 10, 20, 30 Millisekunden und das ist ja relativ gesehen an der Gesamtlade Zeit einer Website sehr gering das heißt, da würde ich mir in den meisten Fällen eigentlich keine großen Sorgen machen wo das manchmal problematisch ist, ist wenn man Länder ansteuert die eher eine schlechte Anbindung ans Internet haben wo wenn ein Server lokal ist, ist das aber immer viel schneller als wenn ein Server effektiv in einem anderen Land ist einfach weil die Anbindung ans Internet im Allgemeinen in diesem Land ein bisschen schlechter ist aber zwischen Deutschland und USA oder den anderen Ländern wo eigentlich eine relative gute Anbindung ans Internet vorhanden ist da würde ich mir keine großen Sorgen machen und wie kann man das Ranking dann verbessern das Ranking verbessern in den USA zum Beispiel wenn ein Server ist in Deutschland und auch eine englische Website hat und die ist so geht es so halt ja schwierig zu sagen ich denke da muss man wahrscheinlich auch mal die Konkurrenz anschauen wie steht das insgesamt da das heißt wenn die die Konkurrenzwebseiten alles sehr stark sind dann muss man sich natürlich überlegen muss ich mit denen auf der gleichen Ebene irgendwie konkurrenzieren oder kann ich da vielleicht irgendwie andere Keywords finden wo ich da konkurrenzfähig sein könnte dass man das vielleicht so anschaut aber es ist natürlich allgemein schwierig zu sagen wenn eine Website einigermaßen normal funktioniert wie kann man da das Ranking wirklich stark verbessern da spielen natürlich viele Sachen eine Rolle aber ich denke vom Serverstandort aus das sollte eigentlich keine Rolle spielen das ist wirklich so minim okay eine Frage habe ich dazu gerade noch ein bisschen mit in diesen Themenbereich reinfließt wie wichtig ist denn die Domain-Endung also sagen wir jetzt mal Punkt IT ja und ich habe diese Punkt-ET-Domain und ich habe das in mehreren Sprachen und möchte das auch in mehreren Ländern spielt das irgendeine Rolle die Domain-Endung aus unserer Sicht gibt es da zwei Kategorien einerseits die generischen Domain-Endung wie Punkt COM oder Punkt EU die Länder unabhängig sind und andererseits die länderspezifischen Endungen wie Punkt DE F-R-T-H die länderspezifischen Endungen sind vom Geotargeting her gezielt auf dieses Land eingerichtet das heißt wenn jemand in diesem Land nach lokalen Ergebnissen sucht dann wissen wir dass diese Website wahrscheinlich da gut passen würde das heißt wir kennen das einigermaßen schon direkt von der Endung her die generischen kann man in Search Console einstellen dass man sagt ich möchte jetzt dieses Land gezielt ansteuern und wirklich wenn jemand etwas lokales sucht aus diesem Land dann ist meine Website eigentlich gut geeignet dafür das kann man mit länderspezifischen Domain-Endungen nicht machen das heißt wenn ich eine DE Website oder ein DE Domain habe kann ich nicht sagen ich möchte quasi als lokale Website in der Schweiz angesehen werden weil wir in der Schweiz würden wir dann eher die CH Domains quasi als lokal ansehen oder die generischen die diese Einstellung gemacht haben jetzt ist es aber so unsere Website soll halt nicht nur auf ein Land zählen sondern auf mehrere weil wir mehrere Sprachen anbieten also italienisch, französisch, deutsch, englisch, chinesisch in zwei Varianten und so weiter macht es daran Unterschied? da müsste man dann wahrscheinlich eher mit dem generischen Domain arbeiten wenn man die Sprachen ansprechen will wenn man nur Sprachen ansprechen will dann kann man mit jeder Website arbeiten okay, okay, perfekt, dann danke ich okay, ich muss leider schon mal los warten schon die nächsten aufs Zimmer ja, vielen Dank fürs kommen ich hoffe das war hilfreich wenn ihr weitere Fragen habt ich richte auf jeden Fall noch das nächste Hangout ein könnt ihr gerne die Fragen dort einfügen okay, tschüss, allerseits tschüss