 Okay, herzlich willkommen bei den heutigen Google Webmaster Essentials Sprechstunden Hangouts. Mein Name ist Johannes Müller, ich bin Webmaster Trends Analyst bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster Hangouts, wo verschiedene dazu kommen können und ihre Fragen rund um die Suche bei uns mal stellen können. Sind einige Fragen angereicht worden? Nicht wahnsinnig viel, aber wenn einer von euch anfangen möchte, könnt ihr gerne schon mal loslegen. Darf ich? Ja. Und zwar geht es um Folgendes. Wir haben jetzt hier bei uns in der Gegend immer mehr Corona-Virus infizierte. Jetzt frage ich mich, wie das mit meinen Suchmaschinenoptimierungen ist, mit meinen Rankings, wenn wir jetzt den Online-Shop praktisch pausieren. Also sagen wir mal einfach, wir sind unter Quarantäne. Wir sind jetzt zur Dritterheit und in den Warenkorb würde ich dann ausschalten. Es wäre noch alles da für den User, aber es ist natürlich dann doof, wenn jetzt jemand USA-Flagge einkaufen eingibt und dann landet er bei uns, weil wir auf Platz 1 sind und er kann nichts kaufen. Wie schnell würde das denn gehen, dass wir dann einen Wenkenverlust haben? An und für sich wäre das die richtige Methode, dass das so zu handhaben, dass man sagt, man lässt die Website laufen, man lässt die Produkte weiterhin im Index und man blockiert dann einfach zum Beispiel den Warenkorb oder hat entsprechend dort einfach eine Meldung. Vom Ranking her würde ich mir da eigentlich keine großen Sorgen machen. Ich denke, das ist nicht unbedingt etwas, wo wir merken würden, dass man da jetzt bei diesem Shop nichts kaufen kann im Moment, dass wir deswegen die Website herunterstufen müssen, sondern wir möchten es ja eigentlich auch so beibehalten, dass wenn jemand nach diesen Produkten sucht, dass man weiß, wo man sie kriegen kann, wenn sie im Moment nicht lieferbar sind, aus welchen Gründen auch immer, es ist an für sich okay. Aber auf Dauer könnte man das doch so nicht handhaben, wenn man jetzt sagt, vier Wochen Warenkorb ist gesperrt, ihr müsstet doch irgendwann dann auch ein Signal irgendwie bekommen wie auch immer, dass das da nicht funktioniert auf der Internetseite. Also habt ihr da nicht irgendwie eine Auswertung für? Also dass zum Beispiel das Zurückgehen auf die Suchmaschine oder dass das irgendwie gezehrt wird? Ich denke, das sollte eigentlich schon relativ stabil bleiben. Es sollte eigentlich nicht nicht so sein, dass wir da das dann quasi ausschalten würden. Ich denke, ganz längerfristig gibt es natürlich irgendwelche Effekte, dass wenn irgendwann Leute anfangen, euch nicht mehr weiterzumfehlen. Solche Sachen würden wir dann entsprechend sehen. Aber ich würde jetzt mal behaupten, mehrere Monate sollte eigentlich kein Problem sein. Okay, dann mache ich jetzt drei Monate Urlaub. Ja, gut. Ja, ich meine, wenn man das machen kann, ist das schon mal gut. Gut. Aber hoffentlich wird es nicht allzu schlimm bei euch. Ja, alles klar. Super. Dankeschön. Ich denke, gerade in solchen Fällen ist es einfach wichtig, dass man die Website weiterhin laufen lässt, weil was wir gerade am Anfang vom Corona-Virus gesehen haben, ist, dass einige, die die Website ganz blockiert haben und gesagt haben wir sind geschlossen und das sind dann für sich alle Seiten aus dem Index gefallen. Und das braucht dann wieder viel länger, bis sich das wieder erholt. Aber wenn die Produkte quasi weiterhin indexiert sind, wenn die Website weiterhin funktioniert und eigentlich nur, sag ich mal, der Shopping Card blockiert ist, dann ist das viel weniger problematisch. Ja, also ich habe einen Banner oben, ganz oben in einer Zeile und dort steht halt, Sie können jetzt im Moment einkaufen und ich würde natürlich dann, wenn wir jetzt betroffen wären, das Umswitchen im genoten Banner und Sie können nicht mehr einkaufen und den wahren Kopf dann blockieren. Also das wäre jetzt, aber da habt ihr auch, glaube ich, ein Dokument zu, ein Best-Practice-Dokument mal, nicht. Darum würde ich mich natürlich auch halten. Genau, super. Ja, hoffentlich wäre es nicht so schlimm. Ich habe gedacht, das hat sich jetzt wieder ein bisschen erholt überall. Aber, ja. Okay, irgendeine weitere Frage, bevor wir mit den eingereichten Fragen anfangen. Okay, dann legen wir mal los. Wenn von eurer Seite her irgendwas noch zwischen euch aufkommt, einfach nur melden. Am Ende sollten wir sich auch noch ein bisschen Zeit haben. Seit Dezember 2019 haben wir ein Problem bei der von uns betreuten Website. Wie bei anderen Webseiten auch ist damals ein Mobile Index in Search Console von 300 indexierten Seiten auf eine Seite heruntergefallen. Sind da gleich verschiedene Sachen, die da aufgetreten sind. Mit den Testing Tools funktioniert es trotzdem. Bei der Seitabfrage sind auch weniger Seiten sichtbar. Ich habe das kurz mal angeschaut, da die Website auch inter mit unseren Tools und ich sehe da eigentlich vom technischen Hersticht keine Probleme. Gerade mit den aggregierten Berichten in Search Console ist es so, dass wir ein Sample von den indexierten Seiten nehmen für diese Tools. Und manchmal in extremen Fällen kann es sein, dass wir da einfach ein Sample von einer Seite haben für diese Tools. Das gilt für den Mobile Friendly Report, wie auch für die verschiedenen strukturierten Datenreports, die wir dort haben. Auch für sich bei all denen wird es so sein, dass die Zahl der Seiten, die dort aufgeführt sind, werbt eigentlich wahrscheinlich nie dementsprechend, was wir effektiv indexiert haben. Wenn man zum Beispiel beim Index Coverage Berichte hineingeht, dann sieht man ja da eigentlich alles, was indexiert ist. Und diese aggregates Berichte nehmen dann jeweils einfach nur ein Teil von der Website. Unser Ziel ist es, dass wir da einen relevanten Anteil von der Website haben, dass wir nicht nur eine Seite haben, aber in einigen Situationen kann es schon sein, dass wir da einfach nur eins oder ein Handvollseiten nehmen für diese Berichte. Das ist an für sich nicht etwas, wo wir sagen würden, dass da ein technischer Hintergrund dabei ist, sondern dass es eher, dass unsere Systeme das einfach so ein bisschen optimieren. In manchen Fällen habe ich gesehen, dass es ein bisschen auch mit der Qualität der Webseiten ein bisschen zusammenhängt. Das heißt, wenn wir das Gefühl haben, dass wir diese Website gut zeigen sollten in den Suchergebnissen, wenn wir viele Inhalte haben, die gut indexiert sind, die auch sehr sichtbar sind in den Suchergebnissen, dann zeigen wir da ein bisschen mehr an. Wenn wir hingegen nicht so ganz überzeugt sind von der Website, dann zeigen wir da vielleicht auch ein bisschen weniger an. Das ist an für sich so die Situation da. Wenn ich die Website anschaue, sehe ich auf unserer Seite her eigentlich nicht irgendwelche technischen Probleme, wo ich sagen würde, der Server ist zu langsam, wir können nicht genug crawlen, von der Indexierung her ist es irgendwie problematisch, sondern das sieht an für sich soweit okay aus. Ich könnte mir höchstens da vorstellen, dass vielleicht so eine Qualität her, dass es ein bisschen, dass unsere Systeme vielleicht ein bisschen zweifeln, weil das ist ja an für sich die Website ist ja fast wie eine Sammlung von von links zu anderen Anbietern von Apps und verschiedene Sportwetten, solche Sachen. Und da könnte ich mir vorstellen, dass unsere Systeme denken, vielleicht macht es eher Sinn, dass wir die Ursprungsseiten einfach besser indexieren, statt diese quasi Zwischenseiten, die da vorhanden sind. Was ich da machen würde in so einer Situation ist, vielleicht mal überlegen, was man mit der Qualität der Website allgemein verbessern könnte. Wenn man sicher ist, dass vom Technischen her alles okay ist, dann würde ich wirklich mit der Qualität versuchen, da Sachen zu verbessern. Und manchmal ist das einfacher, manchmal ist das ein bisschen schwieriger. Das nehmen wir ein bisschen schwierig, genau zu sagen, was man da machen muss. In den meisten Fällen ist es nicht so, dass irgendein Method herquält, oder dass man, sag ich mal, die Seite eine halbe Sekunde schneller machen muss, solche Sachen, sondern da muss man sich schon eher überlegen, wie könnte man das grundlegend verbessern, dass die Website ein bisschen besser dasteht, dass unsere Algorithmen, wenn jemand nach solchen Sachen sucht, dass die wirklich denken, das ist genau die Seite, die wir zeigen müssen. Ist es für die Ranking schädlich, wenn der Googlebot beim Crawling und Render in der Website den Cookie-Consent-Layer über den eigentlichen Main-Inhalt ausgespielt bekommt? Habe in Search Console getestet, wie Googlebot die Seite sieht, oder erkennt Google hier, um was es sich handelt und ignoriert aus? Wir versuchen an und für sich gerade solche rechtliche Berner zu erkennen und die entsprechend dann auch auszublenden für die Indexierung. Das heißt, wenn das ein Cookie-Consent-Banner ist, ein Banner, der unten auftaucht, wenn das irgendwie ein Overlay ist auf der Seite, dann können wir das ja relativ gut erkennen und können den Rest der Seite an für sich normal indexieren. Wenn hingegen die eigentliche Inhalte gar nicht erst vorhanden sind auf der HTML-Seite, dann ist es für uns problematisch. Wenn zum Beispiel ein Redirect zu einem Interstitial stattfindet und von diesem Interstitial wird dann Cookie gesetzt und wieder zurückgeleitet auf die eigentliche Website, dann ist es ja nicht etwas, was Googlebot direkt sehen kann. Wir klicken ja dann nicht auf irgendwelche Links auf diesem Interstitial und können dann nicht mit dem Cookie weiter crawlen, sondern wir sehen an und für sich nur diese Weiterleitung zu diesem Interstitial. Wir können diesen Interstitial indexieren, wir können vielleicht erkennen, dass es sich um ein rechtlicher Interstitial handelt, aber wir finden dann die eigentlichen Inhalte trotzdem nicht. Und das ist dann eher problematisch. Hengegen, wenn quasi die HTML-Seite geladen wird und per JavaScript oder CSS einen Banner oder ein Layer davorgeschaltet wird, dann ist das für uns total unproblematisch. Dann können unsere Systeme erkennen, dass es jetzt ein rechtlicher Banner, der da halt vorhanden sein muss, wir können den dann ausblenden und können den Rest der Inhalte an und für sich normal indexieren. Da haben wir an und für sich schon recht viel Übung mit solchen Situationen und kommen da mit den meisten solchen Fällen eigentlich relativ gut zurecht. Am Anfang haben wir gedacht, dass wir da irgendein System einführen müssen, dass man solche Banner etwa kennzeichnen muss, damit wir das besser erkennen können und ein bisschen genauer ausblenden können. Aber es hat sich ein bisschen herausgestellt, dass wir da eigentlich relativ gut zurechtkommen, ohne dass man da gezielt etwas markieren muss. In Search Console sehen wir bei fast allen unseren deutschsprachigen Domains einen enormen Zuwachs an Spam links in Search Console-Berecht der verweisenden Webseiten. Das Schema ist immer das Gleiche, eine NL oder BE-Domain, die laut Search Console zu uns verlinkt, aber beim Check-Mittles-Browser redirectet die ganze Domain auf ein Online-Casino. Bei einer unserer Domains, die ich gerade durchgesehen habe, waren es hundert verschiedene verweisende Domains, die alle mit dem selben Schema, das sind mehr als zwei Drittel der Domains, laut Search Console, die auf diese Webseite verlinken. Müssen wir uns Sorgen um unser Ranking machen, beziehungsweise hilft es etwas, wenn wir dieses Spam-Domains disavowen oder haste andere Vorstellungen. An und für sich sind das Sachen, mit denen wir relativ viel Übung haben und normalerweise sollten wir da eigentlich recht gut damit zurechtkommen können. Das heißt, eigentlich müsste man da nichts machen. Wenn man wirklich hundertprozentig sicher sein möchte und wirklich das Gefühl hat, dass das wird langsam ein bisschen kritisch oder wenn man das anschaut und einfach Angst hat, dass Google das vielleicht nicht sauber erkennen könnte, würde ich die einfach in ein Disavow-Datei nehmen. Man kann ja diese Links herunterladen, den Domain-Namen herausholen in einem Spreadsheet und das einfach domainmäßig in die Disavow-Datei hineinnehmen. Und dann ist man allen für sich sicher, dass wir die nicht verwenden. Die Sachen, die in der Disavow-Datei sind, die werden beim nächsten Crawl von dieser Webseite, wenn wir diesen Link dann weiterhin dort sehen, werden wir diesen Link dann einfach fallen lassen und der wird dann gar nicht berücksichtigt für eure Webseite. Was weiterhin jedoch passiert, ist, dass dieser Link in Search Console sichtbar bleibt. Das heißt, manchmal ist das ein bisschen verwirrend. Man nimmt das in die Disavow-Datei hinein, aber es ist immer noch als Link aufgeführt. Wir führen allgemein bei Search Console auch Links auf, die quasi keine Signale weitergeben. Das beinhaltet solche, die in der Disavow-Datei sind und auch solche, die ein No-Follow haben. Die werden trotzdem in Search Console aufgelistet. Aber wenn ihr da mit domainmäßigen Disavow arbeitet, dann sollte das eigentlich total unproblematisch sein. In den meisten Fällen haben wir aber auch recht viel Übung mit solchen Links und können damit eigentlich recht gut umgehen. Weil das sind ja, sagen wir mal, nicht neue Situationen, dass da irgendwelche Spamming Websites solche Links setzen. Vielleicht eine Frage dazu? Ja. Habt ihr vielleicht schon mal überlegt, solche Links in der Search Console auch kenntlich zu machen, also die von den Webmastern einerseits disavowed wurden und andererseits von euch auch als spam identifiziert und ignoriert werden, so dass der Webmaster da gleich einen schönen Überblick hat? Das schauen wir ab und zu an, ob wir das machen können. Ich denke, schwierig ist das, das Darstellen von Links, die wir ignorieren. Weil dann sieht man natürlich, oder kann man relativ schnell testen, ob die eigenen Links funktionieren oder nicht. Oder wenn man jetzt Link-Building macht, ob das als etwas ignoriert wird oder ob das irgendwie noch einen Wert hergegeben hat. Das ist etwas, wo wir da ein bisschen kritisch sind, bezüglich solchen, die in der Disavow-Datei sind, die Kennzeichnungen. Das ist etwas anderes, was wir mal angeschaut haben. Da ist einfach die Situation so, dass das sehr wenig mit einer Disavow-Datei arbeiten. Und da müssten wir dann relativ viel Engineering-Zeit da investieren, um das einzubinden und sehen würden, dass relativ weniger. Es war mal ein, ich glaube, ein Browser-Extension, den irgendjemand mal gemacht hat, der das so dann trotzdem dargestellt hat. Zumindest, ich glaube, die Links, die per No-Follow sind, dass die ein bisschen anders markiert werden in Search Console, aber ich weiß nicht, ob es das immer noch gibt. John, darf ich da kurz einhaken? Ja. Wir sehen diese gleichen Domänes ja über verschiedenste von unseren Webseiten. Wie kommt das? Das sind das verschiedensten Workables, Sport, Kryptowährungen, diverse Sachen. Wie kann das sein, dass die da schaffen, dass die so, so viele Links simulieren zu so vielen verschiedenen Seiten, obwohl es eigentlich für alle nur ein Real-Erect ist, zu einem Casino? Und warum glaubt Google, dass das Links zu unseren Seiten sind? Was manchmal gemacht wird, ist, dass quasi ein Cloking gemacht wird. Das heißt, wenn Google-Body-Seite sieht, dann werden da ein bisschen anderer Inhalte dargestellt, als wenn man direkt auf die Website geht. In manchen Fällen ist das auch so, dass die Website geherkt wird. Das heißt, dass die eigentlich in Inhalte quasi ersetzt würden mit solchen spammigen Inhalten und dass dann ein Redirect noch eingebunden wird, damit falls ein Benutzer auf diese Seiten geht, dass dann entsprechend weitergeleitet wird. Und gerade das Setzen von Links zu Websites, die entweder diverse Hintergründe haben oder die irgendwie legitim werken, das ist eine sehr beliebte Strategie von Spammer, wo sie denken, dass wenn wir quasi Links zu normalen Websites auf unseren spammigen Inhalten haben, dann denken vielleicht die Suchmaschinen, ah, die Inhalte selber sind auch legitim. Aber das sind so Sachen, die werden seit, ich weiß nicht, seit Anfang an... Nein, nein, wir haben das ja auch schon öfters erlebt, nur jetzt ist gerade wieder ein aktueller großer Fall, eben aus diesem Werte geht halt. Wäre es da ein Problem, wenn wir jetzt hergehen und sagen, weil wir haben eben zig verschiedene Domains, wo das vorkommt. Wenn wir jetzt eine mal durchschauen, weil ich hab da eben hinter draus gefischt schon, von diesen Seiten kann ich die einfach bei allen unseren Domains mit ins Dissevorfälle einnehmen, weil die offensichtlich spamm sind. Und auch wenn die jetzt, das war schon so, noch keine Links haben von diesen Seiten. Ja, ja, das ist kein Problem. Das würde uns einiges an Arbeit ersparen, weil dann muss ich nicht 1000er Links überklicken, sondern kann einfach gleich einmal... Ja, wenn du siehst, dass so etwas quasi in einem größeren Rahmen über viele verschiedene Websites passiert, kannst du es mir auch mal zuschicken. Entweder auf Twitter oder vielleicht auch direkt per E-Mail, kann da kurz die E-Mail-Adresse hineintun. Schade. Dann kann ich das auch mal anschauen, ob wir da irgendetwas anders machen müssen, ob wir die vielleicht schneller als gehackt erkennen müssen und die ganz rausfiltern müssen oder was auch immer. Gerne, ich schicke dir gerne dann ein File mit dem, um das Sie wieder jetzt mal hatten. Dankeschön. Okay, super. Dann eine Frage zur AMP. Wir haben das Problem, das... Huch, ich stell dich vielleicht kurz auf Stumm. Ah, perfekt. Wir haben das Problem, dass in den organischen Suchergebnissen Mobilebot eine alte Gekästeversion unseres Artikels vorhanden ist, im Gegensatz zu den News Carousel mit dem Newsbot. Uns ist klar, dass es sich um unterschiedliche Bots und Algorithmen handelt, aber gibt es eine Möglichkeit, auch in den organischen Suchergebnissen die aktuelle AMP-Variante darzustellen beziehungsweise anzustoßen. Ich weiß nicht genau, wie das dargestellt wird, gerade in dieser Situation, weil normalerweise, wenn wir erkennen können, dass wir eine AMP-Variante von einer Seite haben und wenn wir erkennen können, dass der Benutzer mit einem Browser kommt, wo das unterstützt wird, würden wir allgemein die AMP-Variante zeigen, egal ob das im quasi News Carousel oder in den normalen organischen Suchergebnissen dabei ist. Das heißt, die Situation, dass wir einmal die AMP-Variante zeigen, einmal die normale HTML-Variante zeigen, sollte eigentlich eher selten vorkommen. Ich könnte mir vorstellen, dass das manchmal dann kommt, wenn wir die AMP-Variante nicht direkt erkennen können, wenn wir quasi beide Seiten separat finden und eigenständig indexieren erst einmal, aber das sollte eigentlich eher eine Ausnahme sein als irgendwie der Normalzustand. Bezüglich der AMP-Variante im Allgemeinen, wenn man da den Cash aktualisieren möchte, kann man das direkt auch machen. Es gibt eine API für, ich weiß nicht genau, wie die heißt, AMP Cash-Aktualisierung Update, irgendetwas, mit der kann man die AMP-Variante entsprechend aktualisieren lassen. Man macht das dann pro URL, je nachdem, wie man das integriert hat in der eigenen Website, kann es sein, dass man das im CMS direkt auch implementiert, dass man da, sobald man ein Artikel aktualisiert, dass es auch entsprechend im AMP Cash aktualisiert wird, kann man so einrichten. Mit dieser API wird die AMP-Variante an und für sich dann direkt aktualisiert bei uns im Cash. Es ist aber auch so, dass wir die AMP-Variante regelmäßig aktualisieren selber. Man sieht das sehr gut, wenn man die Server-Log-Dateien anschaut, dann sieht man oft, dass wir die normale HTML-Variante gekrawlt haben und die AMP-Variante dann, ich weiß nicht, 20, 30 mal noch dazu. Und das findet aufgrund von Benutzer Zugriffen auf die Seite an und für sich statt. Am Anfang war es so, dass wir die Seite in den Suchergebnissen gezeigt haben. Und sobald jemand draufgeklickt hat, haben wir quasi gleichzeitig beim Laden von Benutzer den Cash auch aktualisiert. Ich vermute, inzwischen ist das ein bisschen optimierter, dass wir nicht jedes Mal den Cash aktualisieren. Aber das sollte an und für sich auch in den meisten Fällen relativ schnell aktualisiert werden. Und eben, wenn ihr regelmäßig sieht, dass beides die AMP-Variante und die normale HTML-Variante in den Suchergebnissen erscheinen, dann wäre ich froh, wenn man mir da vielleicht ein paar Informationen noch zuschicken könnte, dann kann ich das mit dem Team hier mal anschauen, weil das sollte eigentlich nicht der Fall sein. Wir stehen vor einer Herausforderung eines neuen Projekts, bei dem es eventuell tausende Subdomains geben wird. Nun stellt sich die Frage, wie diese in einer Sidemap integriert werden sollen. Muss jede Subdomain über eine eigene Sidemap verfügen oder kann man diese in einer gemeinsamen Sidemap-Datei unterbringen? Ja, eine für sich gibt es verschiedene Varianten, wie man Sidemap-Dateien einreichen kann. Die Varianten, die normalerweise am meisten Sinn machen, ist, dass man es entweder in Search Console direkt macht. Man kann das auch mit der API machen über Search Console oder dass man per Robots Text die Sidemap-Datei einreicht. Wenn man das per Robots Text macht, kann man für sich irgendetwas angeben. Es ist so, beim Standort von den Sidemap-Dateien gibt es da gewisse Regeln, auf die man achten muss, gerade wenn man das Domain oder Subdomain übergreifend macht. Wenn das per Robots Text eingereicht wird, kann die Sidemap-Datei irgendwo stehen. Das heißt, man kann ein Domain haben nur mit Sidemap-Dateien. Man kann eine gemeinsame Sidemap-Datei für alle Subdomains haben. Das kann man gestalten, wie man möchte. Wenn die über Search Console eingereicht wird, die Sidemap-Datei, dann muss sie auf einer anderen Side sein, die auch verifiziert ist im gleichen Konto. Das heißt, wenn man eine Sidemap-Datei einreicht für einen Subdomain, dann muss die Sidemap-Datei irgendwo stehen, die im gleichen Konto auch irgendwie auf einer Website vorhanden ist. Das heißt, ich kann nicht als Sidemap-Datei etwas einreichen, was ganz fremd gelagert wird, was gar nicht im Zusammenhang steht. Die Idee dahinter ist an für sich so, dass wir es sicher sein können, dass die Sidemap-Datei zum Besitzer der Website gehört. Nicht, dass das etwas ist, was fremd eingereicht wurde für eine andere Website. Das sind, denke ich mal, vom Sidemap her sehe ich da weniger Probleme. Ich könnte mir höchstens vorstellen, dass vom Crawling her, das am Anfang ein bisschen problematisch ist, gerade wenn man Tausende Subdomains hat, weil unsere Crawling-Systeme sind in der Regel auf Hostnames optimiert. Das heißt, wir würden ja in solchen Fällen erkennen, dass da tausende neue Hostnames vorhanden sind. Und wir wären dann nicht ganz sicher, wie schnell wir das insgesamt crawlen können, ob das jetzt quasi alles auf einem Server gelagert ist und ob wir quasi die Crawl-Capacity für diesen Server quasi teilen müssen über all diese Subdomains oder ob jeder Subdomain quasi die volle Kapazität hat zum crawlen. Das ist dann manchmal ein bisschen kritisch oder beziehungsweise es braucht einfach ein bisschen Zeit, bis sich das gut eingependelt hat. Und die andere Schwierigkeit, wo man vielleicht darauf achten muss, gerade in solchen Situationen ist, wie man das Ganze in Search Console handhaben möchte. Weil in Search Console gibt es einfach eine beschränkte Anzahl Einträger, die man verifizieren kann. Ich glaube, das ist bei tausend. Das heißt, man kann tausend Sites in Search Console in ein Konto hineinnehmen. Und wenn man jetzt Tausende hat, wie bei dieser Frage, dann müsste man natürlich verschiedene Konten einrichten in Search Console für all diese einzelnen Subdomains. Und das macht es dann einfach sehr unübersichtlich. Das heißt, wenn man etwas schnell machen muss, wenn man jetzt schnell, sag ich mal, einige URLs entfernen lassen muss aus dem Cache, dann muss man da erst mal ein bisschen rumhantieren, bis man das Richtige gefunden hat. Eben neu in Search Console ist das ein bisschen einfacher, weil da kann man ja auf Domainebene auch verifizieren. Das heißt, es würde ja automatisch alle Subdomains dann beinhalten. Es gibt aber noch einige Funktionen, die sind immer noch in der alten Search Console drin, wo wir jetzt noch nicht die Domain-Variante unterstützen. Ja. Gott schau mich. Klar, das waren fast alle. Schau, ob da noch was Neues dazugekommen ist. Ja, ich glaube, das ist ziemlich alles. Das ging ja schnell. OK. Gibt es von eurer Seite vielleicht noch irgendetwas? Ich hatte noch eine Frage eingereicht eigentlich. OK. Nähklug. Vor drei Tagen. Und zwar geht es um das Zählen in Analytics und the Search Console. Wenn ein User aus den Serbs heraus, ich mache das beispielsweise so, ich lasse mir die Trefferseite anzeigen von euch und mache dann einen Rechtsklick auf die vielversprechendsten Ergebnisse und öffne damit neue Tabs. Dann schaue ich mir diese Seiten Tab für Tab an. Registriert ihr das? Wie funktioniert das dann bei irgendwelchen KPIs, wie beispielsweise der Verwaltdauer oder der CTR? Wie beobachtet ihr so einen User? Also grundsätzlich muss man wahrscheinlich zwischen Analytics und Search unterscheiden. Wir verwenden ja Analytics nicht für Search. Das heißt, was man in Analytics sehen würde, ist nicht unbedingt das, was wir jetzt für Search verwenden würden. In Search ist es so, dass die Links, die in den Suchergebnissen sind, die sind ja entweder quasi umgewandelt in Tracking-Urall. Das heißt, wenn man draufklickt, hat man erst mal diese komische Google-Urall und das wird dann weitergeleitet auf die andere URL. In solchen Fällen, wenn man das im neuen Fenster öffnet, im neuen Tab öffnet, ist die Tracking-Urall trotzdem dabei. Das heißt, der Click ist trotzdem in Search Console dabei. In anderen Fällen ist es so, dass wir die URL direkt in den Suchergebnissen zeigen können. Und dann geht es quasi über diese Ping-Mechanismus, wird dann quasi zurückgeschickt, dass diese URL geöffnet wurde. Und das wird auch normal in Search Console dargestellt. Das heißt, diese Clicks, die sind normal in Search Console, der Click-Through-Rate in Search Console, das an für sich wird da genau gezählt. In Analytics bin ich nicht hundertprozentig sicher, weil ich nicht mit Analytics direkt arbeite. Aber soweit ich das in Erinnerung habe, gibt es ja für Chrome eine API, wo man erkennen kann, wann eine Seite quasi offen ist und sichtbar ist im Browser. Und über diese API kann man natürlich das dann auch tracken in Analytics, wie lange der Benutzer effektiv auf dieser Seite war, und das entsprechend in Analytics dann auch ein bisschen anders dort zählen. Das heißt, wenn eine Seite geöffnet wird im Tab quasi im Hintergrund, kann man das über Chrome erkennen. Und in Chrome wird das dann entsprechend an die Analytics Scripts so weitergegeben. Alles klar, vielen Dank. OK. Jeden welcher weiteren Fragen? Ich hätte auch noch eine Frage. Das betrifft den mobilen Googlebot. Auf unserer Seite ist es so, dass wir auf der mobilen Seite, wir sind auch schon Mobile First, auf der mobilen Seite benutzen wir halt eine Listen-Ansicht und dort sind viel mehr Details aufgeführt von unseren Produkten als auf der Desktop-Version. Auf der Desktop-Version gibt es eine Art Galerieübersicht und da sind dann viele einzelne Kacheln und die ganzen Produkte sind nebeneinander aufgereilt. Jetzt fehlen diese Details auf der Desktop-Ansicht. Ist es denn vielleicht, wäre es besser für uns, wenn wir auf der Desktop-Ansicht noch das Layout noch mal ändern und diese Details dann auch noch mal anzeigen würden? Also bei uns ist praktisch die mobile Seite besser als die Desktop-Seite, würde ich mal sagen. Also aus unserer Sicht für die Indexierung ist es eigentlich okay. Wir würden ja eh nur die mobile Variante indexieren und nur das nehmen für sich die normale Suche, auch für die Desktop-Suche. Und von dem her sollte das eigentlich unproblematisch sein. Je nachdem wie ihr die mobile Variante gestaltet habt, wenn ihr zum Beispiel mit Responsive Design arbeitet, ist es ja auch so, dass die Inhalte trotzdem in der Seite sind. Sie sind einfach nicht sichtbar auf Desktop. Ich weiß nicht, ob das bei euch vielleicht der Fall ist. Genau, genau so ist das. Ja, dann ist es ja erst recht kein Problem. Egal, ob das über Desktop oder mobile indexiert wird, die Inhalte sind ja vorhanden, wir können die so finden. In der Situation bei euch, wenn wir eh schon mit Mobile First Indexing arbeiten, dann nehmen wir auch nur die mobile Variante für die Indexierung. Aber dass das Ranking dann auf der Desktop-Version ein wenig geringer ist als auf der mobilen Version, kann jetzt nicht sein, wenn die Inhalte versteckt sind. Wir würden das an und für sich nicht berücksichtigen. Das heißt, das Ranking kann durchaus unterschiedlich sein zwischen Mobile und Desktop, aber es ist nicht so, dass wir die Desktop-Variante in irgendeiner Art und Weise für das Ranking der Desktop-Ansicht in den Suchergebnissen nehmen würden. Sondern wir möchten eigentlich nur sicherstellen, dass die Desktop-Variante unter dieser URL erreichbar ist. Bei Responsive Design ist das ja die gleiche URL, das ist eh unproblematisch. Und die Indexierung, das heißt, die Inhalte, die wirklich dazu genommen werden für die Indexierung, die Positionierung, die Headings, die Überschriften, solche Sachen auf den Seiten. All das kommt alles nur aus der mobilen Variante. Okay, super, danke. Ich hätte vielleicht noch eine Frage. Wer soll es erst? Leg los. Okay, ich hätte noch eine Frage zur ersten Frage, die gestellt wurde mit dem Index. Und zwar, wir hatten das Problem bei der zweiten Seite auch noch. Und wir haben eigentlich da quasi alles bereinigt, also geschaut, diese technische Sachen, alles, was du vorher gesagt hast. Und bei der zweiten Seite ist es dann im Februar, also sind die Seiten wieder zurückgekommen in den Index. Und auch der Traffic war wieder quasi wie vorher. Und wir haben das auch in dem Webmaster-Forum, hat es auch einen Thread gegeben, wo es auch viele andere Seiten gemeldet haben. Und bei denen ist das eigentlich auch alles im Februar dann gelöst gewesen. Und da ist halt das Komische für uns, das ist eigentlich nur bei dieser einen Seite nicht so wahr. Ja. Schwierig zu sagen, was einfach bei unseren Algorithmen manchmal der Fall ist, ist, dass es nicht so einen Städtenübergang gibt von einem Zustand zum anderen, sondern dass es da quasi einfach wie eine Stufe von einer Seite zu anderen gibt. Und wenn eine Website dann quasi so ein bisschen auf der Kante da liegt, dann kann es durchaus sein, dass wir nach einer Revaluierung sagen, ah, gut, die ist jetzt auf der guten Seite, oder dass wir halt weiter sagen, ah, die ist weiterhin auf der vielleicht problematischeren Seite. Und da gibt es, in manchen Fällen, gibt es ja nicht so, sag ich mal, ein Grauzone, wo das ein bisschen gut oder ein bisschen problematisch ist, sondern es ist dann einfach wirklich, es ist eher quasi problematisch genug oder gut genug. Und dann bei Algorithmusanpassungen kann das durchaus vorkommen. Das kann auch allgemein bei Neugewertungen von Websites anders passieren, dass wir sagen, gut, wir haben das neu beurteilt, das ist jetzt quasi auf der guten Seite. Und das heißt dann nicht, dass da ein großer Schritt gemacht worden ist, dass sich das total verändert hat, dass wir das total anders eingeschätzt haben, sondern vielleicht ist es einfach ein bisschen besser geworden. Und das war dann gerade genug. Und manchmal gibt es dann auch so, sag ich mal, komische Situation, dass einige Websites werden dann halt ein bisschen besser eingestuft, die sind dann gerade gut genug und andere sind dann gerade noch nicht ganz gut genug. Manchmal gibt es das auch über verschiedene Länder hinweg. Das heißt, wenn ich verschiedene Länderversionen einer Website habe, kann es sein, dass einige Länder jetzt auf der guten Seite sind. Und die gleiche Website für ein anderes Land ist jetzt gerade, halt noch nicht so beim guten dabei, dass man da für eine gewisse Zeit dann wirklich auch diese Unterschiede so sieht. Okay, sagst du, du würdest raten, noch einmal die Qualität der Seite zu checken und einfach dann noch mal drüber zu gehen und dann sollte es wieder hinhauen. Ja, mit sollte weiß ich nie. Das hängt ja von vielen verschiedenen Sachen ab, aber meistens ist es schon eher in die Richtung. Und einerseits ist es natürlich gut, wenn man schätzen kann, dass quasi das ähnlich ist wie andere Seiten, die schon im Guten dabei sind. Das heißt, man muss nicht grundlegend alles neu überdenken. Aber andererseits heißt das natürlich auch die Seiten, die jetzt gerade quasi in den guten Bereich gerutscht sind, dass man da auch ein bisschen mehr aufpassen muss, dass die wirklich auch sehr gut bleiben. Nicht, dass man da quasi dann bei irgendeinem späteren Update gerade wieder in den problematischen Bereich hineinrutscht. Okay, danke. Eine hätte ich noch? Ja. Und zwar geht es zum Thema Internationalisierung einer Webseite. Ich habe von dir schon gehört, dass es eigentlich völlig Unerhebliches von Ranking-Seite her, wie man das gestaltet, was die Domainstruktur angeht, ob man für jedes Land ein extra Domain hat und dann eben auch die Top-Level-Domain dementsprechend unterschiedlich ist. Jetzt habe ich aber unlängst in einem offiziellen Google-Kanal gelesen. Dann frage ich mal, ob das der Webmaster-Tweet-Account hat, das ist so keine Ahnung. Da stand drin, man sollte eigentlich nicht .com, slash, d-e-e-n oder Frankreich oder whatever wählen, sondern doch vorzugsweise die Top-Level-Domains einzeln bespielen. War ich damals falsch verstanden? Kannst du da ein bisschen Licht reinbringen? Weiß ich jetzt nicht genau, wo du das gesehen hast. Ich weiß nicht, was du sagst. Es gibt zwei Sachen, die ein bisschen unterschiedlich sind. Einerseits die Länderzuordnung und andererseits die Sprachzuordnung. Bei der Sprachzuordnung ist es so, dass wir jede beliebige URL-Struktur nehmen können und da spielt es überhaupt keine Rolle, wie das verteilt ist auf der Website. Das können auch Parameter sein in einer URL. Bei der Länderzuordnung müssen wir quasi einen abtrennbaren Bereich der Website erkennen können. Das macht man ja dann über Search Console. Wenn man jetzt zum Beispiel einen generischen Top-Level-Domain hat, kann man ja auch die unterverzeichnischen oder Subdomains direkt in Search Console auch verifizieren und dort kann man dann für diese Bereiche die Länderzuordnung festlegen. Das heißt, bei Ländern müssen wir entweder unterschiedliche Domains haben. Das kann man auch über den Country Code Top-Level-Domain machen. Bei Country Code Top-Level-Domains muss man nichts in Search Console machen. Bei generischen Top-Level-Domains kann man das angeben in Search Console oder man nimmt einen generischen Top-Level-Domain plus Subdomain, die kann man auch separat in Search Console aufführen oder plus ein Unterverzeichnis. Das heißt, wenn ich DE nehme, dann wäre das für Deutschland, nicht für Deutsch. Wenn ich CH nehme, dann wäre das zum Beispiel für die Schweiz. Das sind auch für sich die Varianten da. Wenn man mit hreflang arbeitet, ist es ja auch noch eine Variante dazu. Bei hreflang ist es so, dass wir das auch pro URL machen. Das heißt, wir nehmen das erhebische Sprachvarianten. Bei hreflang ist es auch nicht so, dass wir für Geotargeting diesen kleinen Boost machen, wenn jemand nach lokalen Ergebnissen sucht. Das heißt, bei Länder, auf jeden Fall so einteilen, dass man das klar erkennen kann. Das kann auch mit einem Subdomain oder Subdirectory passieren. Bei Sprachen kann man das beliebig machen. Was ich jetzt einfach nicht gerade auf Anhieb weiß, gerade wenn du nicht 100%ig sicher bist, wo du das gehört hast, wie das zum Beispiel bei AdWords oder bei Shopping gehandhabt wird. Ob Sie das vielleicht ein bisschen anders machen oder bei News auch. Weiß ich nicht. Alles klar, das schaue ich mir gerne noch mal an. Ach ja, übrigens ein Joachim hat noch was in den Chat geschrieben. Der hatte dann noch eine Frage. Kann man was sagen, ob oder wann die Berichte der alten Search Console in die neue Search Console übernommen werden? Zum Beispiel, der funktionierte Age of Life-Failer-Berecht nicht bei Domain-Properties. Weiß ich nicht, wie schnell das kommen wird. Ich habe eigentlich gehofft, dass wir langsam alles übertragen haben in der neuen Search Console, aber es sind einige Sachen, die klemmen noch ein bisschen, die sind noch in Bearbeitung. Ich weiß, die sind weiterhin auch an der Entwicklung von einigen Tools, die jetzt noch neu dazukommen. Die quasi neu überarbeitet worden von der alten Search Console. Von dem her würde ich nicht erwarten, dass sie ganz verschwinden. Aber es wäre schön gewesen, wenn das jetzt ein bisschen schneller gegangen wäre. Aber gerade mit dem Age of Life-Failer-Berecht weiß ich nicht, wie schnell das kommen wird. Das heißt, wenn man das braucht, muss man halt weiterhin mit mit dem alten Host-Level-Properties arbeiten. Ich hätte noch eine spezielle Frage. Ich komme leider in Deutschland immer noch nicht klar mit dem Keyword Flaggen. Also jetzt in letzter Zeit flippt Google immer hin und her. Also manchmal kommt eine Länderflaggenübersicht oder jetzt in letzter Zeit zum Beispiel die letzten drei bis vier Wochen kamen die Seite für die Österreich-Flaggen. Also da sind dann die Bundesländer bei. Also man tipp Flaggen ein und dann kommt Österreich-Flaggen. So Platz zwischen 20 und 30. Also wie kriege ich das denn in den Griff, weil in Österreich funktioniert es? Es kommt die richtige Seite, es kommt die Homepage in der Schweiz funktioniert es halt auch. Ich habe diese Frage auch schon mehrmals gestellt. Vielleicht kannst du nochmal irgendwie ich verweise auch mit Flaggen auf die Homepage innerhalb der Seite überall. Aber irgendwie kriegst du es nicht hin. Ja. Schwierig zu sagen, was was da genau passiert. Weil manchmal ist es so, dass unsere Systeme das quasi ländermäßig auch versuchen, ein bisschen anders zu interpretieren. Und da versuchen wir auch ein bisschen her zu verstehen, wonach jemand vielleicht suchen würde und würden das pro Land vielleicht auch ein bisschen unterschiedlich auswerten. Ich weiß nicht genau, warum wir da quasi zwischen diesen Varianten bei dir quasi herumwechseln würden. Für mich klingt das ein bisschen danach, dass unsere Systeme einfach nicht 100%ig sicher sind, welche dieser Variante quasi für so ein allgemeinen Suchbegriff gezeigt werden sollen. Aber ich vermute, wenn du die interne Verlinkung sauber gemacht hast bei diesen verschiedenen Varianten, wenn das für andere Länder richtig funktioniert, dann ist wahrscheinlich auf deiner Seite eigentlich nichts problematisch oder nichts, was man ändern müsste. Sondern es ist eher einfach unsere Systeme, die dann nicht 100%ig sicher sind, was jemand genau meint, wenn man so einen sehr generischen Begriff eingebt. Du hast mir mal vor einigen Monaten einen Fohlen die Seiten anzuschauen und dort vielleicht irgendwie den Fehler oder was weiß ich, Fehler jetzt nicht unbedingt, aber da ist einfach mal zu schauen. Also, sollte ich vielleicht an der Homepage noch ein bisschen basteln, das vielleicht noch mal verbessern? Weil kann man schon machen, aber ich vermute, dass es wirklich eher etwas auf unserer Seite, wo wir einfach da nicht ganz sicher sind, welche von deinen Seiten da relevantesten sein könnte. Man kann natürlich schon daran arbeiten, dass die Homepage noch ein bisschen stärker wird oder noch ein bisschen stärker wird, ob sich das quasi unterm Strich dann auch lohnt, ob das quasi deiner Website insgesamt auch hilft, wenn die Homepage noch häufiger gezeigt wird und dafür vielleicht ein von den anderen Seiten weniger häufiger. Das kann ich nicht gut abschätzen. Ich würde das auch nicht unbedingt aus etwas ansehen, wo man quasi sagen würde, das ist jetzt ein Fehler, sondern es sind einfach wahrscheinlich unsere Algorithmen, die einfach nicht 100%ig sicher sind, was der Benutzer mit dieser Art von Suche meint. Also, Fehler, ja, ist es ja nicht unbedingt, da hast du ja auf jeden Fall schon recht. Also, was ich halt sehe, ist zum Beispiel unsere große Länderflaggenseite, wo dann die 256 Länder aufgeführt sind, die erscheint auf Platz 15, dann wiederum die Österreich-Flaggenseite, wo die Bundesländer nur aufgeführt sind, die landet dann irgendwo auf Platz 35 und dann wird immer so hin und her geswitscht und dann geschaut, mal vielleicht von einem Tag auf den anderen, was mehr geklickt wird, vermute ich mal einfach. Und ja, gut, ich kann auch gerne noch abwarten. In Frankreich kommt zum Beispiel die richtige Seite, die ist dann auf Platz 3 für den generischen Suchbegriff. Und ich habe aber nichts gemacht. Also, da hat Google das selber erkannt. Kann natürlich auch sein, dass überall dieses Wort auch Flaggen im Titel steht, habe ich mir auch überlegt. Du hast ja überall Flaggen, steht ja überall drin. Du hast ja überall Flaggen, Deutschland Flaggen, Italien Flaggen und so weiter. Das ist vielleicht auch daran liegt, dass ich da vielleicht nochmal am Titel irgendwie ein bisschen drehen sollte. Ja, ich vermute, man kann da wahrscheinlich schon Sachen ein bisschen optimieren und leicht anpassen. Aber ich vermute, du nimmst da einfach ein bisschen Wert von einer Teil der Website und schiebst ihn quasi zur Homepage rüber, wo es dann, ich weiß nicht, wenn man nach Italien Flaggen sucht, dass man dann halt vielleicht die Homepage auf einmal findet, weil da auch Italien Flaggen drauf sind. Und die Italien Flaggen Seite selber stehen Flaggen vielleicht nicht mehr so weit im Vordergrund. Und ob sich das lohnt quasi den Wert ein bisschen von der Teil der Website zu dem Teil zu schieben, das weiß ich nicht. Vielleicht macht das Sinn, vielleicht macht das auch nicht unbedingt Sinn. Aber ich denke, das müsstest du eher abschätzen. Würde ich jetzt nicht unbedingt das etwas sehen, wo ich quasi zu jemandem hingehen würde und sage, ihr müsst das jetzt so und so ändern, sondern das ist ein bisschen Ermessungssache. Okay, okay. Okay, noch irgendwelche letzten Fragen? Nichts, okay, das ist eigentlich auch gut. Cool, okay, zeitlich haben wir es eigentlich relativ gut geschafft. Ich mag von dir noch was, oder? Nein, ich wollte nur Danke sagen und nicht vorab schießen. Okay, super, gut. Ja, vielen Dank fürs Kommen. Vielen Dank für die vielen Fragen. Ich hoffe, es war einigermaßen nützlich. Und vielleicht sehen wir uns dann ein von dem nächsten Mal wieder. Unbedingt, vielen Dank, tschüss. Ja, tschüss. Bleibt gesund. Tschüss, tschüss. Ja, du auch. Ciao.