 Okay, herzlich willkommen beim heutigen Webmaster Essentials Sprechstunden Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trends Analyst hier bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster Hangouts für Webmaster, Publisher, SEOs, alle, die mit der Websuche und ihren Websites irgendwelche Fragen oder Kommentare entsprechend haben. Es sind schon einige Fragen eingereicht worden, aber wenn einer von euch loslegen möchte mit den ersten Fragen, seid ihr gerne dazu eingeladen. Doch nicht, okay. Vielleicht kommt ja noch was zwischen euch. Dann schauen wir mal die Fragen an. Das erste ist eine relativ lange Frage an und für sich sind das, ich fasse das einfach mal kurz zusammen. Es sind zwei Websites, die eine wird eingestellt und auf die andere Website weitergeleitet. Auf der zweiten Website, also quasi auf der Ziel-Website entsprechend ein Kommentar erscheinen lassen, wenn jemand von der ersten Website weitergeleitet worden ist. Und die Idee da war, dass man damit ein Parameter zum Beispiel arbeitet und entsprechend so auf dieses Parameter weiterleitet und dann per Real Canonical auf die parameterfreie Version entsprechend umleitet. Anderen für sich sollte das schon so klappen. In der Regel ist es so, dass wir empfehlen, wenn man einen Umzug von einem Bereich zum anderen macht, dass man da möglichst eins zu eins alle URLs entsprechend weiterleitet. Also wichtig ist da auf jeden Fall, dass man das pro Seite macht. Das heißt nicht, dass alles auf die Homepage weitergeleitet wird oder alles da auf die eine spezielle URL mit einem Parameter weitergeleitet wird, sondern dass das wirklich pro Seite gemacht wird. Das heißt, wenn ich ein Produkt anschaue oder die URL von einem Produkt auf der alten Website anschaue, dann sollte es zu diesem Produkt auf der neuen Website weiterleiten. Mit einem Parameter oder nicht ist an und für sich weniger wichtig dort. Vielleicht noch kurz zu sagen, bei einer solchen Weiterleitung, wo man ein Parameter dazu nimmt, kann man dann das Tool in Search Console für Adressenänderungen kann man da nicht verwenden. Weil das Tool prüft explizit, ob die Homepage zum Beispiel eins oder eins weitergeleitet wird. Wenn da ein Parameter angehängt wird, dann sagt das Tool, das funktioniert nicht. An und für sich ist das trotzdem okay. Mit dem Tool können wir das ein bisschen schneller erfassen, können wir das ein bisschen schneller bearbeiten. Aber man kann auch Weiterleitung von einer Website zu anderen machen, ohne dieses Tool zu verwenden. Das klappt da natürlich auch. Das einzige worauf ich vielleicht hindeuten möchte da ist, dass wenn man eine Weiterleitung auf eine URL mit Parameter macht und dann per Relcanonical wieder zurück auf quasi die saubere Version verweist, dann wird es auf jeden Fall sein, dass unsere Systeme im ersten Moment diesen kleinen Konflikt haben, dass sie sagen, einerseits ist diese URL mit Parameter da, andererseits ist die URL ohne Parameter da. Welches von diesen beiden sollen wir in den Suchergebnissen zeigen? Wir sehen die gleichen Inhalte, wir wissen, dass man die an und für sich zusammen klappen könnte. Wir sind da vielleicht einfach nicht hundertprozentig sicher, welches dieser URLs wir darstellen sollen in der Suche. Ich denke, dieser kleine Konflikt wird auf jeden Fall kommen. Dann ist es natürlich die Frage, wie wir erkennen können, dass die kürzerer URL eher die bessere ist. Mit dem Relcanonical funktioniert das sehr gut. Mit der internen Verlinkung innerhalb der Website hilft uns natürlich auch sehr viel. Dadurch, dass die saubere Version eine kürzerer, also eine schönerer URL ist, das hilft uns da auch. Per SideMap-Datei sehen wir natürlich auch, ob da eher die Parameter URL oder die kürzerer URL dabei ist. Das hilft uns da auch. Das heißt, wahrscheinlich würden wir da problemlos die kürzerer, die saubere URL zeigen. Es kann einfach sein, dass in einigen Fällen, dass da die Parameter URL dargestellt wird in der Suche. Im Grunde genommen ist das nicht tragisch aus SEO-Sicht, weil diese URL an und für sich in der gleichen Stelle rankt wie die URL ohne Parameter. Das heißt, im Laufe der Zeit wird sich das dann wieder einpendeln, dass wir sehen, alles zeigt eigentlich darauf hin, dass wir die URL verwenden sollten, die ohne Parameter da ist. Dann pendelt sich das sicher wieder so ein. Ich denke einfach, in der Zwischenzeit, wenn man jetzt eine gezielte Abfrage macht, zum Beispiel mit Site und in URL, dann könnte ich mir vorstellen, dass man manchmal diese Parameter-Version auch sieht in den Suchergebnissen. Aber mit der Website-Umstellung von einem Domain auf den anderen, das sollte da eigentlich keine große Rolle spielen, das sollte auf jeden Fall trotzdem klappen. Okay, Online-Shop mit ähnlichen Varianten eines Produkts. Was ist aus deiner Sicht Best Practice, wenn sich tatsächlich nur Farbe und nur Preis ändert, aber die Beschreibung und alles andere gleich ist? Dann die Varianten quasi per Canonical Tag auf das Hauptprodukt verweisen, Canonical Tag auf sich selbst und per schema.org ist similar zu quasi diese Verbindung selber aufsetzen. Vom Indexieren her ist die zweite Variante. Da ist eigentlich die Verwendung von schema.org fast nebensächlich. Das heißt, wir würden diese Seiten separat indexieren. Wenn wir sie separat auch sehen können, wenn wir keinen Canonical sehen auf die Hauptvariante, dann würden wir sie separat indexieren. Das heißt, dieser schema.org-Unterscheidung ist an und für sich nebensächlich für uns in der Suche. Es kann sein, dass wir quasi irgendwann später das ein bisschen dazu nehmen, aber im ersten Moment wird das auf die Indexierung nicht ein Einfluss haben. Auf das Ranking wird das so gut wie kein Einfluss haben. Das heißt, wahrscheinlich könnt ihr euch da sparen und dann wirklich einfach unterscheiden zwischen sollen wir ein Canonical auf das Hauptprodukt setzen oder sollen wir die Produkte separat indexieren lassen. Mit der Farbe sehe ich da an und für sich kein Problem, dass man da zum Beispiel sagt, ich nehme ein Hauptproduktseite als Canonical und das habe ich da vielleicht die Varianten auch aufgeführt, die verschiedenen Farben. Das heißt, wenn jemand gezielt nach diesem Produkt sucht und dann eine Farbe angibt, dann finden wir die Seite auf jeden Fall, weil die Farbe ist ja dann auch auf der Hauptproduktseite erwähnt. Die Unterscheidung mit dem Preis ist ein bisschen komplizierter, weil gerade wenn du Structure Data verwendest, um den Preis darzustellen in den Suchergebnissen, haben wir dann natürlich nur ein Preis. Das heißt, wenn man per Canonical auf die Hauptproduktvariante verweist, dann zeigt man einfach den Preis von dieser Hauptproduktvariante an. Das heißt, wenn wir jetzt die einzelnen Farben nicht separat indexieren und die einzelnen Preise nicht separat indexieren, dann haben wir nur ein Preis für dieses Produkt. Grundgenommen ist es euch überlassen, wie ihr das handhaben möchtet. Das kann man durchaus so sein lassen, dass man sagt, ich nehme ein Hauptprodukt und dann setze ich einfach den Preis vom Standardprodukt entsprechend fest mit dem Structure Data. Wenn man die Varianten separat indexiert haben möchte mit eigenen Preisen, dann muss man sie mal separat indexieren lassen. In der Regel empfehle ich, dass man eher mit weniger URLs arbeitet als mit mehr URLs. Der Hauptgrund da ist einfach, dass wenn man weniger URLs hat, dann haben die ein bisschen mehr Gewicht innerhalb der Website. Dann wissen wir ein bisschen mehr, dass wenn jemand nach diesem Produkt sucht, dann wissen wir ganz genau, dass es die Seite, die wir zeigen sollen. Und das hilft uns da ein bisschen. Wenn hingegen, sagen wir bei den Farben, es so ist, dass einzelne Farbvarianten wirklich kritisch sind für Besucher. Das heißt, die suchen nicht nur nach, weil ich mal einen Schuh, sondern sie suchen gezielt nach dieser speziellen Farbe, weil das ein spezieller Farbton ist oder eine spezielle Farbvariante ist, die es sonst sehr selten gibt. Dann lohnt es sich vielleicht, das separat auch indexieren zu lassen, weil dann kann man gezielt sagen, dass es jetzt, ich weiß nicht, der goldenen Laufschuh oder irgend so etwas, was speziell gesucht wird, hingegen die anderen Farbvarianten sind eigentlich nur verschiedene Optionen vom gleichen Produkt. Das heißt, insgesamt habe ich keine definitive Antwort für dich da. Es hängt wirklich ein bisschen davon ab, wie ihr das Hand haben wollt ob ihr die verschiedenen Varianten wirklich indexiert haben möchtet oder nicht. Ich würde in der Regel empfehlen, dass man eher auf weniger Urals tendiert, als alles aufzutalen auf mehr Urals, einfach damit die einzelnen Urals ein bisschen mehr Gewicht haben. Wie sollte man mit der Indexierung von Shop-Paginierungsseiten zukünftig umgehen? Bis vorher war ja meist no index follow die Regel. In einem anderen Hanger hat es gemeint, dass aus no index follow nach einiger Zeit automatisch no index no follow wird und die links somit nicht mehr gefolgt werden. Wie kann man das an und für sich machen? An und für sich hängt das auch ein bisschen davon ab, wie ihr das haben möchtet. Das heißt, gerade bei, wie kann ich das erklären? In der Regel ist es bei solchen Urals, die ein no index follow haben, ist es so, dass wir im ersten Moment indexieren für diese Seiten. Wir zeigen sie nicht in den Suchergebnissen an, aber wir wissen, dass sie existieren. Wir können die Inhalte und die Links dort extraieren und entsprechend weiterverwenden. Das heißt, die Links, die wir da finden, können wir dementsprechend nachgehen und die seinsen Seiten, die da verlinkt sind, dann können wir problemlos auch auffinden und crawl und indexieren. Das ist ja eigentlich das, was man da in der Regel auch haben will. Was länger bis die passiert, wenn wir diese Seite nicht sehr häufig erwähnt sehen, dann denken wir ja gut, diese Seite will ja nicht indexiert werden. Das heißt, sie können an und für sich die Seite aus dem Index ganz herausnehmen. Wir müssen die Links, die Inhalte dort gar nicht groß anschauen und dementsprechend fahren die Links dann entsprechend auch wieder raus. Wenn wir hingegen sehen, dass diese Seiten weiterhin relevant verlinkt sind, innerhalb der Website, dann finden wir sie ja immer wieder und können die Links dann auch immer wieder auffinden. Das heißt, bei solchen Paginierungsseiten innerhalb von einem Shop, wenn das Seiten sind, die wirklich häufig auch gefunden werden, häufig gecrawt werden und die trotzdem einen No-Index-Follow entsprechend haben, finden wir die Links zu den einzelnen Produkten trotzdem noch und können die an und für sich auch finden. Was ich ja auf jeden Fall empfehlen würde, ist, dass man irgendwie auch alternative Varianten hat, um die einzelnen Produkte aufzufinden. Das heißt, zum Beispiel verwandte Produkte auflisten auf einzelnen Produktseiten. Das heißt, dass man mit der Sidemap-Datei arbeitet. Das heißt, dass man neue oder wichtige Produkte irgendwie auch entsprechend relevant verlinkt. Das heißt, zum Beispiel auf der ersten Seite der Produktkategorien-Seite oder vielleicht auch auf der Startseite vom Shop, wenn das ganz neue Produkte sind. Einfach, dass wir die Sachen möglichst schnell wiederfinden können. Dass wir die auf jeden Fall auch crawlen können und dass wir, wenn zum Beispiel ab der vierten Seite von einer Kategorienübersicht, wenn wir da wirklich dann nicht mehr weiter crawlen, wenn wir denken, gut, wir haben jetzt 3 No-Index hintereinander gesehen, lohnt es sich da wirklich noch weiter zu crawlen, um weitere URLs zu finden, dass man dann trotzdem noch eine Linkstruktur innerhalb der Website hat, dass man diese Seiten trotzdem noch crawlen kann. Das heißt, im ersten Moment würde ich da jetzt nicht irgendwie Panik haben und alles Versuchen umzustellen, sondern ich würde mir wirklich überlegen, wie kann ich diese Produkte jeweils querverlinken, dass man die trotzdem finden kann und wie kann ich das machen, dass durch das Crawling von diesen Kategorienseiten, wenn das wirklich weiter hinten erst verlinkt ist, dass man trotzdem diese Produkte irgendwie auffinden kann. Und manchmal ist es halt auch so, dass wenn einzelne Produkte auf Seite 10 von einer Kategorienseite nur verlinkt sind und sonst nirgendwo innerhalb der Website, dann behalten wir die vielleicht trotzdem noch im Index, aber wir sehen ja auch, dass innerhalb von der Website, dass ihr den eigentlich nicht so wahnsinnig viel Wert schenkt und dementsprechend kann es dann vielleicht sein, dass wir irgendwann längerfristig sagen, gut, wir sehen jetzt so gut, wie gar keine Links innerhalb dieser Website zu diesen Produkten, müssen wir die wirklich noch separat indexieren oder nicht. Das heißt, wenn etwas für euch wichtig ist, wirklich auch sauber und klar innerhalb der Website verlinken. Wie bewertet Google Mitarbeiter Links und Content, der nicht sichtbar ist, zum Beispiel in einer mobilen Navigation. Gerade mit Mobile First Indexing ist es so, dass wir die Inhalte, die nicht direkt sichtbar sind, die man trotzdem irgendwie aufrufen kann, dass wir die eigentlich normal berücksichtigen. Das heißt, da muss man nicht spezielles machen. Was man hingegen weiterhin vermeiden sollte, sind Einhalte, die immer versteckt sind, die immer nicht sichtbar sind auf Seiten. Aber wenn das Inhalte sind, die man aufklappen kann, die man irgendwie aufrufen kann, indem man gezielt in ein Tab reinklickt oder in ein Menu hineinklickt, dann ist es auf jeden Fall kein Problem. Auch mit der Navigation ist das in der Regel überhaupt kein Problem. Da finden wir die Links ja trotzdem und können den entsprechend auch weiterkauen. Wir betreiben ein Online Shop und erstellen unsere Fotos und Produktbeschreibungen alle selber. Dabei bekommt jedes unser Produkt einen eigenen individuellen Produkttext, um den Kunden so gut wie möglich das Produkt vorzustellen. In den letzten Monaten ist zu beobachten, dass vermehrt Online Shops aus dem Boden gestampft werden, die über andere Dienste, beispielsweise vorgefertigte Text- und Bilder direkt einfach so übernehmen. Und ich glaube, die Frage geht ein bisschen in die Richtung, ist es wirklich für Google einfach wichtig, dass möglichst viele Inhalte vorhanden sind auf einem Shop oder sind quasi eigenerstellte Inhalte trotzdem noch besser? Ja, ich denke, das ist eigentlich auch nicht unbedingt etwas Neues. Das hat schon sehr lange gegeben, gerade im Affiliate-Bereich. Es ist ja oft so, dass man da ein Feed bekommt von einer Firma und da sind alle Produkte aufgeführt und alle Produktbeschreibungen und Bilder verlinkt. Und die kann man eins zu eins einfach so in die Website hineinnehmen. Und da hat man dann Rupzock, ein Online Shop, der eigentlich alles die gleichen Produkte wie irgendwelche größeren Firmen auch besitzt. Und aus unserer Sicht ist es so, dass wir da verschiedene Sachen kommen ein bisschen zusammen. Einerseits ist es so, dass wir diese Seiten wahrscheinlich nicht als reinen, duplicate Content ansehen würden, weil die gesamte Seite ist ja für sich eigen. Das heißt, zumindest in Menü und unten im Futter ist ja alles ein bisschen speziell. Wenn in Produktbereich die einzelnen Produkte und die Beschreibungen alle eins zu eins gleich sind, dann ist trotzdem die gesamte HTML-Seite ein bisschen unterschiedlich und wir würden die wahrscheinlich so indexieren. Es hängt immer ein bisschen von verschiedenen Faktoren ab, wie weit wir diese Seiten indexieren würden. Das heißt, wenn ich auf einmal Millionen Produkte aufschalte, weil ich dazu ein Feed habe, macht meistens nicht so viel Sinn von Google sich, dass wir da alle Millionen Produkte auf einmal indexieren, nur weil sie gerade vorhanden sind. Sondern wir schauen wahrscheinlich erst mal ein Teil davon an und sehen dann im Laufe der Zeit lohnt es sich da wirklich mehr von diesen Inhalten zu indexieren oder nicht. Manchmal indexieren wir einfach auch mal ein bisschen draufhin los und denken ja, vielleicht sind die okay, vielleicht lohnt es sich die so zu indexieren und dann später merken, ah, das hat sich vielleicht doch nicht so gelohnt, aber indexiert sind sie schon mal. Aus praktischer Sicht ist es so, dass wenn jemand gezielt nach etwas in dieser Produktbeschreibung sucht und wir wissen, dass dieser Blogtext auf verschiedenen Seiten vorhanden ist, dann nehmen wir in der Regel eines von diesen Seiten und zeigen die in den Suchergebnissen. Das heißt, es ist nicht so, dass wenn ich die gleiche Beschreibung auf 100 Websites habe, dass alle 100 Websites dann für diesen Text erscheinen, sondern wir versuchen dann einfach eines dieser Varianten rauszuwählen und zeigen die dann entsprechend an. Das heißt, für diese Shops, die die gleichen Inhalte, also die gleichen Texte verwenden wie alle anderen, wird es so sein, dass wenn jemand nach diesem Produkt sucht, zeigen wir einen von diesen Shops an, nicht alle. Was hingegen passieren kann, ist, wenn jemand nach einer Variante sucht, sodass einer dieser Shops entsprechend wichtiger erscheint, dann wählen wir eher diesen Shop aus. Ein häufiger Beispiel ist, wenn man die gleichen Produkte vertreibt in einer Papertrie, wo man verschiedene Schreibblöcke und Stifte finden kann und die Stifte kann man ja nur auf dem Beschränkter beschreiben oder man nimmt vielleicht die gleiche Beschreibung wie alle anderen. Wenn jemand nach einer dieser Stiftmodelle sucht und dann einen Ortsname noch dazu angibt, dann wissen wir, dieser Text über diesen Stift ist zwar auf diesen 100 Websites, wir sehen aber auch, dass jemand gezielt nach eines dieser Websites sucht und dann können wir eher diese Variante entsprechend auch zeigen. Das heißt, es ist nicht unbedingt kritisch, dass man da wirklich eigene Beschreibungen hat, aber man muss einfach damit rechnen, dass wenn jemand allgemein sucht nach diesem Produkt, dann kommt vielleicht meine Website nicht. hingegen, wenn jemand gezielt nach etwas Speziellen auf meiner Website sucht und diese allgemeine Beschreibung, dann können wir die entsprechend brennen. Das heißt, für euch quasi als Vorteil, wenn ihr wirklich die ganze Beschreibung und die Bilder alle selber macht, dann habt ihr nicht dieses Problem, dass wenn jemand nach etwas allgemein sucht, dass dann vielleicht irgendeine andere Website kommt, sondern dann erkennen wir ja wirklich, diese Textblöcke sind jetzt eigen erstellt, die sind unterschiedlich von allen anderen Textblöcken, die wir da haben. Das heißt, wir können eure Website auch für diese allgemeineren Suchen eigentlich so gut wie immer irgendwie zeigen. Das heißt nicht, dass wir sie an erster Stelle ranken, nur weil sie speziell sind, aber wir können sie auf jeden Fall zeigen, weil sie nicht das Gleiche sind wie all diese anderen Websites. Und zudem, wenn jemand nach etwas spezieller umsucht, also nach einer Produktbeschreibung und einem Ort, und das passt zu eurer Website auch zusammen, dann können wir auch eure Website sein. Das heißt, ihr habt, wenn ihr wirklich eigene Beschreibungen erstellt, habt ihr die Variante, dass man ihr für die allgemeinen Suchen wie auch die spezielleren Suchen erscheint, könnten in Suchergebnissen. Und wenn jemand nur die Beschreibungen weiterverwendet, die schon vorhanden sind, dann ist es meistens so, dass wir eine von diesen vielen Varianten zeigen würden für die allgemeinen Suchen und dann für die spezielleren Suchen könnte es trotzdem sein, dass wir eure Website zeigen. Ähnlich ist das auch bei der Bildersuche. Das heißt, auch bei der Bildersuche haben wir quasi das Prinzip vom Duplicated Content. Das heißt, wenn wir erkennen können, dass das gleiche Bild auf vielen Websites vorhanden ist, dann zeigen wir eines dieser Websites an in der Bildersuche. Also das Bild ist ja das Gleiche. Es macht keinen Sinn, dass man das gleiche Bild mehrmals in der Bildersuche entsprechend zeigen würde. Zeigen wir das einmal. Das ist dann vielleicht eure Website, die die gleichen Inhalte verwendet wie alle anderen. Oder ist es vielleicht irgendeine von diesen anderen, hunderten anderen Websites, die die gleichen Bilder verwenden. Wenn jemand speziell ersucht, können wir das entsprechend ein bisschen einschränken. hingegen, wenn man eigene Bilder hat, dann ist es eigentlich immer so, dass wir sagen können, gut, das ist ein eigenes Bild. Das können wir eigentlich so gut wie immer zeigen. Ebenso wie bei der Textsuche, ist es nicht so, dass wir vom Ranking her dann sagen, das ist ein eigenes Bild, das muss an erster Stelle ranken. Aber es kann in den Suchergebnissen dort erscheinen. Das heißt, grob genommen lohnt es sich, eigene Texte zu erstellen oder nicht? Ich denke, das lohnt sich schon in den meisten Fällen. Wenn man das irgendwie machen kann, kann man natürlich so ein bisschen mehr Wert herausholen, ein bisschen mehr die Chance auch bekommen, dass die eigene Website gezeigt wird, eben für die allgemeinen Suchen wie auch für die spezielleren Suchen. Wir haben unsere AMP-Seiten durch ein Parameter-Zusatz implementiert. Das heißt domain.de, sprich News, Nachrichtentitel und dann Fragezeichen Service, gleich AMP. Wie soll man das in SuchConsole beim Parameter-Tool einstellen? Ich würde das im Parameter-Tool würde ich das so überlassen mit der Standorteinstellung, dass Google entsprechend entscheiden kann. Normalerweise spielt das keine große Rolle, wenn die AMP, also nehmen wir jetzt mal an, dass die AMP-Seiten mit euren normalen Seiten verbunden sind. Weil, denke grob genommen von der Frage her, würde das passen, das heißt man hat einerseits die normale HTML-Seite und dann andererseits die AMP-Seite, auf die man verweist, mit dem link-well-amp HTML. In solchen Fällen, wenn die AMP-Seiten separat sind von den normalen Seiten, ist es so, dass wir in erster Linie die normalen Seiten crown und da diesen Link auf die AMP-Seite finden und die AMP-Seite dann an für sich separat crown. Das heißt, der Parameter-Handling-Tool spielt da weniger eine Rolle, weil die AMP-Seiten selber ja eigentlich nicht indexiert werden. Sie haben ja einen Rail-Canonical jeweils zurück auf die normale HTML-Version. Das heißt, mit diesem Parameter-Handling-Tool muss man da eigentlich nichts machen. Ebenso ist es mit den Side-Maps. Da ist es auch so, dass wir in erster Linie die normale HTML-Version crown. Wir finden dann diesen Link auf die AMP-HTML-Version und crown dann dementsprechend so schnell wie möglich die AMP-Version auch noch dazu, damit wir einfach diese Verbindung zwischen diesen beiden Varianten haben. Aber als Hauptvariante gilt ja da weiterhin die normale HTML-Version. Das heißt, in der Side-Map-Datei ist es weiterhin wichtig, dass die normale HTML-Version dort in erster Linie erwähnt wird, weil das ist ja auch die Basis, die wir nehmen für das Ranking. Das ist dann die Basis, die wir nehmen, um die AMP-Version von dieser Seite auch aufzufinden. Anders wäre es, wenn man jetzt auf eine reine AMP-Website wechselt oder wenn man einzelne Seiten nur mit in AMP-Version hat. Das machen immer mehr Websites ja auch. Dass man sagt, AMP ist ein tolles HTML-Framework. Wir verwenden AMP als Basis für unsere Inhalte insgesamt. Wir haben für einzelne Seiten vielleicht gar keine HTML-Version mehr. Dann ist es natürlich so, dass die AMP-Version die Basis ist für die Indexierung und die Basis ist für das Ranking. Und dann muss man den Ranking für die AMP-Version dann auch in der normalen Side-Map-Datei aufführen, damit wir die normalen Crawlen und Indexieren können. Seit Oktober werden in den Suchergebnissen ja die Boxen zum Suchvolumen und Positionen angezeigt. Wenn man in Search Console eingeloggt ist. Jetzt mit der Einrichtung der Domains. Als Domain Property klappt das nicht mehr. Ist das ein Burg oder noch in Planung? Das haben wir jetzt nicht bewusst, dass das nicht funktioniert. Das klingt eher wie ein Burg. Ich gebe das auf jeden Fall an das Team mal weiter, damit man das genauer anschauen kann. Die Domain Property sind ja relativ neu. Vielleicht ist ja noch nicht alles ganz ausgerichtet auf die entsprechenden Shows. Wir betreiben eine Seite mit .com und sehen deutlich höhere Reichweite außerhalb von Deutschland. Schade die .com und sollen wir auf eine DE-Domain umsetzen. Man kann eine DE-Domain umstellen, aber ich denke, das sollte eigentlich nicht so weit schaden. Das heißt, nur weil mehr Besucher international sieht, heißt nicht, dass ihr deswegen weniger Besucher aus Deutschland sieht. Was ihr auch machen könnt, ist in Search Console die Länderzuordnung entsprechend angeben für die .com Website. .com ist ja ein generischer Top-Level-Domain. Das heißt, ihr könnt die Länderzuordnung frei angeben und so könntet ihr die .com eigentlich auch einstellen, wie eine Website, die auf Deutschland getargetet ist, was anfühlt sich ähnlich wäre wie eine DE-Domain. Das heißt, wenn ihr das machen wollt, könnt ihr das machen. Ich denke, es sollte allerdings nicht so sein, dass nur weil eine Website international mehr sichtbar ist, dass sie deswegen innerhalb vom Zielland, das heißt in Deutschland jetzt weniger sichtbar wäre. Was ist die beste Vorgehensweise bei wiederkehrenden Artikel? Ich habe beispielsweise ein Artikel über Feiertage. Es soll so ein Artikel jedes Jahr aktualisiert werden. Zum Beispiel mit der URL-Feiertage oder jedes Jahr Artikel geschrieben werden, also mit Feiertage-2019. Beim neuen Artikel würden sich eigentlich nur die Daten ändern, der Inhalt wäre ja sonst gleich. Meine Empfehlung gerade bei wiederkehrenden Events oder wiederkehrenden Feiertage oder Seiten, die immer wieder neu dazukommen, ist eigentlich, dass man die gleiche URL längerfristig verwendet. Das heißt, man kann von dort aus problemlos sagen, ich nehme jetzt die 2018-Inhalter und schiebe sie in ein Archiv, aber wenn man die gleichen URLs weiterverwendet, dann können diese URLs im Laufe der Zeit einfach mehr Wert ansammeln. Man sieht das sehr häufig, wenn zum Beispiel eine Konferenz oder irgendeine Veranstaltung jedes Jahr neu kommt, wenn man neue URLs jedes Jahr verwendet und ich nach dieser Veranstaltung nach diesem Veranstaltungsnamen suche, dann ist es meistens so, dass die Veranstaltung vom letzten Jahr in den Suche-Ergebnissen erscheint, einfach weil sie bisher nicht mehr die wichtigste war. Entgegen, wenn man die gleiche URLs weiterverwendet und ich nach diesem Veranstaltungsnamen suche, dann weiß ich oder dann wissen unsere Systeme wenigstens Aha, diese URL, die nur über diese Veranstaltung ist, die regelmäßig aktualisiert wird, das ist eigentlich die relevanteste, die müssen wir zeigen. Das heißt, soweit wie möglich würde ich versuchen, mit einem allgemeinen URL zu arbeiten und das entsprechen einfach im Laufe der Zeit jeweils aktualisieren. Wenn man die alten Inhalte aufheben möchte und dass man die dann separat einfach in einem Archiv noch zusätzlich aufnimmt. So, mal kurz schauen in den Chat, da bespricht ihr das über die Domain Properties. Ich muss das mal genauer anschauen mit dem Team. Was da genau abläuft mit den Domain Properties. Weil an und für sich finde ich das schon praktisch, wenn man das direkt in den Suchergebnissen so sehen kann. Gerade wenn man nicht sehr häufig in Search Console geht, ist das immer wieder eine Erinnerung, dass, ah, meine Inhalte werden doch in der Suche dargestellt und es kommen so viele Leute über die Suche hinein. Was ist der beste Umgang mit Bildern, Dateinamen bei internationalen Seiten in Bezug auf SEO. Ein Bild wird auf mehreren Sprachpräsenzen verwendet. Ist es besser, dieses Bild zu duplicieren und in jeweiliger Sprache anzulegen. Oder sind übersitzte Titel und Alltag ausreichend. Ja, ich müsste mal kurz überlegen. Also was ich da eher machen würde, ist, dass man wirklich einfach mit dem gleichen Bild arbeitet und da entsprechend einfach mit die Landing Pages entsprechend anpasst. Das heißt, was da passiert, ähnlich wie was wir vorhin gesehen haben mit diesem Shop, mit dem kopierten Bildern und Texten, was da passieren würde, wenn man das gleiche Bild einfach kopiert und auf verschiedene Länderversionen weiterverwendet, ist es so, dass wir dann trotzdem erkennen können, dass es eigentlich das gleiche Bild ist und das heißt, da würde ich eher auch in die Richtung hintendieren, dass man sagt, weniger URLs sind da besser, dass man ein URL nimmt für dieses Bild und einfach dieses gleiche URL von der Bilder-Datei auf verschiedenen Landing Pages weiterverwendet. Wir nehmen ja für das Ranking für die Bildersuche einerseits das Bild dazu, andererseits den ganzen Kontext auf der Landing Page, das heißt der Alt Attribute beim Bild, irgendwelche Untertitel, wenn die vorhanden sind beim Bildern, der Text rund um dieses Bild herum, spielt da eine Rolle und dementsprechend können wir da durchaus sehen, dass dieses Bild auf verschiedenen Landing Pages vorhanden ist und dieser Landing Page ist halt jetzt die relevanteste für diese spezielle Suche, die jemand gemacht hat. Ich denke, gerade bei Bildern allerdings so, dass viele einfach darauf verharren oder ja, wie kann man sagen sich einfach darauf beschränken, dass man möglichst viele Bilder indexiert hat für die Bildersuche. Ich würde mir allerdings überlegen, was ihr von der Bildersuche erwartet. Und dementsprechend dann vielleicht auch die Strategie ein bisschen anpassen, dass man nicht nur sagt, ich möchte alle meine Bilder in der Bildersuche haben, sondern ich sehe, dass man da gezielt mit in einer visualen Art nach meinen Inhalten auf diese Art und Weise suchen und dementsprechend dann auch die Bilder entsprechend anpassen. Das heißt nicht nur einfach sagen, ich habe 100 Bilder, ich möchte, dass sie alle indexiert sind, sondern dass man wirklich auch überlegt, wonach könnte jemand visuell suchen und was könnte ich als Bild bringen, dass diesen Benutzer dann zu meinen Inhalten entsprechend weiterführt. Und weniger in die Richtung quasi wie kann ich meine Bilder einfach ranken lassen, dass jemand die Bilder weiterverwenden kann in der Blogpost, sondern eher in Richtung wie kann ich meine Bilder so am richtigen Ort platzieren, wenn jemand visuell sucht, dass dieser Besucher dann zu meinen Inhalten kommen möchte und bei mir dann entsprechend ein Produkt kaufen will oder mehr Informationen erfahren kann. Und manchmal kommt dann entsprechend heraus, dass man sagt, gut, ich nehme ein Zehntel meiner Bilder für die Bildersuche und der Rest ist mir eigentlich egal. Aber für diese Zehntel, die ich in der Bildersuche haben möchte, da achte ich vielleicht ein bisschen mehr darauf, wie ich diese entsprechend in der Bildersuche bringe. Das heißt vom Alltext her, dass man da eher schaut, wie kann ich das platzieren, so dass es zu dem passt, wonach jemand sucht. Und unbedingt eins einfach das Bild beschreiben, sondern vielleicht auch erklären, warum ist dieses Bild relevant oder für welche Arten von Suchen ist das Bild entsprechend relevant und ebenso auch mit dem Text rund um das Bild, die Untertitel all dieses haben. Das manchmal nicht so einfach, aber ich denke, das lohnt sich, wenn man da wirklich auch sieht, dass man auch diesen Inhalten sucht, die man auf der eigenen Webseite hat. Gerade bei Produkten ist es ja oft so, dass man da vielleicht eher visuell sucht und da kann man da schon ein bisschen nachhelfen. Eine Frage zu Thin Content und Alten News. Du sagtest, dass relevantere Inhalte qualitativ hochwertiger sein sollten für die Gesamtqualität einer Domain. Relevanz würde ich theoretisch mit der Verlinkung erzeugen. Je mehr Links, desto relevanter. Ich frage mich, was für Google relevanter wäre. Eine URL, die auf Seite 30 innerhalb einer Paginierung für ein Link ist und nicht per Sitemap oder zweitens eine URL, die nicht intern verlinkt ist, aber per Sitemap. Ich denke, grundsätzlich Qualität ist es natürlich immer eine Frage, dass wir da die Gesamtqualität der Webseite versuchen anzuschauen und dabei versuchen wir uns auf das zu konzentrieren, was wirklich relevant ist innerhalb der Webseite. Mit den Links sehen wir da ein bisschen etwas in die Richtung, aber es gibt natürlich auch mehr. Wenn man jetzt diese beiden Varianten anschaut, wo beide eigentlich relativ schwierig aufzufinden sind für unsere Crawler. Wenn etwas wirklich nur auf Seite 30 ist, verlinkt es innerhalb einer Paginierung, dann braucht es sehr lange, bis unsere Crawler das entsprechend finden. Ich denke, beide dieser Varianten sind nicht optimal. Eine URL, die gar nicht intern verlinkt ist, die aber per Sitemap vorhanden ist, das ist meistens noch schwieriger für uns, weil wir die beim normalen Crawling gar nicht finden. Das heißt, mit der Sitemap Datei können wir uns die Seiten schneller zu finden, die neu und verändert worden sind. Das heißt, wenn etwas tief innerhalb der Webseite groß verändert worden ist und ein Änderungsdatum entsprechend hat in der Sitemap Datei, finden wir das ein bisschen schneller, als wenn wir normal crawlen müssen. Aber eine Sitemap Datei ersetzt nicht die normale interne Verlinkung. Das heißt, wenn ihr Inhalte auffindbar haben möchtet, dann könnt ihr innerhalb der Webseite normal verlinken. So, dass jeder Crawler wenn der Crawler diese Webseite anschaut, irgendwie den Weg zu diesen Seiten entsprechend finden kann. Und je schneller die Crawler diese Seiten finden können, umso wichtiger sind die meistens für die Webseite. Es ist ja klar, wenn ich in ein Shop hineingehe und gerade am Anfang steht, schaut mal unser Topprodukt an, das ist das Wichtigste für uns. Wenn wir das unbedingt mal anschauen, dann kommen die Besucher auch und schauen das wirklich auch an, ebenso unsere Crawler. Wenn hingegen ein Produkt wirklich nur in der hintersten Ecke irgendwo in einem Regal versteckt ist hinter fünf anderen Sachen, dann wird es sehr selten sein, dass ein Crawler das überhaupt auffindet und Besucher entsprechend auch. Das heißt, bezüglich Relevanz, würde ich da einfach schauen, dass das Crawler sind, das ist eine Art normaler Besucher. Und als Besucher möchtest du ja auch nicht erstmal lange herumwühlen, bis du überhaupt diese Inhalte findest. Wenn du erlaubst, darf ich eine Zwischenfrage dazu stellen? Ja klar. Wie sieht denn das aus, wenn ja was Skript in Spiel kommt? Dann haben wir einen Unterschied zwischen dem Besucher und dem Crawler. Also sprich, gibt es hier eine andersartige Bewertung von links, vor dem Rendering erkannt werden und nach dem Rendering erkannt werden? Nein. Aus unserer Sicht sind die eine für sich gleichwertig. Okay. Das heißt, gerade bei JavaScript Websites, wenn die Seite gerendert werden muss, sehen wir die Links, die nach dem Rendering davor handen sind, ähnlich wie ein Besucher, die auch sehen würden. Ja, weil ich mir gedacht habe, der Unterschied ist ja, wie es sich vorzieht und der Crawler aber erst nach dem Rendering. Ja, wobei das Rendering funktioniert eigentlich relativ schnell. Okay. Danke. Dann eine hreflang-Frage, wenn ich ein Geo-IP Abfrage für alle Besucher mache, ein JavaScript-Banner in Österreich und in der Schweiz und Googlebot, die Link sieht, wie werdet Googlebot diese Links. Die Links sind so gebaut, dass man exakt in der gleichen Kategorie oder im gleichen Produkt landet, praktisch wird nur die Domain-Endung entsprechend vertauscht. Was passiert, wenn ein deutscher Kunde die CH-Domain in Spanien findet, dann schlussendlich über die DE-Domain bestellt? Wird das ein Signal über den Banner weitergeleitet? Oder ein Signal über den Banner über den Inhalt platziert? Also, ich denke, im ersten Moment werden wir das wahrscheinlich nicht sehen, weil Googlebot crawled aus Amerika und dementsprechend wirst du da wahrscheinlich keinen Banner für Googlebot sichtbar machen und dementsprechend sehen wir das gar nicht. Das heißt, wie du das in deinem Banner ist an und für sich dir überlassen. Du könntest theoretisch da auch auf Nummer sicher gehen und sagen, dieser Banner wird per JavaScript erstellt und die JavaScript-Datei ist per Robots Text zum Beispiel blockiert, weil die an und für sich nicht relevant ist. Und so finden wir diesen Banner dann auch gar nicht. Auch wenn wir diesen Banner finden würden, wäre das kein Problem. In vielen Fällen ist es ja so, dass man zum Beispiel die Länderversion mit einer Fahne oder so etwas wechseln kann. Und das sollte ja die Verlinkung auch auf die gleiche Seite einfach für die einzelnen Ländervarianten vorhanden sein. Diese Länderlinks sind für uns auch sehr praktisch, weil da sehen wir auch die Verweise zwischen diesen einzelnen Websites und können das entsprechend ein bisschen besser Crayer verlinken und können da ein bisschen einfacher eine internationale Website-Struktur auch crawlen. Das heißt, in Grunde genommen würde ich das so machen, wie das für euch am besten funktioniert. Wenn ihr wirklich wollt, dass Besucher, sag ich mal aus Deutschland, wenn sie aussehen auf die Schweizer Website gehen, ein Banner sehen, mit einem Verweis auf die DE-Variante, könnt ihr das gerne machen. Ich finde das an und für sich eine gute Idee, weil es so Besucher eher dann auch oder schneller zumindest die Variante finden, die für sie jeweils relevant ist. In der Schweiz ist es ja auch häufig so, dass einzelne Produkte gar nicht lieferbar sind oder ganz andere Preise haben. Und da, wenn man dann schneller zur Schweizer Variante wechseln kann, dann ist das eigentlich immer eine praktische Sache. Ich habe mein Deutschland-Österreich Schweiz hreflang setup gelöscht, weil Google viele Seiten meiner Meinung nach falsch kanonisiert hat. Du sagst es in einem Hangout, dass ein hreflang ein leichtes canonical ist, meine Domains sind das, kann ich davon ausgehen, dass Google ohne hreflang auf keinen Fall selbst Domain übergreifend kanonisiert. Ich möchte, dass die Domains für sich selber ranken lassen. Ich denke, das wird dir wahrscheinlich nicht groß weiterhelfen in dieser Hinsicht, weil was ja passiert, wenn wir eine hreflang Verbindung zwischen einzelnen Varianten haben und wir erkennen können, dass diese Varianten gleich sind, dann indexieren wir eine Variante, tauschen die URLs aber per hreflang in den Suchergebnissen aus. Das heißt, indexiert wird trotzdem einfach eine Variante. Wenn kein hreflang vorhanden ist, dann können wir diese Varianten einfach nicht austauschen oder ist es zumindest viel schwieriger für uns, dass wir da diese Varianten überhaupt erkennen können. Das heißt aus meiner Sicht wirst du da nicht unbedingt Vorteile haben. Ich denke, probieren kann man das sicher, weil wir wahrscheinlich trotzdem diese Seiten als duplikat anschauen würden, wenn die Hauptinhalte wirklich duplikater sind. Eben mit dem hreflang ist es zumindest so, dass wir die URLs in den Suchergebnissen dann trotzdem austauschen können, auch wenn wir nur eine Variante indexiert haben. Die Sache mit hreflang als Canonical Signal ist so, dass wir die einzelnen Ziel URLs innerhalb diesen hreflang Sets jeweils als Canonical Air auswählen. Das heißt, es ist nicht so, dass wenn ein hreflang Verlinkung da ist, dass wir sagen, wir können jetzt einfach eine dieser Varianten indexieren, sondern wenn wir ein hreflang Verlinkung finden auf eine URL und wir sehen auch, dass eine Variante dieser gleichen Inhalte mit einer Parameter noch dabei ist, dann nehmen wir eher die Variante, die per hreflang verlinkt ist. Das heißt, das macht ja eigentlich soweit auch Sinn und hat keinen Einfluss auf die domainübergreifende Kononisierung von diesen URLs. Wenn man wirklich möchte, dass diese drei Varianten ganz separat indexiert werden, müsste man wirklich schauen, dass die Inhalte grundlegend auch wirklich unterschiedlich sind für diese drei Varianten. Ich denke, gerade Deutschland, Österreich, Schweiz ist das immer ein bisschen schwierig, weil wenn die Inhalte einfach auf Deutsch sind und die sind allgemein auf Deutsch, macht das in den meisten Fällen eigentlich nicht so Sinn, dass man da, sag ich mal, eigene Texte für Österreich, eigene Texte für die Schweiz schreibt, weil das ja so viel mehr aufwandt. Und wenn die URLs dann trotzdem ausgetauscht werden in den Suchergebnissen, hat man ja eigentlich keinen großen Unterschied unterm Streich. Ein Beispiel, Website-Titel ist Schato-Bellandia in Content und in der Description schreiben wir Schato, das sind ja verschiedene Varianten, große und kleine Einschreibungen und mit, eh, am Ende oder ohne. In verschiedenen Wortkombinationen als Keywords, nämlich alle Varianten, ist das bereits Spamming. Deswegen werden Sonderzeichen einbezogen, gibt es einfache Lösungen, die Aufmerksamkeit der Suchmaschinen zu bekommen, relevante Unique Content vorausgesetzt. Ich denke, wenn man da verschiedene Varianten von den gleichen Wörtern verwendet, auf einer Seite ist das nicht unbedingt Spam. Was einfach für uns problematisch ist, ist, wenn wir eine Seite aufrufen und sehen, dass die gleichen Keywords einfach zigmal vorhanden sind auf dieser Seite, dann sieht das eher nach Keywords something aus. Und dann könnte es sein, dass unsere Systeme sagen, halt, da müssen wir jetzt ein bisschen mehr aufpassen, ob diese Seite wirklich zu diesem Thema passt oder ob man da einfach hundertmal die gleichen Wörter wieder eingeschrieben hat. Das heißt, die verschiedenen Schreibweisen von diesen Wörtern in der Regel erkennen wir die trotzdem. Das heißt, wir kennen, wenn man nach einer Variante sucht, dass die andere Variante anfühlt sich, das Gleiche bedeutet, dass es wie ein Arzynonym ist, wenn das Schreibweisen sind, die sehr selten sind, die unsere Systeme vielleicht noch nicht so erkannt haben. Und wo ihr seht, dass Besucher, die auf ganz unterschiedliche Arten schreiben, dann könnte ich mir schon vorstellen, dass man das zumindest mal auf der Seite erwähnt. Aber es macht meistens eigentlich keinen Sinn, dass man da für bekannte Synonyme, da einfach alle Varianten noch dazunehmen. Das heißt wirklich für, sag ich mal, für Ortsnamen oder Hausnamen, Hotelnamen, wenn man da weiß, dass das Besucher, die auf verschiedene Sprachen schreiben und handeln sich das Seite an, dann könnte ich mir schon vorstellen, dass man das machen kann. Aber sonst würde ich das eher sein lassen. Man kann das auch einfach ausprobieren, dass man sagt, ich nehme das jetzt auch mal noch dazu. Vielleicht mal die Einnahmen und dann kann man auch beschrieben als so und so und dass man das so mal ausprobieren. Wenn eine Seite im Mobile Index deutlich bessere Platzierungen hat, teilweise Top 10 Ergebnisse und mit dem identischen Inhalt im Desktop-Index häufig eher auf den hinteren Rängen ist, liegt die Ursache einfach daran, dass die 40 anderen Seiten für Mobile nicht so gut optimiert sind oder kann das andere Ursachen haben. Da können immer verschiedene Sachen zusammenkommen. Und eine Seite könnte schon sein, dass die anderen Seiten einfach nicht so gut sind für Mobile, weil gerade im Mobile-Bereich verwenden ein leicht angepasster Ranking-Signale, dass das bekannteste ist für Sie mit Speed. Das heißt, wenn wir erkennen können auf Mobile, dass das eine Seite wirklich extrem viel langsamer ist als die anderen, dann versuchen wir die Doppel ein bisschen weiter unten in den Suchergebnissen zu zeigen. Ich denke, es ist unwahrscheinlich, dass das gerade 40 andere Seiten betrifft, aber theoretisch könnte das sein. Theoretisch könnte es auch sein, dass wir denken, dass der Intent vom Besucher oder vom Suchenden ein bisschen anders ist auf Mobile. Das heißt, wenn wir sehen können, dass das auf Mobile ist und jemand sucht nach einem speziellen Restung und denkt mir vielleicht eher gut, wahrscheinlich möchten Sie eher lokale Ergebnisse haben. Hingegen, wenn wir das auf dem Desktop haben, ist es vielleicht eher so, dass man denkt, vielleicht suchen die allgemeinere Informationen. Solche Sachen sind ein bisschen schwieriger, vielleicht mal herauszusuchen, aber das könnte theoretisch auch eine Rolle spielen. Okay, dann mal kurz schauen, was hier alles noch im Chat so weit läuft. Wie sieht das aus eurer Sicht aus? Womit kann ich noch helfen? Ich hatte noch eine Frage in die Kommentare reingeschrieben bei YouTube. Ich glaube, du siehst das nicht. Ist immer nachträglich irgendwann, ja. Ja, das ist, als es schon angefangen hat, das Hangout. Ich kann es aber auf der Tone Spur ja kurz wiederholen. Es geht um das Thema Duplicate Content, nie Duplicate Content in Online Shops im e-Commerce. Es ist ja so, da habe ich ein Beispiel gesagt zwischen einer Seite Smartphones und einer Seite Android Smartphones. Je nach Produktverfügbarkeit und je nach Standardsortierung kann es dazu kommen, dass die erste Seite dieser beiden Seiten identisch oder nahezu identisch sein kann, weil auf der Seite Smart, weil wir gerade keine Apples mehr haben, sondern gerade nur Android haben. Wie geht Google damit um? Ignoriert er sowas? Und ist das normal, dass da ständig täglich Änderungen kommen können? Dazu wollte ich eine Einschätzung von dir. Das ist an für sich nicht nicht so weit problematisch. Ich denke, das das kann kann passieren. Es ist ähnlich wie bei den anderen Fragen, dass wir da die einzelnen Textblöcke anschauen und da versuchen zu erkennen, welche Textblöcke wirklich eign sind für diese Seite und wo, wie können wir diese Seite dann in den Suchergebnissen präsentieren? Das heißt, die Verlinkung zu den einzelnen Produkten ist ja vorhanden. Das heißt, die Produkten würden wir auf jeden Fall finden. Wenn jemand allgemein nach Smartphones sucht und eines dieser Seiten von der Website auffindbar wäre, dann sehen wir vielleicht, dass das eher die Seite entsprechend dazu ist. Wenn jemand nach iPhones Smartphones sucht, dann sehen wir vielleicht eher, dass das gut, das sind keine iPhones erwähnt. Also zeigen wir die entsprechend nicht. Wenn das eine Seite ist, die sehr häufig wechselt und wir diese Veränderung noch nicht gesehen haben, kann es natürlich sein, dass die Seite inzwischen iPhones auch zeigt. Aber wir haben sie zuletzt gecrawled ohne iPhones. Also sehen wir dann gar nicht, dass da jetzt neuerdings iPhones auch dabei sind. Aber im Grunde genommen ist das nicht, nicht so weit problematisch. Das heißt, das, das kann, kann so passieren. Ach, jetzt ist er irgendwie rausgefallen. OK, mal kurz schauen. Gibt es, gibt es eurer Sicht noch irgendetwas? Ja, ich hatte noch aus in die Kommentare geschrieben, auch während der Chat startete, betreffend dem Google Update und den Problemen, die Sie in jetzt hatte. Und wie hieß jetzt die andere noch mal? Spiritische Zeitung. Gibt es da irgendwie, oder gab es da allgemein irgendwie von Google eine Empfehlung, was genau das Problem war, warum die jetzt plötzlich so dermaßen abgestürzt war? Es wurde ja gemunkelt, dass es ein bisschen an der Clickbait Titel lag. Ist da eben eine allgemeine Einschätzung vorhanden, dass man sich als Publisher ein bisschen daran erinnern kann, orientieren kann, weil ja einige Publisher gemäß gewissen anderen Beiträgen ja eigentlich ein bisschen eingestürzt sind. An und für sich gibt es da, sag ich mal, nicht spezielles, vor ich sagen könnte, für dieses eine Update müsst ihr das und das und das machen, sondern das sind normale, sag ich mal, Algorithmus-Updates, wie wir sie immer wieder machen. Und ich glaube, auf Twitter vom Search Liaison sind da jeweils Tweets, die wir machen, die ein bisschen darauf hinweisen, was es in sich hat mit solchen Veränderungen, worauf man achten kann, dass man zum Beispiel auch auf die Quality-Rager-Guidelines mal achten sollte, dass man da diese Blog-Post über High-quality Content, die wir geschrieben haben, ich glaube vor, weiß ich schon ein paar Jahre inzwischen von Amit Singal, wo verschiedene Fragen einfach dabei sind, wie wir die Qualität von Inhalten insgesamt betrachten. Und an und für sie ist es nicht ein Zeichen, dass man da etwas gezielt falsch gemacht hat, sondern einfach, dass unsere Algorithmen im Laufe der Zeit ihre Relevanz-Einschätzung ein bisschen verändert haben. Manchmal hängt es auch damit zusammen, dass das Internet entsprechend sich auch ein bisschen verändert und Besucher auf unserer Seite auch entsprechend andere Resultate erwarten in den Suchergebnissen. Und das kann sich natürlich im Laufe der Zeit entsprechend wandeln. Aber es ist nicht so, dass wir sagen könnten, bei dieser Website hat dieses Qualitätsalgorithmen, sag ich mal diesen Pop-up oder diesen Werbeblock gefunden und das war jetzt problematisch, wenn man das entfernt, dann geht das alles wieder zurück. Sondern wir schauen da bei diesen Algorithmen, schauen wir die Website wirklich ganzheitlich an und versuchen da die Relevanz für einzelne Suchanfragen entsprechend neu zu beurteilen. Das heißt auch nicht immer, dass das Websites heruntergestuft werden, sondern es kommen dann auch jeweils neue dazu. Es ist auch nicht der Fall, dass Websites dann gesamt abgestuft werden, sondern es ist vielleicht eher relevant für dieses Themenbereich, wo sie früher halt als weniger relevant gesehen wurden und für dieses andere Themenbereich werden sie halt jetzt als weniger relevant angestuft. Das kann sich da an und für sich immer ein bisschen wandeln. Danke. OK. Zeitlich haben wir es da jetzt an und für sich bis zum Ende gefunden. Wegen der Search Console, wegen diesen Glöcken, frage ich mal nach. Ich weiß nicht, was da der Status ist beim Team. Wenn das soweit klappt, dann sollte das ja dann wieder in den Suchegebnissen zeigen, sichtbar sein. Ich weiß nicht, wie schnell das gehen wird, aber schaue ich mal mit dem Team auf jeden Fall an. Ich bedanke mich bei euch für es kommen, für die vielen Fragen und hoffentlich sehen wir uns in einem von den nächsten Hänge auf wieder.