 Okay, herzlich willkommen beim heutigen Webmaster Essentials Sprechstunden Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trans Analyst hier bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster Hangouts wie hier, wo Webmaster Publisher SEOs zusammenkommen können und uns Fragen stellen können über das, wo sie im Moment kämpfen. Sind schon einige Sachen eingereicht worden, viele scheinen so ein bisschen in die gleiche Richtung zu gehen. Aber wenn einer von euch anfangen möchte, könnt ihr gerne schon mal loslegen. Niemand? Okay, vielleicht kommt das noch. Anfang ist immer ein bisschen schwierig. Okay, also fangen wir an. Da geht es, glaube ich, gleich mal mit dem Thema los, wo viele darüber gefragt haben. Wir haben seit dem 16.12. das Problem, wie sehr viele andere auch, dass das Ranking komplett abgestürzt ist und fast keine Seiten mehr indexiert sind. Auch die Side Maps werden seitdem ignoriert, obwohl sie fehlerfrei angezeigt werden. Es gibt weder eine manuelle Maßnahme noch große Veränderungen, um die, um das Datum herum passiert sind. Von über 10.000 Seiten sind nur noch etwa 800 im Google Index. Ist es ein größerer Fehler bei Google, wenn so viele in unterschiedlichen Ländern betrifft? Wir werden uns vor allem das Problem angesprochen werden. Wir sind im Moment noch dabei, genau abzuklären, was da alles passiert ist oder was da zusammengekommen ist. Von dem her habe ich jetzt nicht zu dem Thema wahnsinnig viel neue Informationen. Soweit ich jedoch hier sehen kann, ist es nicht so, dass da bei der Indexierung irgendetwas kaputt gegangen ist sondern es ist einfach eine Art, wie wir die Webseiten einstufen, hat sich ein bisschen verändert. Aber ich vermute, dass da in den nächsten Tagen oder zumindest Anfang Woche oder so, dass wir da sicher ein bisschen mehr Informationen haben bezüglich was da alles passiert und vielleicht auch was man da machen kann in solchen Situationen. Was mir auf jeden Fall sehr hilft, ist, wenn ich URLs habe von solchen Websites, die diese Probleme haben. Ich glaube, von demjenigen, der diese Frage gestellt hat, hat auch im Hilferforum gepostet und da habe ich gesehen, dass die Experten, die da jeweils aktiv sind, haben das schon mal weitergereicht an uns und das wird auch für sich schon bearbeitet. Bei uns, dass wir das mit dieser Webseite ein bisschen genauer anschauen. Aber es sind einige Fragen, die in diese Richtung gehen, die keine genauen URLs dabei haben und das macht es für uns dann ein bisschen schwierig. Wir haben das gleiche Problem wie alle anderen, aber wenn wir nicht die URL dazu haben, können wir da eigentlich nicht wahnsinnig viel dazu sagen. Es gibt viele Gründe, warum eine Webseite sich verändern kann in der Suche. Das Gleiche ist, glaube ich, auch von der nächsten Frage, die ist ein bisschen auf den Tweet bezieht. Dann zwei Fragen zur Structuredata. Würde es für Googlebot als duplikat Content zählen, wenn wir auch Produktübersichtseiten, die selber Product Structuredata haben. Da ist es ein bisschen kompliziert, oder vielleicht weniger kompliziert. Aber wichtig für uns ist einfach, dass Structuredata dem Hauptelement diese Seite entspricht. Das heißt, wenn man eine Produktübersichtseite hat, die alles über das gleiche Produkt ist, dann kann man das durchaus mit Structuredata versehen. Wenn das eine Übersichtseite ist, die über eine Kategorie von Produkten quasi Information hat, dann würde man da nicht Structuredata verwenden, weil das sind ja dann verschiedene Produkte, die da auf dieser Seite präsentiert werden, nicht nur ein Produkt. In den meisten Fällen kommt das zusammen mit dem Review Markup, wo man jetzt einzelne Reviews vielleicht hat für einzelne dieser Produkte. Da ist es für uns wichtig, dass auf diesen Kategorienseiten, dass dieser Markup nicht verwendet wird, solange das sich nicht über nur ein Produkt bezieht. Das heißt, die normalen Produktseiten, da macht es ja am meisten Sinn. Da ist es ja klar, dass Structuredata bezieht sich auf dieses Produkt. Wenn ich eine Übersichtseite habe und es sind verschiedene Produkte dort, dann ist diese Structuredata für verschiedene Sachen ja, ahnen für sich da und nicht nur für ein Produkt. Und dann in solchen Fällen würde man nicht dieses Produkt Structuredata verwenden. Darf ich kurz noch Frage dazu stellen? Ja. Ja, also die Frage kommt ja von mir. Folgendes, es gibt ja auch dieses mit den AddCraft und da kann man ja mehrere Structuredata untereinander zusammenfassen. Aber dazu brauchst du ja ein übergeordnete Structuredata. Wenn wir das quasi so machen würden, es gibt halt keine Überkategorie zu Products in den Structuredata. Wenn ich dann ein Produkt nehmen würde, was auf der Seite da ist und als AddCraft die anderen Product-Aufliste wäre das gültig oder wäre das dann ungültig? Aus unserer Sicht wäre das nicht geeignet. Es ist ein bisschen schwierig zu unterscheiden zwischen gültig quasi aus dem technischen Sinn, quasi dass es jetzt so mit dem logischen Structuredata zusammenpasst und mit der Art von Structuredata, wie wir sie für die Suchergebnisse verwenden. Und es könnte doch auch sein, dass es theoretisch gültig ist, dass man so Structuredata verwendet. Aber wir möchten wirklich sehen, dass es ganz klar zu diesem Produkt bezogen ist. Eine Ausnahme gibt es da und das ist bezüglich Carousel-Markup, wo man dann wirklich sagen kann, dass es ein Carousel von einzelnen Elementen und die einzelnen Elemente sind so. Aber meines Wissens ist das glaube ich nur bei Rezepten und irgendetwas anderes. Also nicht bei Produkten verwendet. Okay, das heißt also kein Structuredata auf Kategories-Seiten für Produkte, nur Structuredata für Produkte auf Produktseiten direkt. Genau. Okay, perfekt. Okay, und dann die zweite Frage. Verfolgt Googlebot die Links aus dem Structuredata ebenfalls? Sind, ja, wie kann man sagen, sind zwei Sachen, die da an und für sich zusammenkommen. Einerseits mit dem Folgen von Links ist es so, dass wenn wir eine URL im HTML finden, dann kann es durchaus sein, dass wir die URL einfach mal anschauen und denken ja, vielleicht ist das ein Link, den wir anschauen müssen. Es werden keine Signale weitergegeben. Das heißt, es ist eher unwahrscheinlich, dass wir diese URL crawlen. Aber wenn wir eine URL irgendwo sehen, dann schauen wir die vielleicht auch mal an. Das ist mal die eine Sache. Das andere, gerade bei Structuredata, was für uns wichtig ist, ist, dass wir einfach diesen Bezug haben auf die Seiten und wenn man verschiedene Elemente zusammenverlinkt im Structuredata, dass das auch wirklich die gleichen URLs sind, die man auf der Website verwendet. Ich weiß jetzt nicht, ob das bei Produkten eine Rolle spielt, aber zum Beispiel bei Breadcrumbs. Wenn man Breadcrum-Markup verwendet, kann man ja die einzelnen Ebenen angeben mit URLs. Das sollten diese URLs auch dementsprechend was quasi intern in der Navigation verwendet werden. Da auch noch mal eine erweiterte Frage zu. Die Idee kam halt nämlich daher, dass wir zum Beispiel ein Produkt haben, eine Schraube. Und diese Schraube gibt es in verschiedenen Auflegungen. Zum Beispiel keine Ahnung, 15 mm Länge, 20 mm Länge, 25 mm Länge. Das sind aber einzelne Produkte, die haben auch einzelne Produktseiten. Und die Idee war halt daher, dass wir dann sagen, okay, gut, das ist das Produkt. Und das sind die Unterprodukte dazu. Und dass der Googlebot dann das automatisch verfolgen würde. Aber das würde in dem Fall auch ebenfalls, weil es hier schon in Variante 1 nicht so sinnig. Ja. Ich denke, es ist immer schwierig so entscheiden, ob das jetzt ein separates Produkt ist oder einfach eine Variante von einem Produkt. Und das ist, oft ist das auch, ich einfach überlassen, selber zu entscheiden. Es kann ja zum Beispiel sein, dass, ich weiß nicht, als Mobiltelefon habe und verschiedene Farben verfügbar sind. Und die verschiedenen Farben sind ja eigentlich dann nur Varianten. Die Bewertungen und all das bezieht sich ja eigentlich auf die Hauptvariante. Aber es kann genauso gut sein, dass man eine Variante hat, die zehnmal so viel Speicher hat und die ganz speziell ist, die man dann als eigenständiges Produkt quasi hervorheben will. Und dann ist das weniger eine Sache auf unserer Seite, wo wir sagen würden, ihr müsst das so oder so machen, sondern es ist dann anfühlt sich euch überlassen, ob ihr das als eigenständiges Produkt anschaut oder ob das einfach eine Variante vom bisherigen Produkt ist. Und bei Schrauben ist das wahrscheinlich noch wilder in die Richtung, dass man da verschiedene Längen und Größen hat, aber eigentlich ist das ja alles das gleiche Produkt. Intern hat man vielleicht unterschiedliche Produktbezeichnungen oder IDE ist dazu, aber eigentlich ist es ja die gleiche Art von Schrauben. Außer man hat vielleicht eine Variante, die extrem lang ist oder besonders irgendwie hervorgehoben wird, wo man sagen würde, alles bis auf diese Variante ist gleich und diese Variante ist dann separat. Okay, vielen Dank. Okay, dann kommt nochmal die Frage von diesen Veränderungen in Search Console. Eben, wie gesagt, bei dir Florian ist jetzt da keine URL dabei, von dem her ist es sehr schwierig, für mich da irgendetwas intern nachzuforschen und nachzuschauen, ob das überhaupt das Gleiche ist oder nicht, oder ob es da etwas gezieltes gibt, womit ich helfen kann. Von dem her wäre es sehr praktisch, auch die URLs dazu haben könnte. Gerade bei solchen Fragen, wo man das Gefühl hat, das ist gleich wie die anderen oder vielleicht ähnlich wie die anderen in vielen Fällen sind die Probleme doch unterschiedlich. Dann eine Frage wegen Seitenumzug. Ich betreibe seit 2004 erfolgreich ein Webshop für HiFi und Zubehör. Seit zwei Jahren unter dem neuen Domain. Seit dem 2017 verschwinden meine Seite fast ganz sicher aus dem für Kunden aufhindbaren Google Index. Okay, das schon mal der ähnliche Datum. Dann muss ich auch mal nachschauen intern, ob das ähnlich ist wie vorher oder wie bei den anderen Fällen. Das kann ich da mal abklären. Ich habe gesehen, du hast einen Link zum Hilferforumthread. Das ist super praktisch für mich, weil da kann ich dann auch nachschauen, was andere schon angeschaut haben und jedenfalls da auch eine Antwort da einstellen. Meine Website hat umlaute. Also www.grüneflügel.de ist das schädlich für so ein Game. Nein, absolut nicht. Aus unserer Sicht sind umlaute in Domain-Namen überhaupt kein Problem. Die gibt's ja seit, ich weiß nicht, seit schon längerer Zeit inzwischen und in manchen Ländern hat man auch den top-level Domain mit besonderen Zeichen dabei. Aus unserer Sicht sind die an und für sich genau gleichgestellt wie normale Domains. Also normale Domains. Das sind eigentlich normale Domains aus unserer Sicht. Was da einfach passiert, was manchmal ein bisschen verwirrend ist, ist gerade bei solchen Domains werden die ja umgeschrieben in dieser Punicode-Schreibweise, also mit XP und ein paar anderen Buchstaben dazwischen, sodass man es nicht eins zu eins lesen kann. Und aus unserer Sicht sind diese beiden Schreibweisen total equivalent. Das heißt, wenn wir ein Link auf eine Schreibweise sehen, dann zählt das gleich wie ein Link auf die andere Schreibweise. Das heißt, es gibt verschiedene Arten, wie vielleicht diese Website verlinkt wird oder diese Domain-Name. Und aus unserer Sicht sind die alle ebenwärtig. Also nicht so, dass man da sagen müsste, man muss schauen, dass alle mit dem XP Schreibweise verlinken. Das ist total okay. Das Einzige, was manchmal, oder was wir zumindest am Anfang gesehen haben, gerade mit Websites die Sonderzeichen verwendet haben im Domain-Namen, ist, dass manchmal es ein bisschen schwieriger ist, für andere auf eure Website zu verlinken. Das heißt, wenn man zum Beispiel in eine Forum diese URL eingibt in einem Forum-Beitrag, wird manchmal das von der Forum-Soft, wenn ich als Domain-Namen erkannt und dann nicht automatisch verlinkt. Ich vermute, dass sich das inzwischen total gelegt hat, dass es überhaupt kein Problem mehr ist. Das war zumindest ganz am Anfang mal eine Sache. Wir haben sehr viele Seiten mit dem Status, gesendete URL hat Crawling-Probleme, Fehler Crawling Anomalie. Im Live-Test ist immer alles in Ordnung. Ich habe die Überwachung dieses Problemes beantragt, aber da tut sich nichts. Das Status bleibt einfach bei Ausstehend. Die betreffenden URLs werden teilweise seit September nicht mehr gecrawlt, obwohl sie erreichbar sind. Außerdem sehe ich, dass der Googlebot bei uns URLs crawled, welche wir seit beinahe anderthalb Jahren nicht mehr so verwenden und per 302 redirect auf die korrekte URL geleitet haben. Schauen wir, wie das da weitergeht. Ich denke, es geht einfach in Richtung, was kann man da machen. Vielleicht zuerst einmal die gute Nachricht. Dieser Status Crawling Anomalie verwehrt sehr viele. Im Moment sind da Teams bei der Search Console Seite daran, diesen Status ganz auszumerzen und versetzen mit klaren Fehler Varianten. Das heißt, dass man da wirklich erkennen kann, dass es effektiv passiert und nicht nur diesen quasi Überbegriff ist, es ist irgendetwas schiefgegangen. Von dem her, hoffentlich wird sich das ein bisschen legen oder ein bisschen verbessern im Laufe der Zeit. Ich weiß nicht genau, wann das so weit ist, ob das im Moment jetzt einfach nur in Vorbereitungstadion ist oder ob das dann demnächst kommt, aber hoffentlich wird das ein bisschen klarer mit Crawling Anomalie. Das ist immer ein Punkt, den wir da später gegeben haben. Bezüglich diesen URLs allgemein ist es so, dass wenn wir sehen, dass URLs nicht normal gecrawlt werden können, dann versuchen wir diese URLs einfach weniger häufig zu Crawlen und das wird sich im Laufe der Zeit einfach einpendeln und wir versuchen sie dann trotzdem ab und zu nochmal neu zu Crawlen. Das heißt, praktisch gesehen was da wahrscheinlich passiert ist, wir haben schon einige URLs von deiner Webseite normal gecrawlt und indexiert und das sieht so weit gut für uns aus und wir haben einige URLs gefunden, wo Fehler aufgetreten sind irgendwelche diese Crawling Anomalie Fehler und die crawlen wir halt jetzt ein bisschen weniger häufig und wenn das normale URLs auch sind, kann es genauso gut sein, dass wir die einfach weniger häufig crawlen würden, einfach weil wir es denken die verändern sich vielleicht nicht so häufig. Von dem her an und für sich muss man in einer solchen Situation nicht spezielles machen. Das wird sich automatisch einpendeln, dass wir da wieder ein bisschen besser crawlen im Laufe der Zeit. Es braucht einfach eine gewisse Zeit, aber das wird sich da an und für sich schon einpendeln. Was man machen kann, damit wir diese URLs ein bisschen schneller anschauen, ist zum Beispiel mit einer Sidemap-Datei arbeiten wir das Sidemap-Datei angeben, dass diese URLs ein relativ aktuelles Änderungsdatum haben. Das heißt, man kann das Last Modified Datum dort angeben und wenn wir sehen, dass diese URLs sich relativ frisch verändert haben, dann versuchen wir die auch ein bisschen häufiger zu crawlen oder also nicht häufiger, sondern wir versuchen einfach sie nochmal ein bisschen früher neu zu crawlen. Wichtig ist einfach, dass gerade bei Sidemaps, dass wir wirklich erkennen können, dass dieses Datum sinnvoll ist. Nicht, dass man einfach immer das aktuelle Datum für alle Seiten einreicht, weil dann ist es für uns ja eigentlich kein Signal mehr, sondern es ist eigentlich nur verwirrende Informationen, die wir ignorieren müssen an und für sich. Aber wenn ihr uns ganz klar gute Sidemaps geben könnt, wo ihr sagen könnt, das sind die URLs, das ist das Änderungsdatum von diesen URLs, dann können wir dem eher nachgehen. Ich vermute aber trotzdem, dass sich das Problem nicht ganz verändern wird, einfach weil unsere Systeme halt denken, diese URLs sind vielleicht nicht so wahnsinnig wichtig. Und selbst wenn wir sie crawlen würden, würden wir sie wahrscheinlich nicht so wahnsinnig häufiger crawlen. Was man machen kann, damit man Google quasi zeigen kann, dass die URLs ein bisschen wichtiger sind, dass wir die häufiger crawlen sind, sind halt die normalen Sachen, die wir da immer empfehlen. Einerseits saubere interne Verlinkung, dass wir crawlen können, wenn wir wollen. Andererseits einfach uns auch ganz klar zeigen, dass das eine super tolle Website ist, die wir unbedingt crawlen müssen, wo wir unbedingt immer aktuell sein müssen. Und das sind Sachen, das geht dann ein bisschen weniger in Richtung technische Probleme und mehr in Richtung einfach allgemeine Website- die wir jetzt noch machen. Wir sind mit unserem, ja. Darf ich noch ganz kurz, sorry, ich war nicht schnell genug mit dem Mikrofon. Klar. Wenn ich jetzt ein Content Management Systeme habe, in dem ich, weiß ich nicht, ein Kleinigkeit im Content ändere, ich stelle ein, zwei Sätze oder irgendwie so ein Schnickschnack einfach nur, wird dieses Last Modified Data geändert. Das ist ja für euch keine wirkliche Veränderung am Ende und registriertet dann, dass sich da nichts wirklich Wichtiges ändert oder ist euch das an für sich wurscht? Das ist an für sich okay. Solche Sachen gibt es immer wieder, dass sich etwas Kleines auf einer Website verändert und dass das Änderungsdatum bei dieser Seite dann angepasst wird. Wichtig ist für uns an für sich wirklich nur, dass wir erkennen können, dass dieses Datum brauchbar ist. Wir haben vor allem am Anfang gesehen, dass das Internet-Generators einfach immer das aktuelle Datum nehmen für alle URLs in der Website und das ist für uns an und für sich unbrauchbar. Aber wenn der einzelne Seiten mal zu häufig mit dem Änderungsdatum eingereicht werden, das ist total okay. Alles klar, danke. Ich glaube die nächste Frage bezieht sich auch auf ein ähnliches Problem. Seit dem 17. Dezember und da ist auch ein Thread im Hilferforum also da kann ich da ein bisschen nachgehen ein bisschen nachschauen. Was noch dabei steht ist, wir haben Anfang Januar 8 Spam Links identifiziert und wahrscheinlich dann über ein Disovow-Tool eingereicht. Aus meiner Sicht ist es so, dass wenn ihr 8 Spam Links seht, dann wird das kein Grund sein weshalb unsere Algorithmen irgendwie denken, das ist eine schlechte Website. Einfach so 8 Spam Links, die gibt es zu fast jeder Website, denke ich mal und oft sind es auch viel mehr, einfach irgendwelche wilden Links, die da zusammenkommen. Für uns ist bezüglich Links eher ein Problem, wenn wir wirklich sehen, das ist systematisch betrieben und das ist ein größeres Problem und das ist etwas wo wir dann auch wirklich erkennen können, das ist wirklich in Hinsicht gemacht worden, dass man da irgendwie irgendwie etwas vormachen kann. Aber so 8 zufälliges Spam Links oder auch wenn es tausende Spam Links sind die irgendwie zufällig zusammenkommen das ist aus unserer Sicht weniger ein Problem. Also nicht unbedingt etwas wo ich sagen würde, ihr müsst täglich eure Links anschauen und genau kontrollieren und wenn ein paar dabei sind, die schlecht sind, dann müsst ihr das unbedingt sofort mit Disovow-Datei hineinnehmen das ist absolut nicht der Fall. Aber ich schaue mir nochmal die Hilfe Threats an und vielleicht gibt es da noch mehr, was wir da zusagen können, ich weiß jetzt einfach nicht wie schnell das alles zusammenkommen. Wir haben im Moment das Gefühl, dass Google, wenn es um das Erkennen von Search Intent geht, wieder einen Schritt zurückgemacht hat. In den letzten 2-3 Jahren war es eigentlich immer so, dass wir in den Suchergebnissen eine Suche mit Leerzeichen, die gleichen Ergebnisse wie bei einer Suche ohne Leerzeichen bekommen haben. Das hat sich aber jetzt geändert und die erste Seite sieht manchmal komplett anders aus. Wenn ich zum Beispiel Online-Schuhe kaufen eingebe, dann steht unsere Website irgendwo mitten auf der ersten Seite, aber wenn man das zusammenschreibt, dann finde ich unsere Website nicht auf den ersten 4 Seiten. Ich sehe das hauptsächlich in Deutschland was kann so einen großen Unterschied verursachen. Ich ist schwierig genau zu sagen, was da alles zusammenkommt, aber was natürlich auf unserer Seite passiert ist, einerseits versuchen wir die Suchanfragen zu erkennen. Das heißt, wir versuchen den Text auch zu erkennen, was in dieser Suchanfrage vorgeht und versuchen das zu nehmen für die Relevanz. Und gerade mit all den Aktualisierungen, die wir gemacht haben in Richtung AI und Machine Learning, wo wir die Bedeutung von der Sprache ein bisschen besser verstehen können, dann ist es natürlich viel einfacher für uns etwas zu erkennen, was nach normalen Text aussieht. Das heißt, wenn wir einen normalen Text sehen, vielleicht auch eine insgesamt ausgeschriebene Frage oder wenn jemand die Frage per Voice quasi eingebt, dann sind unsere ganzen Bemühungen und im Moment darauf hin fixiert, dass wir diese Frage sauber verstehen können, dass wir die Wörter da ein bisschen besser verstehen können, dass wir erkennen können, welche Themen da zugeordnet sind und das geht manchmal in die Richtung hin, dass wir sagen können dass diese Frage bezieht sich auf diese Themen, aber diese Wörter sind effektiv nicht in dieser Suche dabei. Das heißt, wir versuchen da ein bisschen mehr herauszuholen als nur die einzelnen Wörter, nur die einzelnen Buchstaben. Und dementsprechend kann es natürlich dann schwieriger sein, wenn jemand die Wörter quasi ohne Leerschläge uns eingebt, dann können wir zwar erkennen, dass es da vielleicht Synonyme gibt, so diese Kombinationswörtern, aber sie sind dann trotzdem nicht das Gleiche, wie wenn jemand uns ganz klar, irgendwie natürlicher Sprache Wörter direkt als Suchanfrage eingebt. Und da könnte ich mir schon vorstellen, dass es da im Laufe der Zeit einfach Differenzen gegeben hat jetzt, dass wir normale Suchanfragen quasi besser verstehen können, weil das ist ja wie normale Sprache an und für sich und solche, sag ich mal, eher unnatürliche Suchanfragen, wo man die Wörter einfach zusammenschreibt, dass es da ein bisschen schwieriger ist. Auf Deutsch ist das natürlich immer ein bisschen schwierig, weil es gibt ja einfach zusammengesetzte Wörter, aber das lernen wir natürlich auch mit unseren Spracherkennungssystemen. Ich denke, gerade bei so ein zusammengesetzten Wort, wo man Online-Schuhe kaufen zusammengesetzt geschrieben hat, da ist es natürlich schwierig zu sagen, das ist wie ein normales deutsche Wort, dass jemand normal auch so verwenden würde. Von dem her kann ich mir vorstellen, dass einerseits die Unterschiede in den Suchergebnissen relativ groß werden bei so etwas, andererseits wird es aber auch so sein, dass wenn ich zum Search Quality im Team gehe und sage, wenn man die Suchbegriffe ohne Lehrschlag eingebt, dann kommen Ergebnisse, die nicht so gut sind, wie wenn man die Suchergebn... die Frage quasi in normaler Sprache eingegeben hat, dann werden die wahrscheinlich sagen, ja, das ist eigentlich okay so. Von dem her habe ich da nicht wahnsinnig viel womit ich helfen kann, außer als Tipp geben würde er, dass man auf die Sachen achtet, wo man wirklich auch sieht, dass Benutzer die in großer Menge verwenden und weniger auf die Sachen achtet, wo man quasi ich weiß nicht irgendwie so ein Eckbereich trifft, der eigentlich nicht so wahnsinnig ich weiß nicht, aktiv ist bezüglich effektiven Suchen. Wobei ich sagen muss, ich weiß nicht, wie viele Leute da jetzt effektiv so ein Suchbegriff eingeben ohne Lehrschläge und vielleicht ist das etwas, was in manchen Bereichen häufiger gemacht wird. Eine Frage zum Linkabbau unserer Seite hat insgesamt 42.000 externe Links von ca. 12.000 Seiten da bei dieser Frage es ist immer das komplizierte quasi Seiten- und Webseiten ist ein bisschen da vermischt. Eine von diesen Seiten gehört ebenfalls in unser Portfolio und gibt allein 9.500 Backlinks. Wir möchten nun die verweisende Seite aus Altersgründen abschalten. Die verweisenden Links gehen auf die Startseite als auch auf die Presseseite. Werde ein abschalten der Seite ohne weiteres möglich oder werde dadurch die andere Seite an Ranking verlieren weil auf einmal 9.500 Backlinks fehlen. Gemäß dem Bericht manuellen Maßnahmen müssen im Moment keine Maßnahmen angewendet werden. Es wurden keine Probleme erkannt. Welche Alternativen hätten wir noch? Grundsätzlich, was ich machen würde, wenn man eine Website ganz abschalten will, würde ich schauen, dass man die irgendwie weiter leiten kann. Das heißt, dass irgendetwas euren anderen bestehenden Webseiten vorhanden ist, welches diese Inhalte ersetzen würde. Das kann sein, dass man zum Beispiel ein Redirect auf die Homepage macht oder auf die Homepage der übergeordneten Webseite macht. Das anfühlt sich alles okay. Wenn man eine Website ganz einfach abschaltet ohne dass man eine Art von Weiterleitung eingerichtet hat, dann ist es effektiv so, dass die Links von dieser Website die existieren dann nachher für uns nicht mehr. Das heißt, wir versuchen die alte Website zu crawlen. Wir sehen 404 Fehler und denken gut, die Links, die da waren, die lassen wir jetzt aus unserem System herauswarten. Es ist jetzt natürlich schwierig zu beurteilen, ob diese Links kritisch waren für die andere Website oder ob das einfach links wie jeder anderen halt da sind und nicht so wahnsinnig großen Einfluss hatten. Man kann das natürlich ausprobieren, indem man die Website einfach mal löscht und schaut, was passiert. Aber ich denke, das will man ja vermeiden, dass man da ins Ungewisse hineinstürzt. Von dem her würde ich einfach wirklich schauen, ob man da irgendwie das weiterleiten kann auf die neue Website, damit man wirklich auch einerseits für die Besucher, die auf die alte Website gehen, irgendetwas Neues hat, wo man sie hinführen kann, andererseits, dass wir auch das mit dem Links quasi einfach weiterreichen können. Und eine andere Sache, die man vielleicht noch dazu sagen muss, die Anzahl von Backlinks hier ist manchmal nicht so wahnsinnig relevant. Das heißt, es kann durchaus sein, dass eine Website, vielleicht mal im Navigationsbereich, im Futter irgendwo einen Link auf eine andere Website hat und dann hat man auf einmal Tausende von Links, die da sind. Aus unserer Sicht ist es aber dann schon eher in Richtung, dass wir sehen, ah, es ist von dieser Website ein Link auf die andere Website da. Es ist nicht so, dass wir dann 10.000fach quasi diese Links haben auf die andere Website, sondern wir sehen einfach, ja, dieser Link ist an und für sich überall auf der anderen Website. Und dementsprechend ist es nicht so, dass man sagen kann, 10.000 Links so sind gleich wie 10.000 Links, die man sonst irgendwo hat. In den meisten Fällen achtet man ein bisschen zu viel auf Links und dann konzentriert man sich ein bisschen sag ich mal zu viel auf, wenn man jetzt Tausende Links verliert. Ich würde meinen, wenn man da einfach einen sauberen Redirect macht von der einen Version auf die andere, dann sind zwar die Anzahl Links weniger in Search Console, aber es ist ja eigentlich alles weitergereicht worden. Du hattest mir vor 2 Monaten gesagt, dass bei meiner Website eigentlich kein Problem besteht, warum sie nicht ranken sollte. Jetzt einmal eine blöde Frage. Kann es sein, dass der Googlebot Algorithmus trotzdem ein Problem sieht, das für dich nicht so leicht erkennbar ist? Das kann es immer geben, denke ich mal. Probleme hat ja offenbar nur die Startseite und das mit Inhalten, die auf den top ten rankenden Seiten beim Begriff Erlebnis Beta von der Art her ähnlich präsentiert werden, also eine kurze Vorstellung, einiger Beta. Nur, dass bei mir dazu noch gut rankende Unterseiten je Bundesland und über 80 Seiten mit ausführlich vorgestellten Badern kommen, was die Konkurrenz fast nie bietet. Die Competence meiner Seite müsste aussucht von Google bei diesem Thema doch dadurch auch besonders hoch sein. Es muss doch eine Ursache geben, dass die Startseite von Google nahezu ignoriert wird. Also, grundsätzlich es gibt immer Sachen in unseren Algorithmen, die nicht alle Leute sehen, aber in dieser Situation sehe ich da eigentlich effektiv nichts, wo ich sagen würde, unsere Algorithmen sind da irgendwie blockiert und wollen diese Seite einfach nicht anschauen. Es ist wirklich so, dass unsere Algorithmen eigentlich normal damit zurechtkommen. Und es gibt einfach sehr viele verschiedene Algorithmen, die aktiv sind in der Suche. Von dem her ist es manchmal schwierig voraus zu sagen wie eine Seite in den Suchergebnissen präsentiert wird, beziehungsweise wie man denkt, dass sie präsentiert sein sollte. Von dem her sehe ich da eigentlich nichts Spezielles. Ich habe auch vorhin mal kurz nachgeschaut, ob da irgendwie irgendwas anderes vielleicht klemmt, aber ich sehe eigentlich nichts Spezielles, was da jetzt klemmt in einem solchen Fall. Was ich einfach oft gesehen habe gerade in solchen Situationen, wo eine Seite innerhalb einer Website Probleme hat, ist, dass es dann in Richtung Keyword-Stuff hingeht, dass man irgendwie ein bisschen zu viel forciert ist auf der Seite und dass unsere Algorithmen dann sagen, da muss ich ein bisschen vorsichtiger sein. Das sind aber Sachen, die bei uns in den Algorithmen relativ tief verwurzelt sind. Das sind nicht Sachen, die wir gezielt auch herausziehen, wo wir sagen würden, du hast irgendwie Keyword-Stuffing, weil du 7300 mal dieses Keyword verwendet hat und du müsstest auf 8000 recht heruntergehen. Es ist nicht so, dass wir da irgendein Art von Grenzen haben, sondern es sind einfach unsere Algorithmen, schauen diese Seite gesamthaft an. Das mit dem Keyword-Stuffing ist etwas, was ich glaube ich auch schon mal erwähnt habe, aber eben wie gesagt, ist nicht so, dass wir da wirklich eine klare Grenze haben, wo wir sagen, so und so muss das sein, sondern wir schauen uns diese Seite an einfach relevant zu platzieren in den Suchergegenissen. Und das Ähnliche ist, glaube ich, auch mit deiner nächsten Frage, mit der nächsten Website, die da steht, vor einem Jahr komplett überarbeitet und in Qualität, Optik und Inhalt gegenüber früher nochmals verbessert. Gibt es irgendeinen Grund, warum Google die Seite schlechter einstuft? Also ich, zumindest die Sachen, die ich angeschaut habe, die technischen Sachen und die Sachen, die Richtung Webspam gehen, sehe ich da überhaupt keine Schwierigkeit auch mit dieser Website. Es ist wirklich einfach, die Art und Weise, wie unsere Algorithmen das anschauen, ist eigentlich ganz normal. Also es ist nicht so, dass da irgendetwas klemmt oder irgendetwas, wo ich sagen würde, das ist vom technischen Herr, müsste man das anders machen. Search Console zeigt mir meist deutlich bessere Rankings an, zwischen Platz 5 und 15, wobei die Impression und Klicks nicht zu den Rankings in Search Console passen, sondern vielmehr zu den Rankings, die ich sehe. Das ist manchmal schwierig nachzuvollziehen, wie das zusammengestellt wird. Manchmal ist es so, dass wenn man in Search Console das Gesamthaft anschaut, dass der einzelne Länder oder das Ranking ein bisschen besser ist. Unter dem Schnitt wird eine bessere Zahl dargestellt. Manchmal ist es auch so, dass die Website in einzelnen Elementen in den Suchergebnissen anders auch dargestellt wird und dementsprechend wird quasi das Ranking ein bisschen anders berechnet. Das heißt, was ich normalerweise in solchen Fällen mache, ist, ich versuche über die Filter in Search Console, das möglichst genau einzuschränken oder die ich sehe oder möglichst genau diese Filtervarianten so einrichten, damit ich das auch nachstellen kann, quasi direkt auf meinen Computer und dann aufgrund von dem versuche ich zu vergleichen und dann sieht man manchmal auch ein bisschen genauer was da effektiv gezählt wurde. Es ist manchmal so, dass zum Beispiel ein Bild von einer Seite bei den Bildern dazu gezählt wird. Wenn das quasi in diesem Image Universal gezeigt wird, dann zählt das natürlich auch, also ein Ranking in der normalen Websuche. Das mache ich mal ein bisschen verwirrend. Was auch manchmal passieren kann, ist, dass gerade bei Suchbegriffen, die sehr viele Impressions haben, dass eine Website einfach kurzfristig für ein paar Tage in den Suchergebnissen da platziert wird. Und dann auf einmal hat man eine relative hohe Anzahl Impressions zu einem Suchbegriff, wo man eigentlich sonst nicht so erscheinen würde. Das sind Sachen, die bei uns in den Algorithmen einfach auch ab und zu passieren können. Das ist halt mal temporär, mal sehr gut sichtbar in den Suchergebnissen. Das sieht man dann in den Daten in Search Console und wenn man selber dann versucht das nachzustellen, dann kann man das nicht mehr nachstellen. Das kann an und für sich auch passieren. Meistens sieht man das im Zeitgrafen, dass man da einfach wenn man das wirklich eingeschränkt hat mit den Filtern auf diese Variante, dann hat man einfach für ein, zwei Tage einen hohen Spike und danach ist es wieder unten. Und das ist meistens einfach ein Zeichen, dass unsere Algorithmen haben, dass mal ein bisschen höher platziert und geschaut, was passiert und gucken dann, wie das entsprechend weitergeht. Johannes. Ja. Ich habe vor ich habe vor ungefähr neun Wochen meine Website überarbeitet und indexieren lassen und die wurde ja auch indexiert. Also die US sind gleich geblieben. So gesehen hat sich da nicht viel verändert. Ich habe halt einfach den Inhalt selber überarbeitet und ich habe auf allen Seiten strukturierte Daten ergänzt. Hauptsächlich für Non-amp Artikel. So. Das ist jetzt neun Wochen her und ich merke leider in der Search Console, dass da immer noch kein Informationen zu diesen Non-amp Artikel zu finden sind. Das sollte ja eine Meldung erscheinen unter der Karteikarte Ereignisse, glaube ich, heißt die. Inwieweit diese, also mir geht es vor allem um dieses Artikel-Markt ab, inwieweit das jetzt gültig ist oder was vielleicht auch nicht passt. Und ich habe leider, wo es jetzt schon so lange her ist, immer noch keinelei Feedback dazu. Und ich merke aber auch, dass bei den Seiten, wo sich inhaltlich deutlich was verändert hat, also zum Beispiel auch die Keywords sich verändert haben. Also ich sage jetzt mal ein Beispiel, das nicht zutrifft. Wenn die Seite vorher gemacht war für schwarze Herrenschule und ich habe sie verändert und jetzt auf braune und dann sollte ich das ja mit den entsprechenden Keywords irgendwann mal sich dann auch bemerkbar machen. Aber leider hat sich auch in der Hinsicht bei der Seite immer noch nichts verändert. Also das scheint alles immer noch so zu sein, als ob die Seite erst vor, ich sage jetzt mal vor fünf Tagen oder so indexiert worden ist. Kann es wirklich sein, dass das so lange dauert? Theoretisch kann das schon sein. Es hängt ein bisschen ab, wie das innerhalb deiner Webseite ist. Das heißt beim Crawling und Indexing ist es so, dass wir die Seiten mit unterschiedlicher Frequenz crawlen. Und manchmal ist das innerhalb von ein paar Stunden und bei anderen Seiten kann das sein, dass es bis zu etwa ein halben Jahr geht. Und je nachdem wie die einzelnen Seiten innerhalb deiner Webseite platziert sind, kann das natürlich sein, dass es Bereiche gibt, die wir relativ schnell aktualisieren, wahrscheinlich so die Überschriftbereiche innerhalb der Webseite und dass es andere Bereiche gibt, wo die Webseite vielleicht mal weniger häufig gecrowt wird. Und neun Wochen ist natürlich schon, vielleicht mal in gewisser Zeit da, wo wir das neu crawlen könnten, aber es kann durchaus auch sein, dass die einzelnen Seiten in dem Bereich eher sind, die wir halt weniger häufig crawlen. Aber es betrifft ja alle Seiten. Das ist da kein Unterschied. Also dieses Markup, dieses artikeln Markup das ist keine gute Webseite übrigens. Es sind nur 20 Seiten und ungefähr 14 Seiten davon sind Artikelseiten und auf allen ist Markup und auf allen 14 ist dieses gleiche Markup und auf keine dieser Seiten ist da bisher das lege ich einmal ganz am Anfang mit Fehler festgestellt worden, ein Südtagsfehler, der ist aber auch längst behoben und bei einem einzelnen Datentyp, der aber uninteressant ist, sind ein paar Fehler festgestellt worden, aber alles andere ist bisher Fehlanzeige. Ich hab jetzt, ich könnte jetzt mittlerweile noch mal ein kleines Update machen, das würde nur beinhalten, dass im Markup selber die Datumsangaben rauskommen also dieses Modify und das Publish Datum im Markup server löschen und beim Inhalt der Seiten selber also bei den Artikeln geringfügige Änderungen ein paar Sätze, weg paar Sätze dazu also nicht vieles wert sozusagen das kleine Update, das ich jetzt wieder in der Pipeline hätte jetzt hab ich ein bisschen Angst wenn ich da jetzt wieder ein neues Update machen und indexieren lasse, dass dann die neun oder zehn oder zwölf Wochen wieder von vorne anfängt, dass ich dann nochmal, ich weiß nicht wie das bei euch läuft also es fängt nicht mehr von vorne an, es ist ja eigentlich immer fortlaufend alles bei uns, aber gerade wenn das jetzt eine kleinere Website ist, wäre ich froh, wenn du mir einige URLs mal zuschicken könntest oder hier im Chat einfach reinkopieren kannst, dann kann ich die nachher mal rauskopieren und anschauen ob wir diese URLs quasi neu gekrawlt haben, neu indexiert haben und warum wir da das Structure Data nicht sehen weil bei einer größeren Website wenn man einen kleinen Teil der Website umstellt mit Structure Data dann kann ich verstehen, dass es vielleicht in gewisse Zeit geht wenn das aber, sag ich mal, fast alle Seiten innerhalb einer kleineren Website betrifft, dann würde ich schon erwarten, dass wir da zumindest einige dieser Seiten im Report & Search Console bringen würden Okay, ich schreibe die Startseite und eine typische Unterseite, so eine Artikelseite die zwei URLs schreibe ich in den Chat jetzt rein. Okay, super. Alles klar. Danke. Ich gehe nachher raus. Super. Dann kurz schauen, ob wir hier waren eine Frage zu Search Console Mir ist bekannt, dass beim Search Console, beim Anwenden von Filtern Datensätze mit geringen Clicks und oder Impressionen ausgelassen oder modifiziert werden zu verhindern, dass einziger User identifiziert werden können, gibt es da verschiedene Stufen oder Härte gerade Bisher ging ich davon aus, dass es sich um Datensätze mit wirklich geringen Impressions und Clicks geht, kürzlich bin ich auf eine Seite in meinen Daten gestoßen, die laut Search Console im Untersuchungszeitraum ca. 1.500 Impressions und einen Click generiert hat. Im Analytics sind im gleichen Zeitraum 60 Organic User auf die Seite gelandet. Ich weiß, dass Analytics Search Console nicht 100%ig übereinstimmen. Solche Abweichung ist mir neu. Der Grund, warum ich eine härtere Filterung vermute, ist, dass es sich um ein Inhalt mit politischen Bezug, die URL enthält Angela Merkel handelt und in diesem Fall die Userdaten vielleicht besonders geschützt werden sein können. Mir ist eigentlich nicht bewusst, dass wir da die Suchanfragen kategorisieren würden. Ich denke, das wäre fast ein zu hoher Aufwand für so etwas wie in Search Console für unsere Datensätze dort. Handeln für sich, behandeln wir die Daten alle irgendwie ähnlich. Das heißt, es könnte sein, dass in diesem Bereich, dass man da vielleicht in eher unterschiedlichen Suchvarianten deswegen gefiltert wird. Aber es ist nicht so, dass wir kategorisieren würden, welche Art von Suche ist das und dann muss dieser Filter entsprechend höher gesetzt werden, sondern das ist einfach eine fixe Limite. Was man da vielleicht auch machen kann, um das ein bisschen besser, ich weiß nicht, herauszufinden, was da genau passiert, ist, dass per URL anschaut in Search Console und nicht pro Suchanfrage. Das sieht man dann relativ schnell, welche Anzahl von Impressionen und Klicks effektiv quasi gespeichert werden in Search Console bzw. wie groß der Unterschied zur Analytics ist. So sieht man an und für sich die Zahlen, die ungefiltert sind. In Suchanfragen sieht man das auch einfach in der Überschrift von der Tabelle. Wenn man die Tabelle zusammenzählt, dann sind natürlich die Sachen dabei herausgefiltert, die halt gefiltert sind. Von dem her, wenn man das mal umstellt auf pro URL, dann kann man ein bisschen besser einschätzen, wie groß der effektive Unterschied ist und einen gewissen Unterschied, den wir jetzt eigentlich fast immer haben, mit der Richtungen auch hin, dass je nachdem, wie man zum Beispiel im Internet aktiv ist, hat man halt, ich weiß nicht, ein Referieral dabei oder nicht, oder man gibt einen an, obwohl man keinen hat. Das sieht man gerade, bei kleineren Zahlen in Analytics ist die prozentuale Abweichung natürlich eher größer, als wenn ich jetzt 100.000 von Impressionen und Klicks habe, dann sieht man da eher prozentual ein Unterschied. Aber bezüglich der Frage insgesamt quasi, ob da eine härterere oder eine weichere Filterung bei den Suchernfragen stattfindet, das ist meines Wissens überhaupt nicht der Fall, sondern da die Grenze ist an für sich genau gleich. Wir bewerben auf unserer Website diverse Veranstaltungen, die wir selbst mit organisieren bei manchen dieser Veranstaltungen, handelt es sich um Seminare oder Workshops. Für alle unsere Veranstaltungen haben wir bisher den Structure Data Type Event benutzt. Bei der Analyse eines Wettbewerbs habe ich festgestellt, dass dieser bei seinen thematisch sehr ähnlichen Seminareien und Workshops die Auszeichnung Education Event statt nur Event benutzt. Soll man das auch tun, um Google unsere Seminare und Workshop als Educational zu vermitteln, hat das ein Vorteil für uns. Meines Wissens ändert das überhaupt nichts. Von dem her kann man das ausprobieren, aber ich denke, das ändert eigentlich nichts. Manchmal ist es einfach so, dass wenn man ein CMS Plugin verwendet, dass dieses Plugin halt irgendwie eine Art von Event standardmäßig vorgibt und dann wird das einfach so verwendet. Aber meines Wissens unterscheiden wir überhaupt nicht zwischen den Art von Event, sondern quasi anfühlt sich nur, dass so sein Event da ist, der Veranstaltungsort, der Name von diesem Event, Datum, Zeitraum und solche die normalen Sachen. Von dem her denke ich nicht, dass ihr da irgendwelche Vor- oder Nachteile hättet. Dann ein paar komplizierte oder zumindest längere Fragen. Kann Google meinen Brand schützen? Das geht in die Richtung, dass einige Mitbewerber quasi meinen Brand irgendwie mitverwenden. Gibt es da irgendetwas, was Google machen kann? Zum Beispiel diese anderen Seiten irgendwie abstrafen oder sonst wie zurückstufen in den Suchegegnissen. Aus unserer Sicht machen wir gezielt nichts, weil das nicht unsere Aufgabe ist, da entsprechend einzugreifen. Das heißt, wenn wir irgendwelche richtlichen Informationen bekommen, quasi an unsere Rechtsabteilung, dass wir das und das anders machen müssen in unseren Suchergebnissen, dann kann es natürlich sein, dass wir da irgendwie eingreifen können. Aber wenn das einfach ein Mitverwenden vom gleichen Brandnamen auf anderen Websites ist, können wir ja nicht beurteilen, ob das okay ist oder nicht. Sondern wenn jemand dann auch sucht, dann zeigen wir diese Seiten halt entsprechend an. Ein Einfall, der häufig auftritt, ist das zum Beispiel Spam irgendwelche Markennamen weiterverwenden und dass wir die dann auch in den Suchergebnissen zeigen. Und in vielen Fällen können wir solche Sachen herausfiltern, aber einfach weil sie halt Spam sind. Nicht weil sie diesen Markennamen verwendet haben, weil sie irgendwie die ganzen Spamming in Techniken verwenden, dann können wir da ein bisschen eingreifen. Aber nur weil jemand einen Markennamen verwendet, ist für uns eigentlich nicht nachvollstellbar, wie wir erkennen können, dass das jetzt okay ist oder nicht okay ist. Von dem Fall her, würden wir da eigentlich nichts machen und würden da die Suchergebnisse anführlich so laufen lassen, wie sie normal laufen wird. Dann eine Frage zu Google News. Vielleicht vorweg, Google News ist bei uns intern ein bisschen anders gehandhabt. Von dem her kann ich nicht so wahnsinnig viel sagen. Ich schaue mal kurz die Frage an. Ich schreibe Nachrichten und liefere diese auch bei Google News ein. Es ist schlimm, wenn ich mich regelmäßig welche schreibe und dadurch in der Google Search Console ein Fehler entsteht. Meines Wissens kann man so viel schreiben, wie man möchte, ich weiß nicht, ob das bei Google News irgendwie anders gehandhabt wird. Was ich da machen würde, ist im Google News Publisher Forum vielleicht mal nachfragen und schauen, was die anderen Experten dazu sagen. Dann Tabellen für desktop und mobile. Ich muss Tabellen in Artikel darstellen, dass sie sowohl desktop als mobile für Google optimal sind. Wie wichtig ist das in Search Console bei der Nutzerfreundlichkeit für Mobilgeräte und Inhalt breiter als der Wildschirm? Meine Tabellen sind häufig mehr spaltig breit. Quasi ich denke fast in die Richtung, soll ich unsere Tabellen entfernen, damit Google zufrieden ist und keine Fehler anzeigt in Search Console. Ich würde die Tabellen trotzdem lassen. Es gibt sicher Varianten, wie man Tabellen machen kann, die quasi direkt zum Mobile Friendliness auch passen würde, dass man da das Scrolling-Inhalt der Tabelle auch links und rechts macht, ohne dass die Tabelle über den Rand hinweggeht. Aber auch da muss man natürlich das erst mal alles einrichten und schauen, dass es auch funktioniert. Aus unserer Sicht ist es so, dass die Inhalte dieser Seite für uns ja eigentlich am relevantesten sind. Und wenn wir sehen, dass jemand gezielt nach dieser Seite sucht und die sind halt in deiner Tabelle drin, dann versuchen wir diese Seite in den Suchergebnissen zu bringen. Mobile Friendliness spielt dann eine Rolle, wenn wir viele Internetseiten haben, die quasi ähnlich sind, wo wir nicht genau wissen, wie wir das in der Reihenfolge darstellen müssen. Dann kann man über den Mobile Friendliness Faktor herausfinden, dass wenn jemand auf Mobilgeräten sucht, dann zeigen wir vielleicht eher die Seiten, die wirklich auch mobile friendly sind oder diesen Test halt bestehen. Aber das kann natürlich schneller mal so sein, dass ihr wirklich auch eigene Inhalten in diesen Tabellen haben, die relevant sind. Und dann, wenn jemand nach diesen Inhalten sucht, dann versuchen wir schon eher, die relevanten Inhalte zu bringen, auch wenn sie nicht mobile friendly sind. Also es ist nicht so, dass wir diese Seite dann ganz aus den Suchergebnissen entfernen, nur weil die im Rand hinweg geht. Wir haben ein Blog auf unserer Unternehmensseite und da stellt sich die Frage, lohnt sich AMP? Geht das nur für diesen Bereich? Wir benutzen WordPress und macht das Sinn, sich bei Google News anzumelden. Ob es Sinn macht, sich bei Google News anzumelden, das muss jeder für sich selber irgendwie herausfinden. Bezüglich AMP, AMP kann man auf Seitenebene machen, das heißt pro einzelnen Internetseite, also nicht Website, sondern die einzelnen Seiten selber. Und da kann man durchaus, sag ich mal, innerhalb einer Website, einen kleinen Teil der Website mit AMP-Seiten haben und der Rest der Website hat halt keine AMP-Seiten, das ist total okay. Bezüglich, ob sich das für euch lohnt oder nicht, das ist natürlich so, mit AMP hat man ein sehr schnelles Mobile Framework, mit dem man sehr schnell mobile Webseiten machen kann. Und manchmal möchte man ja, dass diese Inhalte möglichst schnell auch sichtbar sind beim Benutzer und da ist AMP eigentlich eine gute Variante. Es gibt einfach auch andere Wege, wie man schnelle mobile Webseiten machen kann und da ist natürlich die Variante, ob man das jetzt über AMP macht oder nicht AMP macht, das ist an für sich euch überlassen. Manchmal ist es einfacher, mit einem AMP-Plugging das auf AMP umzustellen und quasi die mobile Template umzustellen auf eine Variante, die viel schneller ist. Manchmal ist es umgekehrt der Fall. Okay, oh Gott, wir haben nur noch eine Minute übrig. Okay, ich vielleicht mal zurück zum Anfangsthema, ich schaue mit dem Team nochmal nach, was wir dazu sagen können, beziehungsweise wie, was man da genauer erklären kann, was ihr vielleicht auch machen könnt mit dieser Veränderung, die stattgefunden hat. Und ansonsten denke ich, sehen wir uns vielleicht in den nächsten Hangouts wieder. Vielen Dank für die vielen Fragen und eben sehen wir uns dann vielleicht in den nächsten Hangouts wieder. Also, tschüss allerseits. Bye bye, thanks.