 Okay, herzlich willkommen beim heutigen Webmaster Central Sprechstunden Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trans Analyst hier bei Google in der Schweiz und Teil von dem was wir machen sind solche Webmaster Hangouts, wo jeder viel kommen kann und seine Fragen so rund um seine Website und die Websuche stellen kann. Sind schon einige Fragen eingereicht worden, aber wenn eine von euch anfangen möchte, dann zeige ich dir gerne dazu eingeladen. Hallo John, hier sind Sebastian Fleiger und Dennis Müssner von Mr.Srex. Und ja, bei uns ist gerade ein bisschen viel los, was die Rankings in der Desktop-Suche betrifft und allgemein mit Ranking-Veränderungen und teilweise haben wir da auch ein paar Fragezeichen auf der Stirn und deswegen sind wir jetzt hier an die Öffentlichkeit begangen und haben natürlich auch schon mit verschiedenen Leuten gesprochen. Ja, prinzipiell zum 24.08. ist uns aufgefallen, dass Google die Desktop, also in der Desktop-Suche die mobilen Ergebnisse anfängt zu ranken und zum 1.09. sind wir zu Mobile First Nexting geswitched. Das ist auch bei anderen Seiten passiert, Snowtracks beispielsweise, die waren auch in der Vergangenheit auch schon im Hangout. Und unsere These war bis jetzt, dass das Chronifier Palten sich geändert hat und dass das eventuell auch mit Google Evergreen-Bot und dem Rendering zu tun haben kann. Darüber hinaus haben wir eben mit der mobilen Seite und der Desktop-Variante auch unterschiedliche Inhalte in Form von Filter und Co. auf der Seite. So, jetzt meine Frage, kann es damit einen Pausalzusammenhang oder gar eine Korrelation geben? Mit Google Evergreen-Bot und Co. Ich glaube, wahrscheinlich weniger wegen dem Rendering und dem Evergreen-Google-Bot, aber könnte man natürlich kontrollieren. Vermutlich, was da passiert ist, ist, wir haben die Website auf Mobile First Indexing geschaltet und dann indexieren wir die mobile Version und die wird für alle Suchvarianten indexiert. Das heißt, in der Desktop-Suche ist die mobile Version dann einfach die Basis für die Indexierung und aufgrund von dem wird dann auch das ganze Ranking und all das gemacht. Das heißt, eigentlich ist das jetzt einmal dafür verantwortlich, wie ihr gezeigt wird in der Suche, ist die mobile Version. Das heißt, wenn die Inhalte anders sind oder wenn die Bilder anders sind, wenn Metatags anders sind oder Strukturdata anders ist, dann wird einfach die mobile Version genommen dafür. Wenn man eine separate mobile Version hat, mal mit dem m.domain, ich glaube, das ist ja das, was ihr da sieht, dann kann es durchaus sein, dass auch in der Desktop-Suche manchmal die m.version gezeigt wird. Das ist an und für sich, wenn ihr das richtig eingerichtet habt mit dem Redirect, so wie ich das gesehen habe, habt ihr das ja auch gemacht, dann ist das an und für sich ändert das nicht für euch. Das heißt, vom Ranking her seid ihr an der gleichen Stelle. Es ist einfach die URL, zeigen wir die mobile Version an, statt die Desktop-Version. Ich finde es jetzt nicht gerade optimal, aber an und für sich verändert das für euch nichts. Das heißt, die Desktop-Benutzer kommen immer noch zur Desktop-Seite, die mobilen Benutzer kommen zur mobilen Seite. Für die Indexierung ist egal, ob ihr die Desktop-Variante oder die mobile Variante als URL zeigen würden, ist immer die mobile Variante zuständig. Das heißt, es ist ein bisschen verwirrend, und je nachdem, wie ihr natürlich das ganze Tracked in Search Console aus Domain verifiziert habt oder aus einzelnen Hosts, dann ist das alles ein bisschen komplizierter mit der m.version. Aber so ist das an und für sich mit der Mobile First Indexing. Okay, dann gerade deswegen den redirects. Aktuell wird ja re-commandet, dass das ein 302 sein soll bei der browser detection. Wir waren jetzt überlegen, ob wir das eventuell auf den 301 umstellen. Ist auch okay, laut Dokumentation. Und wir hatten uns davon erhofft, dass wir eventuell dann eben auch wieder mit den Desktop-Ergebnissen in den Mobile Ranken könnten. Kannst du da vielleicht auch noch was kurz zu sagen? An und für sich für die Google-Suche und für den Unterschied zwischen der Desktop-Mobilen-Version spielt das keine Rolle, 301 oder 302. Theoretisch ist 302 eher richtiger, weil ein 302 redirect wird nicht gecached. Das heißt, wenn jemand zum Beispiel zu Hause in Proxy Server hat oder irgendetwas und mit dem Mobilgerät ins Internet geht zu euch, dann sieht man diesen redirect, dann könnte das sein, dass das gecached wird. Wenn die Person dann mit dem Desktop reingeht, dann wird die Mobile-Version gezeigt, weil das halt lokal gecached ist. Das sind aber vielleicht mal praktische Überlegungen und je nachdem, wie ihr das einrichtet, könnt ihr auch die Caching minimieren und dann ist das auch weniger ein Problem. Aber für die Suche spielt das keine Rolle. Ansonsten ist uns noch was bemerkenswertes auffallen, was wir nicht zuordnen konnten, wo ich tatsächlich ein paar Fragezeichen auf der Stirn habe, betrifft die alte Google Search-Konsole und die internationalen Ausrichtung. Und dort haben wir im Rail-Ordinate für Haare-Plan ein Verweis von Desktop auf Mobile. Und ich habe mich nur gefragt, warum, also sprich die alternative URL, der Desktop-Variante ohne Rücklink wird mit der Mobile-Seite angezeigt. Also ist das ein bisschen Bali in der Search-Konsone oder kann da sein? Ist mir jetzt eigentlich nichts bewusst, gerade mit der internationalen Ausrichtung da. Also, ja, wie das im Report aussieht, das müsste ich mal anschauen. Das ist auch mit der gleichen Website oder ist es mit einer anderen Website? Das ist unter der WBW. Ich denke, all diese Sachen sind aber viel einfacher, wenn man eine Variante hat, wenn man nicht die Endpunkt und die Desktop-Variante hat. Deswegen haben wir uns seit einiger Zeit auch die Empfehlung quasi umgestellt, dass sie sagen, wir unterstützen das, wir funktionieren so weit, aber man schafft sich da einfach mehr Probleme, gerade mit den verschiedenen Versionen. Auch insbesondere mit dem HRA-Flying, die Verlinkung sollte ja da die Verlinkung pro Geräte-Typ quasi sein, also Desktop-Deutsch zu Desktop-Italienisch und Mobile-Deutsch zu Mobile-Italienisch. Und all diese Verknüpfungen sind einfach viel komplizierter, wenn man da noch eine parallele Version führt. Manchmal muss man mit dem halt leben, was man erst mal hat, oder? Und dann längerfristig damit arbeiten. Genau, also ich denke da werden uns natürlich an die Recommendations von Google orientieren und das natürlich auch intern hier in Zuspruch Idee bringen, das Responsive-Vac-Design eventuell. Vielleicht auch noch so eine Problematik, ganz generell, die Desktop-Seite nicht mehr im Desktop-Index zu haben. Wir vermuten auch, dass uns dadurch ein bisschen Link-Tools verloren geht, weil es natürlich über die Weiterleitung ist, das ist meine Vermutung, gar nicht. Das beruht uns zumindest ein bisschen. Wäre die Frage, ob es vielleicht auch damit zusammenhängt, dass der Canonical, der ja eigentlich da ist, wird ignoriert, wenn die Seiten zu weit auseinander sind und präferiert er dann die Endpunkt auch, das wäre vielleicht auch noch. Nein, das ist an und für sich total normal, dass so etwas passieren kann. Wenn man jetzt seine Endpunkt-Variante hat, wir klappen die zusammen, wir indexieren effektiv nur die mobile Version, auch für die Desktop-Suche, und versuchen dann einfach die URLs auszutauschen. Und manchmal können wir uns das sehen, dass wir einfach nicht richtig austauschen. Und gerade mit hreflang Verknüpfungen habe ich gesehen, dass das häufiger auftritt. Und das ist eigentlich, ist effektiv nur ein Darstellungsproblem, dass da die Endpunkt-Variante dargestellt wird. Für die Indexierung ist auch jeweils einfach die Endpunkt-Variante halt genau, weil das ist ja die mobile Variante da. Dann vielleicht noch eine letzte Frage. Ein bisschen etwas außerhalb, das kommt natürlich, die mich aber tatsächlich mit ein paar Monaten schon umtreibt, betrifft Paginierung und auf der einen Seite New Index Follow, da kam ja die Aussage, dass das eben New Index Follow als Software 04 zukünftig gewertet werden kann. Und dann kam Anfang des Jahres noch, dass Rel-Next-Rel-Pref nicht mehr von relevant ist. Und jetzt stellt sich mir auf der einen Seite die Frage nach der Paginierung. Also soll die Paginierung zukünftig entweder auf Index Follow und mit einzigartigem Title und Description ausgestellt werden. Und wie gestaltet sich die Paginierung allgemein jetzt bei großen Foren oder großen E-Commerce-Websites, sollte man zukünftig vielleicht auch ein bisschen mehr drauf achten und die Paginierung im General ein bisschen zurückfahren oder was wäre da deine Recommendation? Ja, also ich denke, grundsätzlich ist es so, dass diese beiden Sachen, also das mit dem New Index Follow und mit dem Rel-Next-Rel-Previous, die sind schon so seit einiger Zeit. Das heißt, wenn es für euch funktioniert, dass eure Produkte indexiert werden, die auf diesen paginierten Seiten sehen, dann würde ich das nicht als etwas Kritisches ansehen, das ihr jetzt verändern müsst. Das heißt, es sind, ich weiß jetzt nicht, einige Jahre ist es jetzt eigentlich schon so, bei uns wird das so verarbeitet und wenn ihr nicht gesehen habt, dass da irgendwas verloren geht, dann würde ich das jetzt nicht als etwas ansehen, was ihr schnell verändern müsst. Grundsätzlich mit der Paginierung ist es gerade bei E-Commerce, sehen wir das eigentlich so, dass viele Produkte sind ja auch quer verlinkt oder in verschiedenen Kategorien und da müssen sie ja nicht in jeder Kategorienseite auffindbar sein. Das heißt, es reicht für uns, wenn wir einen Link zu diesem Produkt finden, wenn wir erkennen können, wie wichtig das etwa ist und dass wir diese Seiten einfach indexieren können. Und wenn wir sie so indexieren können, dann sollte das eigentlich so weit klappen. Wichtig, einfach gerade bei, wenn man jetzt eine separate mobile Variante hat, würde ich einfach achten, dass da die Paginierung auch sauber funktioniert, wenn ihr Paginierung verwendet, dass man da auch entsprechend durchblättern kann mit Links, nicht, dass man da irgendwelche besonderen Browserfunktionen wie Swipe oder Infinite Scrolling verwendet und sich auf das verlässt auf Mobile und auf Desktop hat man normale Links zwischen den Paginierten Varianten. Das sind eigentlich so die wichtigsten Sachen. Wir sind ein bisschen dran, gerade für die Paginierung bei eCommerce-Seiten da ein bisschen genauere Empfehlungen zusammenzustellen, dass das nicht so allzu allgemein bleibt. Aber ich vermute, dass dauert noch ein bisschen, bis es kommt. Okay, danke schön. Okay, dann schauen wir mal ein bisschen die Fragen, die eingereicht worden sind dann, wenn ihr zwischendurch Kommentare habt oder weitere führende Fragen einfach nur loslegen. Anfang konzentriert sich PageSpeed Insights ausschließlich auf die Mittels Lighthouse basierten Labdaten oder Fließen in die ermittelten und angezeigten Werte, auch Felddaten des Chrome User Experience Report. PageSpeed Insights zeigt ja beides an, wenn man direkt zum Tool geht. Das heißt, einerseits die errechneten Daten aufgrund von einem Beispielladen, von einer Seite, andererseits sind unten auch die Chrome User Experience Report Informationen auch dort einsichtbar. Das heißt, man sieht da eigentlich beides. Im PageSpeed Report in Search Console ist das nur auf die Chrome User Experience Report Daten basiert. Das heißt, je nach Art vom Website hat man dann mehr oder weniger Informationen da, gerade kleinere Websites, die nicht sehr häufig besucht sind, wo wenig Daten vielleicht vom Chrome haben, sieht man da vielleicht auch nichts Besonderes im PageSpeed Report in Search Console. Für solche Fälle würde ich einfach die normalen Testing Tools empfehlen, dass man da direkt die Seiten einfach selber kontrolliert. Dann eine Frage wegen der Bildersuche, dass da quasi bei bestimmten Suchanfragen, dass da Vorschaubilder gezeigt werden von einem Facebook Profil, die da nicht auf dieser Profilseite vorhanden sind. Ich habe das kurz hier angeschaut und ich glaube Martin hat auch ein bisschen weitere Sachen dazu geschrieben. Grundsätzlich, was ich da sehe, ist, dass die in der Bildersuche, wenn man nach Euronamen sucht, dann wäre zum Beispiel eure Facebook-Page gefunden. Und auf der Facebook-Page sind natürlich Querverlinkungen auf alle möglichen anderen Profilen vorhanden. Und diese Querverlinkungen sind zum Teil sehr dynamisch. Das heißt, je nachdem sind da vielleicht links so anderen Profilen vorhanden, die jetzt aktuell sind oder die sich im Laufe der Zeit verändern oder die vielleicht neu bei euch verlinkt sind. Und das sind Sachen, die ihr oft, ich weiß jetzt nicht, wie das bei Facebook gehandhabt wird, aber die ihr nicht groß selber beeinflussen könnt. Das heißt, wenn irgendjemand euer Facebook-Profil folgt, dann kann es sein, dass dieses Profilbild von dieser Person dort auch sichtbar ist. Und das ist, so weit wie ich erkennen kann, ist das, was da hier passiert ist. Das heißt, wir haben eure Profilseite gefunden. Die passt natürlich zu dieser Suchanfrage für Euren Namen. Und auf dieser Seite waren Verlinkungen zu anderen Profilen, wo entsprechend auch Profilbilder dabei vorhanden sind. Und dieses Bild haben wir dann auch gesagt, gut, das war auf dieser Facebook-Seite verlinkt. Wir erkennen natürlich nicht, wie das verlinkt ist oder woher diese Verlinkung kommt, sondern wir sehen nur, das ist eine HTML-Seite, die über diesen Namen, sag ich mal, relativ gut zusammenpasst. Und auf dieser HTML-Seite sind dann verschiedene andere Bilder verlinkt. Und so ist das an und für sich da über die Bildersuche hineingekommen. Das heißt, wenn ihr das herausnehmen möchtet, dann müsste man an und für sich das Profilbild von dieser anderen Person entsprechend löschen lassen. Und ich weiß nicht, wie viel Einfluss ihr da habt oder wie viel da Facebook helfen kann. Aber das ist eine Sache, die an und für sich auf dem Server gemacht werden kann. Man kann sich das so vorstellen, wir haben diese HTML-Seite gefunden, wir haben diese Bilder gefunden, wir haben die Bilder indexiert. Und wenn ihr die Bilder nicht mehr indexiert haben wollt, dann müsst ihr die Bilder von eurer HTML-Seite entfernen. Das heißt, ja, ich vermute, das ist ein bisschen schwieriger da, aber das sind auch Sachen, die sich eher im Laufe der Zeit einpendeln. Das heißt, wenn es mehr Bilder gibt, die zu eurem Profil oder zu eurem Namen gut passen, dann zeigen wir eher die Bilder an. Weil wenn wir wenig Bilder haben, die zu diesen Namen passen, dann müssen wir vielleicht ein bisschen tiefer graben und schauen, was sonst irgendwie verknüpft war. Ich habe eine Frage zu der Bildersuche. Wie kann man denn nur in der Bildersuche ranken bzw. die Websuche ausschließen? Geht das? Also ich möchte gerne mit meinen Produktfotos in die Bildersuche kommen, aber nicht gleichzeitig in der Websuche. Also ich möchte mir nicht selber Konkurrenz machen, darum geht es halt, weil ich habe jetzt so ungefähr das hinbekommen, dass ich für generische Begriffe gut ranke, aber ich möchte mir auf keinen Fall in der Websuche als Konkurrenz machen. Das kann man an und für sich nicht machen, weil für die Bildersuche brauchen wir jeweils das Bild und die Landingpage. Und beide Varianten müssen indexiert sein. Das heißt, man kann nicht sagen, ich möchte das Bild ohne Landingpage indexiert haben. Okay, also könnte man nur über eventuell eine Themenausrichtung, zum Beispiel Bild von Italienflagge oder Bilder von Italienflagge, dann praktisch Google sagen, nur dafür soll dann praktisch die Seite erscheinen? Oder habe ich auch wieder das Problem, dass ich für Italienflagge dann erscheinen könnte? Ja, also man müsste, je nachdem wie man das halt machen möchte, müsste man dann vielleicht einfach eine gezielte Landingpage da machen, die wirklich gezielt auf die Bildersuche ausgerichtet ist. Aber das ist natürlich auch immer ein bisschen schwierig, wenn man eigene Landingpages nur für die Bildersuche macht, dann sind diese Landingpages oft nicht sehr gut verlinkt innerhalb der Website. Dann sind die dann unter Umständen vielleicht auch nicht als wahnsinnig relevant angesehen. Das heißt, ja, ich meine, ich würde mal ausprobieren, ob das klappt mit vielleicht einigen Flacken. Bei dir, einfach mal schauen, ob das funktioniert. Aber ich könnte mir vorstellen, dass es schwierig ist, gerade wenn eine starke Konkurrenz da besteht, dann schauen wir natürlich schon, ob diese Landingpage auch relevant ist, bevor wir die Bilder von dieser Landingpage zeigen. Okay, dann hätte ich noch eine Frage zu generischen Suchen. Also ich habe jetzt so hinbekommen, dass für Italienflagge bei mir jetzt die richtige Seite kommt und die Produktvarianten habe ich jetzt auf dieser Seite zusammengefasst. Es gibt zwar einzelne Sachen, die Leute dann auch suchen, zum Beispiel Tischflagge, Italien oder Autofahne, Italien. Dafür habe ich die Produkte dann auch im Index drin. Jetzt stelle ich mir vor so, wenn ich jetzt fünf oder sechs Monate warte, wenn jetzt ein zusätzliches Produkt hinzukommt, zum Beispiel auf näher Italienflagge und danach wird jetzt häufiger gesucht. Wie kann ich das dann erkennen? Also gibt es die Möglichkeit, über die Search-Konsole ein Filter zu setzen, dass man dann einfach schaut, die Seite für Italienflagge hat jetzt auf einmal Suchbegriffe, wo man schauen könnte, dass man das vielleicht irgendwie aufteilt noch. Gibt es da irgendwie eine Möglichkeit? Das müsste man manuell machen. Das heißt, ich glaube, in Search-Konsoles sieht man das nicht auf Anhieb. Man müsste da fast manuell das herausfinden. Was man machen könnte, ist, dass man pro Woche das vergleicht, dass man letzte Woche mit dieser Woche vergleicht und dass man dadurch Suchbegriffe anschaut und dann nach der Veränderung der Impression das Ganze sortieren lässt und dass man da vielleicht sieht, einzelne Suchbegriffe sind da, die hatten letztes Mal null Impression und jetzt haben sie einen bestimmten Teil. Ja, genau. Und so könnte man das wahrscheinlich machen. Ich vermute, das ist einfach sehr aufwendig und da muss man sich viel überlegen, wie man das jeweils macht und wie viel Zeit man da investiert, ob das wirklich auch Sinn macht, aber könnte man sich ja so machen. Einfacher wäre es vielleicht, wenn man das irgendwie über die API macht, dass man da die Suchbegriffe herunter lädt automatisch und dass es dann ein E-Mail schickt, wenn neue Suchbegriffe vorhanden sind. Aber das muss man dann natürlich auch erst mal programmieren. Okay, dann noch eine Frage. Wenn jetzt nach Italien Flagge klein gesucht wird, dafür habe ich jetzt auch eine spezielle Landingpage, aber es erscheint jetzt natürlich auch die Italien Flagge-Seite, also die Gesamtübersicht, weil die natürlich besser ist. Würdet ihr zum Beispiel auch aufgreifen, wenn man so eine Art Filter setzt, also dann einfach nur klein schreibt, groß, Tischflagge, und dann über Buttons dann praktisch in diese Suche tiefer reinsteigt und dann die Seiten angezeigt bekommen für die kleinen Flaggen, aber jetzt die Seite ist auf No Index. Greift ihr so was auf oder müssen die Buttons dann auch Italien Flagge klein heißen oder Tischflagge Italien oder genügt einfach nur Tischflagge, groß, klein? Ihr habt das, glaube ich, auch in der Bildersuche so. Also wenn man nach Bildern sucht, sind oben drüber so Buttons, dann steht da Wallpaper klein oder HD, so was halt. Oder muss ich dann auch dieses Suchwort dann praktisch integrieren in diesen Buttons? Und wenn man diesen Button klickt, dann geht es zu einer anderen Seite und die andere Seite soll dafür ranken? Nein, die ist auf No Index. Also es soll halt nur einfacher für den User sein, sofort zu diesem Filter zu sehen, dann praktisch. Also er soll auf die Seite kommen und dann sieht er sofort klein. Aha, ich drücke klein und dann habe ich die kleinen. Okay. Also meine Frage ist, muss ich Italien Flagge klein schreiben in den Backen oder reicht einfach nur klein? An und für sich reicht. Kannst du das machen wie du willst? Also sag ich mal so, weil dieser Link, wenn das eigentlich mal ein Link ist, zur anderen Seite und die andere Seite ist auf No Index gesetzt, dann nehmen wir diesen Anchor Text ja nicht für diese andere Seite. Das heißt... Also es erscheint ja dann in der zum Beispiel Meta Description. Genau. Aber ihr greift da noch auf, als zusammenhängt für Italien Flagge klein und nicht nur für klein. Ja, sollte man eigentlich schon, weil wir kennen ja, dass diese Seite allgemein über Italien Flagge ist und wenn noch klein dabei ist, dann ist das an und für sich genug für uns. Manchmal macht es Sinn, dass man das zusammennimmt, wenn wir erkennen können, dass das wirklich ein zusammengehörnender Begriff ist. Das heißt nicht, dass das irgendwie, zwei verschiedene Elemente sind, die kombiniert sind, sondern dass es wirklich ein zusammengesetztes Wort ist, das immer aus zwei Wörtern besteht. Dann erwarten wir, dass diese beiden Wörter zusammengeschrieben werden. Das denkt mir, dass das nicht zusammengehört. Beispiel fällt mir jetzt gerade nicht ein, aber ich könnte mir vorstellen, bei einzelnen Städtenamen zum Beispiel gibt es ja zum Beispiel New York. Wenn man nur New auf einer Seite nimmt, dann ist das für uns nicht ein Zeichen, dass das über New York ist, oder wenn man New York nur York hat, dann ist es auch nicht New York. Das heißt, wenn man wirklich eine Wortsname ranken möchte, dann muss man das auch so zusammen hinschreiben. Wenn das jetzt nur ein Attribut ist für ein bestimmtes Produkt, dann sehe ich da viel weniger Probleme. Also ich regiere mit kleinen, großfarben, das sind einfach Sachen, die finden wir dann auf diesen Seiten und erkennen, dass das irgendwie als Kombination da gilt. Okay, also gilt praktisch der Titel oben, dass es auf der Seite steht und dann die Attribute können irgendwie auf der Seite vorkommen. Okay, dann probiere ich das aus. Danke schön. Okay, dann eine Frage zu einem Infoportal, welches seit 15 Jahren existiert und schon viele Versionen, CMS und alle Varianten durchgemacht hat und jetzt ganz viele 301-weite Leitungen hat durch die ganzen Umstellungen und so wie ich das verstanden habe in der Frage ist es so, dass die allgemeine Frage ist, ob man die alten redirects alle beibehalten muss und wie lang und dass sie das im Moment so machen, dass sie über die Log-Dateien schauen, ob die alten URLs gebraucht werden und wenn sie nach einer gewissen Zeit nicht mehr gebraucht werden, dann kann man die redirects entsprechend rausnehmen. Aus unserer Sicht ist das total okay. Das macht total Sinn. Wir brauchen eine gewisse Zeit bis wir die redirects verarbeitet haben und wenn wir gesehen haben, dass diese redirects eigentlich immer da sind, dann ist das aus unserer Sicht so weit okay. Was allerdings auch wichtig ist, ist gerade bei solchen Veränderungen, dass man die interne Verlinkungen entsprechend auch anpasst, sodass wir wirklich erkennen können, dass diese alten URLs nicht mehr relevant sind für die Website. Zum Beispiel die Weiterleitungen intern eingebaut hat und die Verlinkungen geht immer noch zu den ursprünglichen URLs, dann gehen ja Benutzer immer zu diesen ursprünglichen URLs und denken wir, dass wir, sag ich mal, den ganzen PageRank, die ganzen Signale über diese alten URLs erst mal weiterleiten müssen und dann über die Weiterleitung zu den neuen URLs bringen müssen. Aber wenn die ganze interne Verlinkungen, wenn die SideMap Dateien, wenn man damit arbeitet, wenn all diese internen Verlinkungen jeweils auf die neuen URLs auch zeigen und die redirects sind schon seit einiger Zeit da und ihr seht, dass niemand mehr auf die alten URLs geht, dann ist das aus unserer Sicht alles okay. Redirects kann man durchaus beibehalten bis immer und ewig, aber ich denke, nach irgendeiner gewissen Zeit muss man halt auch mal aufräumen und sagen, wir nehmen die jetzt raus. Das hat sich jetzt sauber eingependelt. Vom Zeitrahmen her ist es da schwierig zu sagen, ich würde empfehlen, dass man die mindestens ein Jahr beibehält. Wenn ihr schon seit 15 Jahren aktiv seid, dann sind da viele dabei, die wahrscheinlich schon viel älter sind und wenn sie nicht gebraucht werden, dann würde ich die einfach rausnehmen. Die ein Jahresgrenze empfehle ich deswegen, weil es sein kann, dass wir einzelne URLs nur einmal im halben Jahr crawlen und nach einem Jahr haben wir die sicher, zumindest einmal gecrawled, vielleicht schon mal zweimal, dass wir die redirects wirklich auch sauber verarbeitet haben. Aber ich denke, im Rahmen vom Untersuchen von den Log-Dateien, dass da wirklich kein Traffic auf diese alten URLs geht, das sollte das eigentlich soweit auch okay sein. Ich würde vom Zeitrahmen, den man da untersucht, ich denke, ein Monat ist sicher mal okay, aber ich würde vielleicht auch als Grenze setzen, dass man sagt, wir lassen die auf jeden Fall ein Jahr da und wenn nach einem Jahr seit mal im Rahmen vom ein Monat kein Traffic mehr auf die alten URLs geht, dann nehmen wir diese redirects gewahls raus. Okay. Und dann noch die Frage, ob das in Search Console weiterhin auftaucht. In Search Console sollte das eigentlich nur dann auftauchen, wenn wir weiterhin an den alten URLs hängen, wenn wir die weiterhin crawlen und versuchen, zu indexieren. Das heißt, wenn die redirects sauber schon verarbeitet worden sind und ihr diese Zeit verarbeitet habt, dann sollten die alten URLs eigentlich gar nicht mehr groß in Search Console erscheinen. Wie gesagt, manche Seiten crawlen wir nur alle halbe Jahr oder so und da kann es schon eine gewisse Zeit gehen, bis wir alles verarbeitet haben, aber das sollte eigentlich soweit da entsprechend rausfallen. Ja, ich weiß nicht, wie das bei euch im Moment aussieht oder in Search Console noch vorhanden sind. Kann mal schauen, ob da auf unserer Seite noch irgendwas hängt, aber eben normalerweise, wenn das schon mehr als ein Jahr zurück ist und intern alle Links wirklich auf die neuen URLs auch zeigen, dann würde ich mir da auch keine Sorgen machen, selbst wenn die noch in Search Console erscheinen. Zwei Sachen. Wir haben Warnungen mit der Kennzeichnung optimal oder optional in Search Console in Bezug auf Produkte und Produktseiten. Wie kann ich diese Warnung beheben, wenn die Dateninformationen nicht vorhanden sind. Ich betreibe ein Online Shop in Search Console habe ich die Meldung eingültiges Element mit Warnungen erkannt. Im Bericht steht dann keine globale Kennzeichnung, z.B. Geht hin, weil ich sie nicht benötige. Was kann ich tun? Was wir versuchen in Search Console, ist solche Warnungen einfach darzustellen, dass ihr die auch entsprechend seht. Ich glaube, für die Produktzuche ist es so, dass wir mit dieser ID arbeiten, wenn wir erkennen können, dass das wirklich ein Produkt ist, woanders auch vertrieben wird. Dann ist es ja auch weniger relevant. Dann denke ich, gerade wenn man einen Online Shop hat und eine Seite so gekennzeichnet ist, dass das fehlt, würde ich mir dann nicht groß den Kopf zerbrechen. Was gerade in Bezug auf die ganzen Rich Results vielleicht auch zu beachten ist, ist, dass diese beziehen sich auf die einzelnen Seiten. Das heißt, wenn irgendein Element auf einer Seite als Warnung dargestellt wird oder auch als Fehler, dann bezieht sich das nur auf diese einzelne Seite. Das heißt, wenn ich einen Online Shop habe mit ein paar tausend Produkten und eins davon wird für Structured Data ungültig erkannt, dann betrifft es nur diese eine Seite. Die ganzen anderen Produkte werden normal weiterverarbeitet. Das heißt, wenn ihr wisst, dass bei einzelnen Produkten nicht alle Informationen vorhanden sind und das aus eurer Sicht okay ist, dann könnt ihr diese Fehler eigentlich hinnehmen und sagen, das ist mir bewusst, ist mir eigentlich egal. Aus unserer Sicht ist es dann eigentlich auch okay. Wir zeigen dann einfach für diese Seiten, wo wir die Fehler sehen, zeigen wir dann die Rich Results nicht an. Für die anderen, wo wir die Informationen haben, zeigen wir das total normal. Ich denke, das betrifft auch der zweite Teil der Frage. Ich habe eine Fehlermeldung, entweder Offers, Reviews oder Aggregate Rating müssen angegeben werden. Ich habe den Fehler behoben und die Behebung eingereicht. Jetzt erhalte ich die Meldung über Prüfung bis alles in Ordnung. Trotzdem wird die gleiche Fehlermeldung angezeigt. Okay, das ist ein bisschen anders. Da ist es wahrscheinlich so, dass wir das einfach noch nicht sauber verarbeiten. Und sobald wir das verarbeitet haben für diese Seiten, dann können wir das entsprechend auch wieder passend im Bericht in Search Console darstellen. Das Ganze mit der Überprüfung ist ja so, dass wir versuchen, diese Seiten ein bisschen schneller zu crawlen, ein bisschen schneller zu verarbeiten, damit ihr nicht so lange warten müsst, bis das alles quasi natürlich neu gecrawlt wird. Ein bisschen schneller crawlen heißt aber nicht, dass wir das sofort hinkriegen, sondern wir versuchen das ein bisschen schneller hinzukriegen und das ist dann, manchmal kann es dann trotzdem noch ein paar Wochen oder gar Monate dauern, bis wir all diese Seiten neu verarbeiten können. Seit dem 12. September sind unsere Impressionen plötzlich von über 20.000 auf 1.000 und die Clicks von 2.000 auf 100 pro Tag in den französischen Discover-Ergebnisse gefallen. Davor befanden sie sich über Monate hinweg auf konstantem Niveau. Ende August hatten wir kurz Probleme in der Darstellung unserer AMP-Seiten. Die wurden ja doch schnell behoben, sodass der 1. September keine Fehler mehr vorhanden sind und die Impressions der AMP-Seiten seitdem sogar höher als in den vor Monaten davor. Welche Änderungen beziehungsweise Probleme hatten wir nicht mit unserer Website oder weitere Probleme hatten wir nicht. Was kann man da machen? Schwierig zu sagen, gerade bei Discover ist es natürlich so, dass man da nicht 100%ig weiß, wie man dargestellt wird in diesem Feed, weil es ist ja nicht der Fall, dass jemand nach bestimmten Keywords sucht und an eure Seiten sieht, sondern das Wert algorithmisch aufgrund von dem, was wir als Empfehlung von diesem Benutzer oder was wir denken, was da entsprechend passen würde. Von dem her ist es manchmal ein bisschen schwierig und ich denke, da muss man eigentlich immer ein bisschen damit rechnen, dass das mal besser geht und mal weniger gut geht. Einfach aufgrund von dem, wie das halt zusammengestellt ist, weil man weiß ja nicht, wie viele Leute an einem Thema interessiert sein könnten und wie das algorithmisch entsprechend dargestellt wird im Discover Feed. Von dem her kann es immer solche Schwankungen ein bisschen geben. Vom Datum her fällt mir da jetzt nichts Besonderes auf, dass sich da irgendeine große Veränderung gegeben hat, weil du Frankreich noch erwähnt hast oder die französischen Resultate würde ich ein bisschen an die ganzen Sachen mit dem Copyright Directive hinden. Aber vom Datum her passt das nicht ganz zum 12. September, sondern das war, glaube ich, eher Ende Oktober. Dass wir das anders dargestellt haben. Da ist es einfach wichtig, dass wenn ihr als europäische Presse-Website erkannt seid, ich weiß nicht, ob das jetzt der Fall ist und in Frankreich dargestellt wird, aber es ist ganz wichtig, dass man da die Snippets-Begrenzungen gelten und dass man da einfach mit den Mattertags arbeiten muss, wenn man einen größeren Snippet dargestellt haben möchte. Das passt für die normale Suche wie auch für Discover. Es ist da an und für sich wichtig, auch für die Bildersuche. Von dem her würde ich vielleicht im ersten Moment trotzdem kontrollieren, dass man die Mattertags, alles so wie ihr das haben wollt. Wenn das der Fall ist, dann lässt sich das relativ einfach beheben. Wenn das soweit okay ist und ihr wirklich seit, sag ich mal, Mitte September da diese Veränderung sieht, dann ist es schwierig für mich zu sagen, was ihr da als nächstes machen könnt, außer dass man da dafür sorgt, dass die Website die Discover verwenden würden. Und das ist natürlich schwierig zu sagen, worauf ihr zielen soll, sondern man muss dann halt einfach schauen, wie könnt ihr Inhalte bringen, die für Benutzer in dieser Region relevant sein könnten. Dann eine Frage zur erlebnisbartspaßbar.de was man da machen könnte vom Ranking her. Ich habe das vorgeschaut, aber mir ist eigentlich nichts Besonderes aufgefallen, was man da, sag ich mal, gezielt machen muss. Vom technischen her sieht das soweit eigentlich okay aus. Vom Inhalter da seid ihr natürlich eher die Experten, ihr wisst da eher, wonach gesucht wird und wie weit eure Seite dazu relevant sein könnte. Insgesamt sehe ich da eigentlich nichts Besonderes, was was man da irgendwie vorrufen könnte, als etwas, was man verändern müsste. Ich denke, gerade mit Mobile First Indexing ist es einfach wichtig, dass ihr die mobile Version jeweils kontrolliert, dass da die ganzen Inhalte sind, die ihr indexiert haben möchtet, dass da die Texte auch entsprechend so vorhanden sind, wie ihr die indexiert haben möchtet. Aber ansonsten ist es schwierig zu sagen, was man da gezielt anders machen müsste, damit man auf sag ich mal für eure Suchbegriffe mit der Homepage besser ranken kann. Manchmal ist es einfach so, dass es da vom Ranking her ein bisschen schwieriger ist. Ich habe eine Frage zur Paginierung dynamisch in Content. Unsere Paginierungsseiten haben keine eigene URLs. Per Click auf Seite 2 wird dynamisch der Content von Seite 2 in das Segment nachgeladen. Wie findet der Crawler die Links in den Paginierungsseiten? Wahrscheinlich nicht. Das heißt, wenn die URL gleich bleibt und per Click ein Javascript aufgerufen wird und per Javascript werden die Inhalte vom Server abgefragt und dann entsprechend eingefügt in die Seite, dann wäre das nicht etwas, was wir beim Rendering machen würden. Das heißt, für das Rendering versuchen wir die Seite zu laden. Wir wollen die Seite möglichst vollständig zu laden und indexieren dann die Inhalte, die da vorhanden sind. Das heißt, Google Word geht da nicht los und klickt auf einzelne Elemente um zu schauen, ob sich da etwas noch verändert, sondern es nimmt quasi ein Snapshot von dieser Seite zu dem Moment. Wenn ihr quasi dynamisch die Inhalte so austauscht, dann vermute ich, dass wir einfach nur die erste Seite von dieser Paginierungsserie werden und dass wir die anderen gar nicht finden könnten, weil wenn auch keine separate URLs vorhanden sind, könnten wir gar nicht die zweite Seite gezielt nachladen. Wie weit das kritisch ist, ist schwierig zu sagen, wenn die einzelnen Elemente separat normal indexiert werden, wenn die Elemente untereinander auch sauber verlinkt sind, wenn die Elemente vielleicht in verschiedenen Kategorien vorhanden sind dann ist das vielleicht weniger kritisch. Wenn hingegen die Elemente nicht gut intern verlinkt sind und wirklich nur über diese Paginierung auffindbar sind, dann könnte ich mir vorstellen, dass wir die Elemente, die ja von Seite 2 oder Seite 3 verlinkt werden, dass wir die gar nicht groß auffinden, selbst wenn die zum Beispiel in einer Sidemap-Datei vorhanden sind. Das heißt, da würde ich schon sagen, dass man da irgendwie schauen müsste, dass durch das normale Crawling der Website diese Elemente auch auffindbar sind. Man kann das meistens auch mit eigenen Crawler und testen. Es gibt ja verschiedene Crawler-Tools, die man nehmen kann. Ich weiß nicht, Deep Crawls, Screaming Frog, wie die alle heißen. Das sind Anführsicht-Tools, die versuchen ähnlich wie Googlebot, die Seiten zu crawlen und würden da in diesem Fall sicher auch ähnliche Probleme sehen beim Crawling und am Ende könnt ihr dann kontrollieren, ob alle eure Inhalte wirklich indexiert sind, oder ob die auffindbar sind durch so ein Crawl oder nicht. Wenn die auffindbar sind, dann sind sie ja intern irgendwie verlinkt, dann ist das wahrscheinlich weniger problematisch. Wenn hingegen nur ein kleiner Teil der Website auffindbar ist, dann würde ich mir schon überlegen, wie man das besser machen könnte. Wir akrogieren News, um sie unseren Nutzern anzuzeigen. Dabei finden wir auf den Artikel des Content-Erstellers, sollten solche Links als No-Follow gekennzeichnet werden. Das könnt ihr machen, wie ihr wollt. Anführsicht ist das ja nicht ein bezahlter Link, es ist nicht User-generated Content. Von dem her muss man das nicht unbedingt als No-Follow kennzeichnen. Da würde ich jetzt auch irgendwie nicht, das ist nicht besonders problematisch sehen, wenn das ohne No-Follow ist. Ich vermute, für die einzelnen Websites macht das auch keinen großen Unterschied, ob das jetzt per No-Follow oder Follow entsprechend verlinkt ist. Ich würde das der Einfachheitshalbe einfach ohne No-Follow lassen, dann kann man diese Links noch Crawl und vielleicht da weitere Inhalte sehen. Jede Seite hat ihr verschiedene Seitentippen, Produkten, Kategorien-Seiten, Content-Seite und macht es für euch einen Unterschied, in welchen Verzeichnissen diese liegen. Also könnte auch alles unter Stichpages legen oder ist ein Verzeichnisbaum für euch wichtig. Wie ihr das mit Verzeichnissen macht ist Anführsicht euch überlassen. Uns hilft manchmal die unterschiedlichen Verzeichnisse beim Bestimmen von der Crawling-Frequence. Das heißt, bei Bestimmen von wie oft müssen bestimmte Arten quasi gecrawlt werden. Wenn wir zum Beispiel erkennen können, dass das ganz klar Kategorien-Seiten sind, dann versuchen wir die vielleicht ein bisschen häufiger zu crawlen, einfach damit wir die einzelnen verlinkten Produkte auch jeweils ein bisschen schneller finden. Aber allen für sich können wir das über verschiedene Arten erkennen. Von dem her würde ich mir da jetzt nicht groß den Kopf zerbrechen, wie ihr das macht mit den Urals, mit der Uralsstruktur. Es muss auch nicht sein, dass das irgendwie logisch aufgebaut ist oder dass da wirklich die Suchbegriffe als Unterverzeichnisse dabei sind. Für uns sind in erster Linie Urals einfach Kennzeichnungen für die Seiten. Und wir versuchen damit einfach zurechtkommen mit dem, was wir finden. Manche haben Verzeichnisse, Unterteilnahmen, andere Arbeiten mit Parametern. Das kann man machen in der Welt. Ich fahre bezüglich Linkbuilding auf der Suche nach Low-Hanging Foods und stieße auf unsere Dealer und Partner weltweit, für die man ja verlinkungswürdigen Content mit Mehrwert für den Nutzer schaffen könnte. Beispielsweise PDFs, die wir nicht direkt an Dealer geben. Nun haben wir aber eine Unterseite mit Partner und Dealer weltweit, inklusive Verlinkung zu deren Webseite. Natürlich lohnt es sich immer, Content mit Mehrwert bereitzustellen, aber lohnt sich der Aufwand generell, da die Verlinkung zwar nicht 100% Reziproof bezüglich der Struktur, aber hinsichtlich der Domain sind. Ich denke, das lohnt sich trotzdem. Wenn man Inhalte erstellen kann, die andere verlinken würden, ist das doch eigentlich immer eine tolle Sache. Bezüglich der Reziprofen Verlinkung, das heißt, wenn meine Webseite zu einer anderen verlinkt ist das an und für sich nichts besonders Unnatürliches an und für sich, sondern das ergibt sich ja immer wieder. Das heißt, wenn ich irgendwo in der Presse erscheine, dann verlinkt diese Presse Webseite vielleicht zu mir oder zu einem bestimmten Inhaltsstück auf meiner Seite und vielleicht bin ich da irgendwie stolz darauf, dass ich bei dieser Presse Webseite erscheine und sage, ich wurde in dieser Presse Webseite entsprechend erwähnt. Das ist eigentlich eine totale natürliche Struktur, eine totale natürliche Situation und das ist überhaupt kein Problem für uns. Problematisch ist es wirklich nur, wenn wir erkennen können, dass in größerem Stil wie ein Link-Netzwerk betrieben wird, das heißt, jemand kommt zu dir und sagt, ich verlink auf deiner Seite, wenn du zur Lösung auf meine Seite verlinkt und das sind dann die einzelnen Links, die vorhanden sind für eine Webseite, dann sieht das ein bisschen unnatürlich aus, aber in den meisten Fällen ist es normal, dass eine Webseite auf eine andere verlinkt und vielleicht denkt die Webseite gut, die andere Webseite hat da auch tolle Inhalte und verlinkt zu irgendeinem Artikel auf eurer Webseite. Solche Sachen passieren immer und das finde ich eigentlich eine tolle Sache. Wenn man schon Partner hat, die irgendwie offen für eure Inhalte sind, dann ja, warum nicht? Mich würde interessieren, wie oder warum es in der Search Console immer wieder zu Fehler meldungen kommt, obwohl manuelle Prüfungen bestätigen, dass alles in Ordnung ist. Heute fand ich beispielsweise 6 Fehler, die angegeben wurden, dass die jeweiligen Unterseiten in den Sitemaps mit Noindex gekennzeichnet sind. In den Sitemaps kommt der Begriff Noindex noch nicht einmal vor. Die manuelle Prüfungen in der Search Console geben schlussendlich auch ein grünes Licht. Wie kann man das quasi ignorieren? Oder ist das echt ein Problem? Ich vermute, was in vielen dieser Situation passiert, ist, dass da irgendein Temporär-Fähle auftritt und dass wir das so einmal aufschnappen und dass wir das dann einfach darstellen in Search Console. Gerade bei größeren Websites können solche temporären Sachen ja häufiger vorkommen. Das heißt, wenn ich 10.000 Fehler habe, kann es sein, dass beim Crawling irgendetwas mal schief geht und das Einzelne davon irgendwie fehlerhaft sind. In Search Console würden wir das darstellen, wenn wir denken, jeder Fehler könnte unter Umständen kritisch für euch sein. Wenn ihr dann aber kontrolliert und sieht ja, das sind Sachen, die eigentlich keine richtigen Fehler sind, dann würde ich die einfach ignorieren. Beim nächsten Crawling klappt das sicher wieder und dann fallen diese Fehler wieder raus. Das heißt, eine gewisse Anzahl von Flaky-Fählern, also Fehler, die manchmal kommen und manchmal nicht kommen, ist eigentlich normal, gerade bei einer größeren Website. Von dem her würde ich in erster Linie diese Fehler anschauen und überlegen, ist das etwas Kritisches, was für mich sehr wichtig ist, sind das Inhalte, die für mich besonders relevant sind oder irgendwelche Inhalte auf meiner Website und wenn das kritische Sachen sind, dann würde ich die vielleicht mal kontrollieren, einfach zum Sicherstellen, dass es wirklich auch okay ist. Wenn es normale Sachen sind, würde ich mir keine großen Sorgen machen. Das kommt dann wieder. Darf ich da kurz nachfragen? Ja. Ich habe so das Gefühl, wenn wir die Fehler nicht manuell abschalten und die Seiten wieder neu einreichen, dass es sich das aufstockt. Weißt du, dass es immer mehr und mehr Fehlermeldung werden, dass die also nicht von alleine verschwinden und da mache ich mir eben Sorgen, ob ihr dann aus euren Augen heraus nicht denkt, okay, das ist eine Seite, die Fehler aufbaut, obwohl de facto ja gar keine da sind. Das sollte kein Problem sein. Also, was einfach passiert ist, wenn wir die Fehler regelmäßig sehen auf einzelnen URLs, dann denken wir, das ist jetzt ein permanenter Fehler und dann crawlen wir vielleicht nicht so häufig diese Seiten. Wenn wir das zum ersten Mal sehen, dann ist das aus unserer Sicht eher etwas temporäres, wir crawlen da normal weiter. Das ist jetzt auf einzelne URLs betroffen. Innerhalb der Website selber ist das total egal, wenn man jetzt mal mehr Fehler hat oder mal weniger Fehler hat. Es ist dann nicht so, dass wir sagen, die Website ist fehlerhaft, weil da jetzt vielleicht noch hunderte von 404 Fehler oder No-Index-Fehler vorhanden sind, sondern diese Seiten, die Fehler haben, die zeigen wir halt nicht in den Suchergebnissen und den ganzen Rest wird total normal angeschaut. Für eine normale Website ist es ja eigentlich auch natürlich, dass man sehr viele Fehler Seiten hat, die einfach nicht existieren. Schlussendlich kann man auf eine Website in verschiedenen Varianten verlinken und viele von diesen URLs sind unter Umständen nicht gültig und das ist aus unserer Sicht eigentlich total egal. Wir versuchen das diese Seite mal aufzurufen, wenn die nicht gehen, dann indexieren wir sie halt nicht. Der ganze Rest der Website wird weiterhin als normal eingestuft. Okay, vielen Dank. Cool. Okay. Ich gehe mal schnell die anderen Sachen noch durch, die da drin sind. No-Follow-Pingback-Links mit Exact-Match-Anker-Text. Weil Google ja jetzt ein No-Follow als Signal bewertet, muss ich die mit dem Disservow noch bearbeiten. Nein. Wenn die ein No-Follow haben, müsst ihr die sicher nicht in die Disservow-Datei hineinnehmen. Wir versuchen das als Signal zu nehmen, wenn wir erkennen können, dass die irrelevant sind. Aber es ist nicht so, dass wir das gegen euch zählen würden und sagen würden, diese Links müsst ihr im Disservow auch bearbeiten. Sondern wenn sie schon No-Follow haben, ist es auch okay. Wie geht Google eigentlich mit Sonderzeichen, wie den dänischen Ö, oder ich weiß nicht, wie man das ausspricht, um, wenn ich zum Beispiel etwas über so ein Insel veröffentlicht sollte ich das als Domain-Namen mit normalen O oder OE oder mit dem Sonderzeichen schreiben. Das kommt immer wieder. Aus unserer Sicht ist das an und für sich egal. Was praktischerweise bei uns passiert ist, wir haben in den meisten Fällen nicht irgendein System integriert, welches diese Sonderzeichen umschreibt, sondern wir versuchen die einfach automatisch als Synonyme zu erkennen. Das heißt, wir sehen, dass das vielleicht benutzern nach den verschiedenen Schreibweisen suchen und erkennen, dass Benutzer wahrscheinlich das Gleiche meinen. Und dementsprechend können wir dann ziemlich gut erkennen, wahrscheinlich sind das Synonyme, wahrscheinlich können wir die beliebig austauschen. Das heißt, wenn wir eine Website finden mit einer Variante, dann können wir diese Website auch für suchen, für die andere Varianten trotzdem zeigen. Auf Deutsch ist das ja auch mit dem U mit dem Umlaut das Gleiche oder mit anderen Buchstaben mit den Umlauten. In anderen Sprachen gibt es da keine große Umschreibung, sondern man hat einfach entweder den Buchstaben mit dem Sonderzeichen oder nur den Buchstaben alleine. All das funktioniert in der Regel schon, dass wir das als Synonyme erkennen, wenn wir erkennen können, dass das für Benutzer wirklich auch Synonyme sind. Meistens ist es so, dass in den Suchergebnissen gibt es dann trotzdem noch subtile Differenzen. Das heißt, man sieht trotzdem einzelne Seiten, die ein bisschen besser erscheinen, ein bisschen weniger scheinen. Aber wenn ihr aktiv seid in dieser Region, dann wisst ihr, wie die Benutzer suchen und dann könnt ihr euch auf das entsprechend einrichten. Kann ich noch mal eben eine Frage stellen? Ja. Und zwar geht es um die Darstellung in der Suche. Ich habe jetzt hier ein Desktop im Büro schon diese neue Darstellung, also praktisch die Domains sind über dem Titel in Frankreich aber auch nur zu Hause habe ich das jetzt noch nicht. Wie sind denn da eigentlich so die Pläne? Ich kann mich jetzt nicht so ganz dran gewöhnen, ehrlich gesagt, wenn ich mir das jetzt anschaue. Du kennst das aber schon, ne? Ja, ich weiß nicht was da die längerfristigen Pläne sind. Meistens ist es so, dass wir diese Sachen testen und je nachdem werden die vielleicht mal im größeren Stil getestet oder im kleineren Stil und aufgrund von den Testergebnissen schauen wir, ob das für die Benutzer gut funktioniert oder nicht, oder ob wir das ein bisschen verändern müssen, ob wir andere Varianten testen müssen. Meistens ist das eine Frage von dem, was schlussendlich dann auch besser für Benutzer geht. Und da ist es weniger eine Frage davon wie wir das machen möchten, sondern wir haben vielleicht euch User Studies erkannt, dass die aktuelle Situation ein bisschen verwirrend ist und dann probieren wir da verschiedene Varianten wie das für Benutzern einfachsten ist. Ich weiß jetzt nicht, wie das mit diesem Titel insbesondere ist, ob die jetzt oberhalb der URL oder unterhalb oder wo quasi die Stadt der URL dann irgendwie den Namen der Webseite gezeigt wird, das ist ja auch etwas, was man manchmal sieht. Beim Mobile Friendly Test weiß ich, da war ich ein bisschen mehr involviert und da war es so, dass wir alle möglichen Symbole versucht haben zum Kennzeichen, ob jetzt eine Webseite Mobile Friendly ist oder nicht. Da haben wir dann auch quasi die positive Variante und die negative Varianten ausprobiert und viele von den Varianten, die wir getestet haben, die waren überraschenderweise sehr schlecht, sind das sehr schlecht bei den Benutzern angekommen. Wir haben dann einfach auch eine gewisse Zeit gebraucht, bis sich Benutzer daran gewöhnen konnten und wir wollen natürlich das so haben, dass das mit möglichst wenig Gewöhnung braucht und dann sind wir am Ende mit der einfachen Textvariante zurückgekommen und haben das dann so damals verwendet. Wie das mit diesen Titeln ist, weiß ich nicht. Ich vermute, das Team wird die gleichen Schwierigkeiten haben, dass sie da einerseits Feedback sehen von Webmaster und andererseits Daten von den ganzen Studies und von den Tests sehen und aufgrund von dem probieren sie weitere Sachen aus und wenn es da etwas gibt, was besser funktioniert, dann wird das wahrscheinlich beiderhalten. Und wie komme ich aus dem Test raus? Also Cookies löschen Fritzburg Neustarten, neue IP-Adresse Ich bin nicht angemeldet. Weiß ich nicht. Ich habe gedacht, das geht über ein Cookie. Also ich vermute das ist auf unserer Seite nicht besonders dokumentiert, aber ich habe da einzelne Websites gesehen, wo man mit einem besonderen Cookie sich in bestimmte Experimente quasi dazu bringen kann und vermutlich ist das irgendwo in irgendwelchen Blogs, hat das jemand mal zusammengestellt. Ich weiß nicht, ob das weiterhin Cookie ist, aber das wäre vielleicht eine Variante. Und wie kann man Feedback senden zu dieser Darstellung? Also ich habe auch nichts gefunden, kein Fragezeichen oder so, wo man einfach mal drücken könnte. Man kann allgemein Feedback zu den Suchergebnissen zurückbringen. Normalerweise bei solchen Tests schauen sie darauf, wie Benutzer effektiv reagieren. Das heißt nicht, ob jemand rückschreibt und sagt, das war der Normale Benutzer, merkt einfach es ist ein bisschen anders, aber man weiß nicht genau warum und wir versuchen dann einfach über das Userverhalten festzustellen, klappt das eher das Benutzer, die die Sachen besser erkennen können oder klicken sie da besonders viel mehr Herung, weil sie verwirrt sind, wie verhält sich das längerfristig. Okay, war das klar. Danke. Cool. Das haben wir ziemlich am Ende, aber wenn eine von euch vielleicht noch eine letzte Frage hat, dann versucht man das noch hinzukriegen. Jetzt sind alle still. Okay. Ich glaube in den Kommentaren war noch eine Frage. Okay. Okay. Ui, lange Frage. Okay. Guguma Business seit einigen Jahren kann man Kategorien wie zum Beispiel Bodell nicht mehr in seinem Business Profil auswählen, allerdings existieren diese Kategorien nach wie vor, denn Unternehmen, welche diese Kategorie zu Google Plus Seiten ausgewählt hatten, wird diese Kategorien nicht abgenommen, sondern die werden nach wie vor so dargestellt. Ich kann leider zu Google bei Business nicht wahnsinnig viel sagen, ich weiß da nicht, wie das da gehandhabt wird. Mal schauen ob die Frage ist, ich glaube, zieht sich eigentlich alles auf Google My Business über die Profile dort, da weiß ich nicht wie das gehandhabt wird. Was ich mal da vielleicht machen würde, ist wenn du im Google My Business Forum mal eine Frage posten könntest und den Link zu dieser Frage bei den Hangout-Fragen dazunehmen kannst, kann ich das dann als Google My Business Team mal weitergeben, dass sie das auch mal anschauen können. Ich weiß nicht, wie weit das besondere Problem jetzt da bei Ihnen bekannt ist. Ich weiß auch ehrlich gesagt nicht, wie wieder die Pläne sind oder wie solche Sachen überhaupt verarbeitet werden dort auf der Google My Business Seite. Aber ich kann gerne die Frage mal an das Team weitergeben und eben wenn du eine Forum-Prage offen hast, dann können Sie da vielleicht noch ein paar Fragen zu bringen. Okay, gut. Dann machen wir vielleicht hier Pause. Ich richte auf jeden Fall noch die nächsten Hangouts ein. Ich sehe, da sind noch einige Fragen im Chat dabei und einige Fragen noch eingereicht worden. Schauen wir, dass wir die beim nächsten Mal noch hinkriegen. Ansonsten wünsche ich euch erstmal einen schönen Nachmittag und vielleicht sehen wir uns beim nächsten Mal wieder. Tschüss aller Zeit. Danke.