 Okay, herzlich willkommen beim heutigen Webmaster Essentials Sprechstunden Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trends Analyst hier bei Google in der Schweiz und Teil von dem was wir machen sind solche Webmaster Hangouts, wo jeder dazu kommen kann, Fragen stellen kann, wo wir die aktuellen Probleme ein bisschen besprechen können. Sind einige Fragen schon eingerangt, aber wenn einer von euch möchte, könnt ihr gerne schon mal loslegen. Da sprung ich doch gerne mal sofort rein. Ich hatte die Frage auch tatsächlich gestellt in dem YouTube, weil ich nichts gestellt habe. Ich habe den Post eben auch nochmal in den Chat gelegt, diese französische Google-Block-Ankündigung von gestern, das wegen der europäischen Rechte. Ja, ein bisschen Hintergrundsgeräusch, ich schalte mal die anderen auf Stuhl. Ja, wozu hättest du da eine Frage? Auf Deutsch über die Situation. Wir zeigen dann eure Snippets nicht mehr an, demnächst in Frankreich. Kann auch sein, dass es in Deutschland ausrollt. Und außer die Publisher sagen ganz konkret, ja, Google, ihr sollt das unsere Snippets weiter entzeigen. Und es wurde daraufhin verbinden, auf diesen anderen Post von gestern, der neue Meta-Robots-Auszeichnung ankündigt. Aber ich bin da jetzt nicht zufrieden. Den steht, hallo, ich bin Publisher und ich möchte bitte meine Snippets darstellen. Oder habe ich da was zu tun? Ja, tatsächlich ist es so, dass wenn man als, ich weiß nicht, wie der deutsche Name ist, als European Press Publisher quasi markiert ist, dann ist es so, dass wir standardmäßig für die Suchergebnisse für Benutzern in Frankreich, wo jetzt das neue Gesetz in Kraft getreten ist oder entreten wird, dass wir da keine Text Snippets anzeigen und keine Bildervorschau anzeigen. Außer man gibt explizit an, dass man das haben möchte. Wie geht man das denn explizit an? Das kann man mit dem Max Snippet-Robotsmeta-Tag machen, indem man da entweder angibt, wie viel Buchstaben man als Text Snippet haben möchte, maximal, oder dass man einfach minus 1 angibt und sagt, macht das quasi wie vorher. Und ebenso kann man das für die Bilder, wenn man bei dem Bildern Max Image Preview heißt, ist, glaube ich, das auf Standard setzt und dann ist es anfühlt sich auch so, die Standard-Bildvorschau wieder normal verfügbar. Ich höre dich ganz schlecht, David. Da stehe ich fast nichts. Okay, ich komme später nochmal rein. Okay, super. Okay, irgendwelche anderen Fragen vielleicht zum starten? Ja, ich wollte nochmal... Kann ich? Ja, ja. Ich höre mich, glaube ich, doppelt, oder? Nein, jetzt geht es. Okay, also ich wollte nochmal anschließen an diese letzte Frage vom letzten Hangout, weil wir ja dann praktisch, du konntest nicht mehr antworten, es geht um dieses Core Update im März. Ihr hattet ja ein großes Update gehabt und wir haben unheimlich an Sichtbarkeit verloren. Das habe ich fast vier Monate noch nicht mehr gemacht und komischerweise sind wir jetzt besser als damals im März. Deswegen meine Frage, diese Core Updates, wie funktionieren diese Core Updates? Also wird dann praktisch einmal die alle Positionen, wenn dann auf Reset gestellt und dann kann sich eine Webseite nochmal neu entwickeln oder wie funktioniert das dann konkret? Es ist nicht so, dass wir da neu anfangen, aber die Ranking Algorithmen werden ja regelmäßig angepasst und manchmal wird das vielleicht ein bisschen zu stark in eine Richtung angepasst und entsprechend wieder korrigiert im Laufe der Zeit und vielleicht ist so was ähnliches, was du jetzt da siehst. Es ist nicht unbedingt, dass wir die Webseite dann quasi auf 0 oder, ich weiß nicht, standardwert zurücksetzen, sondern es ist einfach, die Algorithmen werden weiterentwickelt und es kann durchaus sein, dass mit einem Algorithmus, dass man da vielleicht ein bisschen schlechter wegkommt und dann beim nächsten kommt man wieder ein bisschen besser weg. Meistens ist das ein Zeichen, dass unsere Algorithmen dann nicht 100%ig sicher sind, wie sie diese Webseite einstufen sollen. Was man da versuchen kann, ist einfach in die Richtung gehen, dass man sagt, gut, ich arbeite hart dran, dass quasi alle Algorithmen sowieso sehen, dass meine Webseite sehr gut ist in diesem Bereich. Aber das macht ihr wahrscheinlich sowieso, oder? Ehrlich gesagt, habe ich nichts gemacht. Ich habe wirklich nichts gemacht und es ging seit März eigentlich langsam, aber kontinuierlich nach oben. Also keine großen Schwankungen. Deswegen denke ich vielleicht, ihr probiert immer wieder ein paar Suchwörter aus, ob die jetzt für unsere Webseite funktionieren und dann reguliert sich das irgendwie wieder von der Position her, weil du hattest irgendwann mal gesagt, dass Google auch versucht zu erkennen, ob dieser Content vielleicht besser ist, für auf Dauer halt, ihr versucht ja irgendwie auf Dauer auch irgendwas zu machen. Also da habe ich wegen gesagt 4 Monate nichts gemacht. Ja, das kann schon sein, dass sich das verändert im Laufe der Zeit. Also es sind ja auch einige Core-Updates, glaube ich, gewesen seit März. Von dem her ist es sicher nicht so, dass wir mit jedem größeren Update alles zurückstellen. Ach so, ich dachte, es war jetzt nur ein großes, damals im März und seitdem kommen nur kleine irgendwie. Nein, nein, das sind regelmäßig größere Update und ich meine, manche Webseite sehen halt die Effekte ein bisschen mehr als andere. Deswegen sieht man dann manchmal, dass da gewisse Webseite sich melden und sagen, das ist irgendwie alles solch einander jetzt. Und solchen Feedback schauen die Teams dann auch an, um ein bisschen festzustellen, quasi, müssen wir dann in dem Bereich wieder etwas anpassen oder ist es eigentlich so gewollt, ist es vielleicht absichtlich so, dass die Algorithmen das ein bisschen strenger anschauen. Okay, ja, alles klar, danke. Okay, dann springen wir vielleicht mal zu den Fragen rein und wenn ihr dazu irgendwelche Kommentare oder weitere Fragen habt, einfach nur loslegen. Und da geht es dann gleich weiter mit dem Update. Nachdem vor kurzem spezielle Seiten aus dem medizinischen Bereich, okay, drücken, nachdem das spezielle Seiten aus dem medizinischen Bereich arg von einem Update betroffen waren, frage ich mich, ob es Guidelines oder Leitfaden für besondere Bereiche gibt, an die ihr gewisse oder auch gehobene Ansprüche stellt. Wir haben nicht in der Art, sag ich mal, Wetmaster Guidelines, wo wir sagen würden, so und so müsst ihr das machen. Was am ehesten in die Richtung geht, ist unser Quality Rater's Guide. Es ist so, das Quality Rater Team schaut regelmäßig Experimente an, die unsere Entwickler machen, wo sie zum Teil Ranking Veränderungen machen oder vielleicht die Benutzer-Interface von den Suchergebnissen ein bisschen anpassen und dann bekommen die Quality Rater's jeweils mehrere Suchergebnisse-Seiten zum Anschauen und die vergleichen dann, welches dieser beiden ist besser und versuchen zu erklären, warum sie diese Suchergebnisse-Seiten besser oder schlechter finden. Die Quality Rater Guidelines sind Informationen, die wir diesen Quality Rater's geben, damit sie das ein bisschen in der Hinsicht anschauen, wie wir das eigentlich angeschaut haben möchten, dass man da ein bisschen mehr auf den Hintergrund schaut, dass man vielleicht die Suchanfragen anschaut, solche Sachen. Und inzwischen sind die, glaube ich, fast 200 Seiten lang, aber jedes Mal, wenn wir ein Update machen, versuchen wir das auch zu veröffentlichen und das sind Sachen, die dann auch von den SEO-Bloggers angeschaut werden und regelmäßig auch mal beschrieben werden oder die Änderungen beschrieben werden, worauf man achten kann in solchen Fällen. Und das ist nicht so, dass die Quality Rater's die Rankings direkt bestimmen, sondern sie helfen uns einfach, die Algorithmen ein bisschen zu verfeinern, dass wir da die richtigen Algorithmen finden. Und dementsprechend ist das etwas, was man dann vielleicht vielleicht mal sehr indirekt in Suchergebnissen auch sehen würde. Und ich denke gerade in speziellen Bereichen, wie jetzt im medizinischen Bereich, macht es sicher Sinn, dass man die Quality Rater's auch mal anschaut und überlegt, wie passt meine Website diesbezüglich dazu. Und manchmal findet man Sachen, die man denkt, ja, das ist ja logisch, das habe ich alle schon vor langer Zeit gemacht. Manchmal sieht man da Sachen, ich denke, das ist vielleicht etwas, was wir verbessern könnten. Und da denke ich, macht es schon Sinn, dass man das ab und zu mal anschaut. Eine kurze Frage. Sollte man im Titletag auch bei etablierten Brands den Markennamen und oder die URL noch explizit unterbringen? Oder kann man beziehungsweise sollte man, dass er sich das ersparen und den Platz im Titletag mehr für beschreitende Titel verwenden? Man kann beides machen. Es ist so, dass unsere Algorithmen in den meisten Fällen versuchen, sie auch den Namen der Website irgendwie im Link, den wir in den Suchergebniszeiten bringen, auch irgendwie unterzubringen. Das heißt, oft zieht man, dass wenn man einen langen Titletag geschrieben hat, dass Google den ein bisschen kürzt und dann vielleicht noch den Markennamen oder den Domain-Namen noch dazunehmt. So das benutze, wenn Sie das anschauen, dass Sie da gerade den Bezug haben. Von dem her kann es sein, dass wir das vielleicht für euch schon automatisch machen. Wenn es für euch wichtig ist, dann würde ich das vielleicht auch direkt einbinden. Ich denke gerade bei etablierten Brands, wo der Benutzer nach diesen Markennamen, nach diesen Brandnamen suchen wird, macht das vielleicht Sinn, dass man das macht. Dass man wirklich klar ist, dann eine längere Frage ist das so von Google-Gewalt, dass sich andere Unternehmen in die organicen Rankings einkaufen. Zum Beispiel mittels Advertorials und ähnlichen Seiten und dass dadurch die anderen Seiten quasi verdrängt werden. Ich denke, das ist ein größeres Thema, wo es schwierig ist, gezielt zu sagen, was man wie machen sollte. Natürlich ist es so, dass man als Webmaster oder Publisher seine Website auch anderen Firmen zur Verfügung stellen. Das kann sein, dass man für andere Firmen auch Inhalte veröffentlicht. Grundsätzlich ist es aber auch so, wenn man das macht, ist man als Webmaster trotzdem für die eigene Website verantwortlich. Wenn Google die Website anschaut und sieht, dass da insgesamt sind da gute Inhalte dabei, dann können wir sagen, die Website ist für sich gut, wir können damit gut umgehen. Wenn wir die Website anschauen und das sehen, wir haben für sich ein Mix von guten Inhalten und schlechteren Inhalten, dann wissen wir nicht genau, wie wir diese Website einstufen sollen. Und wenn die schlechteren Inhalten von anderen Leuten geschrieben werden, wo diese Inhalte herkommen, wir sehen einfach, die Inhalte sind nicht so wahnsinnig toll. Das heißt, wenn man zum Beispiel ein Blog hat und guestposts zulässt, dann ist es ja eigentlich auch ähnlich. Dann möchte man ja anfühle sich darauf achten, dass die Inhalte, die man veröffentlicht, dass die der Qualität entsprechend, was man sonst veröffentlicht würde. Von dem her ist es nicht so, dass wir sagen würden, man soll das so machen oder man kann das so machen, sondern es ist anfühle sich der Website überlassen, welche Inhalte sie veröffentlichten möchte. Und es geht ja auch ähnlich in dem Bereich, sag ich mal, White Labelsites, wo man zum Beispiel eine Cubone Subdomain und ein Unterverzeichnis noch dazu nimmt. Wenn man möchte, dass die Website dafür bekannt ist, dass sie so ein Mix von Inhalten hat, dass einige Sachen besonders gut sind und andere Sachen einfach nur eine Liste von Cubone sind, dann kann man da schon machen. Ob das längerfristig für die Website sinnvoll ist, weiß ich nicht. Vielleicht ist es kurzfristig sinnvoll und vielleicht ist es auch genug für die Websites. Von dem her ist es nicht so, dass wir da gezielt gegen weiter Verwendung von Websiten vorgehen würden, sonst ist wirklich den einzelnen Websites überlassen, wie sie das machen möchten, welche Inhalte sie veröffentlicht möchten, wie sie in den Suchergebnissen platziert werden möchten, also wie sie als sichtbar sind für welche Inhalte. In den Google for Jobs stellen Anzeigenwert bei unserem Kunden immer noch das falsche Logo angezeigt, obwohl in strukturierten Daten ein Logo hinterlegt ist und bei Wikimedia die Infos und Logos hinterlegt sind. Was kann man da tun? Weiß ich nicht. Am einfachsten ist es vielleicht, wenn du mir die Informationen mal zuschickst, dann kann ich das an das Team direkt weitergeben. Du kannst mir das zum Beispiel auf Twitter zuschicken oder sonst wie in einem Kommentar hier auf den YouTube Fragen, die da eingereicht sind. Dann kann ich das mit dem Team mal schauen, warum wir das schneller aufnehmen. Gerade bei den Logos ist es so, dass wir die Veränderungen eher langsam verarbeiten, weil sie sich in der Regel auch eher langsam verändern. Wenn man natürlich verschiedene Logos hat für verschiedene Bereiche, dann könnte ich mir schon vorstellen, dass unser System ein bisschen verwirrt werden. Oder wenn man die Logos kürzlich verändert hat, dann könnte ich mir vorstellen, dass wir die Logos aufnehmen. Aber es klingt fast so, als ob da schon länger bei euch drin ist und da würde ich gerne mal schauen, ob da irgendwie vielleicht was klemmt. Google scheint die Länge der Titels vor kurzem etwas eingekürzt zu haben. Welchen positiven Effekt verspricht ihr euch dadurch? Welchen positiven Effekt? Wir haben alle solche Veränderungen recht ausgiebig. Das heißt, einerseits mit diesen Quality Raters, andererseits, normalerweise werden gerade solche UI- Änderungen recht ausgiebig auch in den Suchergebnissen getestet. Das heißt, man nimmt eine Gruppe von vielleicht 0,1% der Benutzer und probiert diese UI-Variante erstmal aus. Und dann versucht man festzustellen, ob diese Veränderung jetzt eigentlich besser war oder schlechter war. Und so testen unsere Teams manchmal kleine Farbvariationen, manchmal kleine Schriftgrößenvariationen. Und ich nehme an, dass es jetzt da bezogen auf irgendeine Schriftgrößenveränderung oder ein Schriftgrößen-Test, der vielleicht mal stattgefunden hat. Und von dem her ist es nicht so, dass wir sagen, wir verändern jetzt diese Schriftgröße, weil wir irgendwas gezielt einfach ändern wollen, sondern wir versuchen, das effektiv zu testen mit Millionen von Benutzern und versuchen herauszufinden, ob das Sinn macht oder nicht. Und die meisten der Tests, die wir machen, die werden nie veröffentlicht. Die werden nie weitergezogen und effektiv umgesetzt. Es ist wirklich so, dass wir da nur die Sachen weiterführen, die wirklich auch sinnvoll sind oder zumindest sinnvoll waren. Und solche Sachen können sich auch immer wieder ändern. Das heißt, es kann durchaus sein, dass wir jetzt, sag ich mal, die Schriftgröße ein bisschen größer machen und dann ein paar Jahre später merken wir, eigentlich hat sich das Ecosystem so weit verändert, dass jetzt eine kleinere Schriftgröße wieder besser wäre. Je nachdem, welche Geräte vielleicht verwendet werden, dann gehen wir halt wieder in eine andere Richtung. Es ist nicht so, dass das dauerhaft so bleiben wird. Ich habe Product Pages mit dem Inspect URL Inspection Tool geprüft und angeblich konnten die Bilder wegen der Robots Text nicht gekraut werden. In Search Console ist noch voll solcher Meldung, aber dabei hat das betroffene CD an keine Robots Text, keine X-Robots Angaben. Kann es sein, dass wenn keine Robots Text vorhanden ist, dass es zu Crawling Problemen kommen kann? Nein. Wenn keine Robots Text vorhanden ist, dann sehen wir das an, als ob wir eigentlich alles Crawling können. Das heißt, es wird nicht begrenzt. Was hingegen ein bisschen verwirrend ist, ist gerade im URL Inspection Tool, wenn man da Bilddateien explizit aufruft, dann kommt da, glaube ich, so eine Meldung, dass diese Dateien nicht indexierbar ist. Ich bin nicht 100% sicher, es kann sein, dass es das mit Robots Text anzeigt. Und das ist nicht ein Problem, in dem Sinn, dass wir die Bilddateien nicht aufrufen können, sondern einfach, dass wir die Bilddateien so in der Websuche nicht zeigen würden. Das heißt, es ist keine Webseite und dementsprechend können wir die gar nicht groß weiterverarbeiten. Und ich glaube, intern wird das ähnlich wie ein Robots Text behandelt, damit diese Bilddateien einfach nicht in der normalen Websuche erscheinen. Die können natürlich trotzdem in der Bildersuche erscheinen, einfach nicht in der normalen Websuche. Im URL Inspection Tool ist das ein bisschen verwirrend in dem Sinne und da hoffe ich eigentlich, dass wir das mal hinkriegen, dass es ein bisschen klarer ist, dass wenn man nicht Webseiten aufruft, dass das keinen Sinn macht, mit diesem Tool das zu testen, weil die Sachen ja in der Websuche geeignet werden. Johannes, wenn du erlaubst, die Frage kam von mir. Ja. Was ich dort prüfe, sind wirklich eine HTML URL und zwar die URL, die die Artikel, also die die Product Detail Page besitzt und die Bilder, die er angeblich nicht crawlen kann wegen der Robots Text, sondern auf der Page. Okay. Und diese Ressourcen liegen auf einem klassischen CDN-Server und auf dem CDN-Server ist keine Robots Texte vorhanden. Die Bilder sind auch ganz normal im Google Index. Ab und an beschwert er sich nicht und ab und an beschwert er sich. Und das ist, wenn du manuell die Seiten testest? Ja. Gut, den Fall hatte ich jetzt noch nicht, weil ich nicht 100 Stück teste, sondern nur Stichprobenartig, ein paar Stück und da hatte ich nur den Fall, dass er sich immer beschwert hat. Okay. Und da steht dann effektiv per Robots Text gesperrt. Richtig. Okay. Schwierig zu sagen, ohne die URL genau anzuschauen. Was manchmal passiert ist, dass man die Bilder auf unterschiedlichen URLs hat oder dass die Bilder ein Art Redirect machen, um vor Sicherheitsproblemen zu schützen. Und wenn eins von diesen beiden passiert, dann kann es sein, dass da ein Robots Text Datei dazu kommt, die nicht direkt sichtbar ist. Oder wenn ich zum Beispiel ein Bild Datei habe, wenn ein oder andere weitergeleitet wird und dann erst das Bild darstellt, dann nehmen wir natürlich die Robots Text Dateien von diesen beiden, also vom Ursprungsurall und vom Zielurall. Und wenn wir beim Zielurall per Robots Text blockiert werden, dann nehmen wir an, dass der ganze Request per Robots Text blockiert ist. Je nachdem, wie die Bilder jetzt bei euch eingebunden sind und wie diese CDNs konfiguriert sind, es könnte sein, dass so etwas passiert. Aber schwierig zu sagen, ob das effektiv der Fall ist und wenn die Bilder normal in der Bildersuche indexiert sind, dann denke ich, macht das auch kein Unterschied. Also es ist nicht unbedingt etwas, was man jetzt als kritisches Problem anschauen würde, weil wir möchten natürlich schon die Bilder für das Rendering auch anschauen können, aber es ist nicht so, dass die Bilder kritisch sind für das Rendering. Das heißt, wenn die Seite normal gerendert werden können, ohne dass die Bilder geladen werden, dann ist das für die Web-Suche total okay. Für die Bildersuche müssen wir natürlich die Bilder auch crawlen können. Okay, danke schön. Ich schaue mir das nochmal wegen Stichwort redirect an und kann ja als Kommentar die Antwort dann platzieren. Super, danke. Unsere Kunde möchte missen, wie er mit seiner international ausgerichteten Website unter tld.com hinsichtlich Google Search Console am besten Verfahrensaal für die Ausrichtung auf Länder und Sprachen in New Yorks benutzt erfolgendes Schema Domain.com, global, EEN oder Domain.com, United Kingdom, EEN usw. Also nicht die ISO-Länder-Codes. Aktuell hat er die Ausrichtung auf UK und FR auf eine Search Console Property eingelegt, so wie ich dich beim letzten Hänger verstanden habe, ist das aber nur dann notwendig, wenn CCTLDs verwendet werden. Das ist eigentlich umgekehrt. Das heißt, so wie das jetzt da eingerichtet ist, klingt eigentlich okay. Das heißt, bei CCTLDs, das sind ja die länderspezifischen top-level Domains, da wissen wir ja schon genau, welches Land dafür zuständig ist. Bei Punkt.com oder allgemein bei generischen top-level Domains wissen wir die Länderzuordnung nicht. Und wenn man das auf einer Unterverzeichnissebene machen möchte, dann kann man die einzelnen Unterverzeichnisse bei Search Console anlegen und mit den, ich weiß nicht, internationalen Ausrichtungseinstellungen in Search Console kann man dann die Länderzuordnung angeben pro Unterverzeichnis. Das heißt, man muss die einzelnen Länderverzeichnisse jeweils verifizieren und dann kann man das dort einstellen. Die Sprachvarianten muss man nicht separat einrichten. Die Einstellung in Search Console ist auf Länderebene. Wir haben ein großes Problem mit Hintergrundsgeräusch. Wir haben ein großes Problem mit Spam Links in der Search Console. Man erkennt unter all den Spam Links kaum noch die Echten. Kann man damit mit dem Disavow Tool aufräumen. Häufig werden unsere Bilder mit einem Link auf uns eingebettet. Viele Spam Seiten kann man aber auch gar nicht untersuchen, da sie echte Besucher blockieren. Haben Probleme im Ranking zu befürchten. Normalerweise hat man da keine Probleme im Ranking. Die meisten dieser Spam Sites die kennen wir eh bzw. haben unsere Algorithmen untersucht und die Links von dort aus die ignorieren wir auch. Mit dem Disavow Tool kann man gezielt sagen, wenn man Links hat, wo man das Gefühl hat vielleicht versteht Google das falsch oder vielleicht versteht nicht Google wie das gemeint war oder vielleicht ist das eine ältere Sache die man nicht mehr aufräumen kann. Dann kann man mit der Disavow Datei arbeiten. Die Sachen die in der Disavow Datei gemacht werden, die werden trotzdem in Links und Search Console dargestellt. Das heißt, wenn ich die größte Menge der Links vom Links Report in der Disavow Datei habe, dann bleibt diese Liste in Links Report weiterhin. Ähnlich ist das mit No Follow Links. No Follow Links werden auch in Links Report in Search Console dargestellt. Aufräumen kann man da eigentlich nur in dem, dass man die Links vom Internet ganz entfernen lässt. In den meisten Fällen ist es ja so, dass man wilde spammige Links einfach automatisch kriegt und dann kann man ja nicht unbedingt aufräumen und dann muss man da einfach irgendwie selber ignorieren. Was man natürlich machen kann, ist, dass man die Listen vom Links Report jeweils herunterlädt und dass man da, sage ich mal, die Sachen selber rausfiltert, die man nicht unbedingt braucht. Die neuerliche Ankündigung im Webmaster Essential Blog über die Review Rich Snippets werft einige Fragen beziehungsweise Unklarheiten bezüglich der Anzeige von verschiedenen Systemen bezüglich der Bewertungssterne Suchergebnissen aus. Was konkret was bedeutet das konkret für diese verschiedenen gesammelten Bewertungen? Ja, also die Veränderung bezieht sich in erster Linie, also sind ich glaube zwei oder drei Veränderungen, die da zusammengekommen sind, aber das, worauf ihr hier infrage, das ist in erster Linie bezieht sich das darauf, dass man Bewertungen für die eigene Organisation nicht auf der eigenen Webseite haben sollte. Beziehungsweise, dass sie einfach nicht dargestellt werden in den Suchergebnissen, wenn das der Fall ist. Es ist nicht so, dass wir das als ein Problem anschauen würden. Ihr könnt das weiterhin so machen, wenn ihr denkt, dass es Sinn macht für eure Benutzer. Wir zeigen einfach diese Bewertungssterne in den Suchergebnissen dann nicht an. Und dabei ist es egal, ob man die Bewertungen selber sammelt und einbindet in direkt eine HTML-Seite oder ob man irgendein Widget nimmt oder irgendein Script, um die Sterne zusammen zu fassen und die einzubinden auf der eigenen Seite. Einfach im Allgemeinen Fall, wenn man Bewertungen hat über die eigene Organisation, ob das jetzt ein Local Business ist oder eine andere Art von Organisation, die bei schema.org unter Organisation fällt. Wenn man solche Bewertungen hat und die auf der eigenen Webseite hat, dann zeigen wir die einfach nicht an. Eben, wie gesagt, man kann das weiterhin verwenden. Es ist nicht so, dass wir sagen, diese Bewertungssysteme sind schlecht oder dass man den nicht trauen sollte. Es ist einfach so, dass wir sie nicht darstellen in den Suchergebnissen. Und da waren auf die Frage, ob es da möglicherweise Ausnahmen gibt für Google Partner und was. Und aus unserer Sicht versuchen wir solche Anpassungen jeweils neutral zu machen. Das heißt, dass wir da nicht spezielle Ausnahmen machen für eigenen Google-Produkte. Ich weiß, auf der Erdseite haben sie ein bisschen andere Richtlinien, aber in der normalen organischen Google-Suche ist es an und für sich durchgehend so. Es ist zum Beispiel in anderen Bereichen ähnlich. Wenn man verschiedene Google-Produkte einbindet auf den Seiten und die Seiten werden langsam, dann machen wir da auch keine Ausnahme und sagen, Webseiten müssen schnell sein, außer wenn sie Google-Produkte verwenden, sondern wenn eure Seiten langsam sind aufgrund vom Einbinden von verschiedenen Google-Produkten, dann sind die Webseiten langsam. Dann machen wir da nicht spezielle Ausnahmen, nur weil ihr Google-Produkte findet, die sie langsam machen. Du, John, seit wann ist denn das so eigentlich? Ich habe jetzt gerade nicht so ganz zugehört. Ist das jetzt seit einer Woche erst, dass die Sterne nicht mehr angezeigt werden? Ich glaube, wir haben das größte Ordnung vor einer Woche veröffentlicht und die Veränderungen da sind, ich glaube immer noch fortlaufend, dass das weiterhin ausgerollt wird. Ja, ich sehe gerade, ich habe mich weg jetzt nicht nur bei mir auch bei der Konkurrenz, ich musste das natürlich auch machen mit dem Local Business, weil die Konkurrenz das auch gemacht hat. Also ging gar nicht anders, aber es ist eine gute Entscheidung, weil es waren echt zu viele Sterne. Man hat ja nur noch Sterne gesehen in der Suche, aber ich sehe das gerade. Also Produktsterne kommen aber noch mehr für das Projekt. Genau. Dann eine Frage relativ lange Frage. Ich habe das bei euch mal kurz kontrolliert vorher zum Schauen, was da klingt. Also grundsätzlich ist die Frage, dass man da ein Sitemap Index Datei hat und das sind verschiedene andere Sitemaps darunter und einige dieser Sitemaps wurden nicht separat aufgeführt, glaube ich, in Search Console beziehungsweise man sieht sie nicht als Covered Report. Es ist so, dass wenn man nur ein Sitemap Index eingeführt hat bei Search Console, dann zeigen wir nur die Sitemap Index Datei in Index Covered Report. Wenn einzelne Sitemaps separat eingeführt werden, dann zeigen wir die auch. Wenn man natürlich einzelne eingeführt hat und andere nicht, dann sieht man nur diesen Teil. Das ist mal die eine Sache. Ich habe auch gesehen bei den Sitemap Dateien, wie ihr sie einreicht, ist ein bisschen suboptimal. Das heißt, in der Sitemap Index Datei sieht es aus, als ob die alle Sitemaps kürzlich alle verändert worden sind. Das deutet ein bisschen darauf hin, dass ihr irgendein Skript verwendet, um die Sitemap Dateien automatisch zu erstellen und dass ihr da automatisch immer das neueste Veränderungsdatum nimmt in der Sitemap Datei, hingegen sollte das Veränderungsdatum eigentlich dementsprechend, was in der Sitemap Datei drin ist. Das heißt, wenn einzelne Seiten in einer Sitemap Datei verändert worden sind, dann sollte diese Datum dementsprechend nicht dem erstellen der Datei selber. Das ist mal die eine Sache. In den Sitemap Dateien bei euch ist es so, dass ihr die URL angibt, aber kein Veränderungsdatum. Das heißt, ihr gibt glaube ich nur an, dass alle Dateien sich täglich verändern, aber ihr habt kein Datum pro einzelne Seite. Das macht es für uns dann schwierig zu erkennen, wann wir diese Seiten neu crawlen müssen. Das heißt, wenn ihr da irgendwie die Möglichkeit habt, das Veränderungsdatum hineinzunehmen, das Last Modification Date anstelle von der Frequenz oder Priorität, wenn ihr das dabei habt. Mit dem Veränderungsdatum können wir viel mehr anfangen, als wenn ihr sagt, es verändert sich einfach alles täglich. Das ist mal die eine Sache. Das andere, was ich gesehen habe, ist, dass da irgendetwas klemmt mit euren Sitemap Dateien. Seit, sag ich mal, Juli habt ihr da geschrieben. Ich habe gesehen, dass bei uns da irgendwas tatsächlich klemmt. Und ich leite das mal an der Sitemap Team noch weiter, damit sie da schauen können, wie man das sehen kann, dass das da ein bisschen besser funktioniert. Aber die anderen Sachen würde ich trotzdem mal anschauen auf eurer Seite. Das eine mit der Sitemap Index Dateien, dass das Datum da richtig ist. Und das andere, das in den Sitemap Dateien selber, dass ihr da auch jeweils pro URL ein Datum dabei habt. Und das sollte auch nicht einfach quasi das Datum vom neu erstellender HTML-Seite sein, sondern es sollte wirklich bezogen auf das Hauptinhaltsstück von dieser Seite. Das heißt, wenn ihr Produkte verkauft und es verändert sich irgendetwas mit diesem Produkt, dann macht es Sinn das Datum zu verändern. Wenn hingegen ihr einfach diese Seite, sag ich mal, dynamisch erstellt und jedes Mal wenn jemand die aufmacht, dann wird die neu quasi generiert, dann muss man das nicht als Änderungsdatum einschließen, weil das ist ja dann nicht etwas, was Google neu crawlen muss. Warum könnt ihr ein Disallow nicht auch noch als New Index haben? Ja, warum? Das sind sag ich mal ältere Policy-Sachen, die schon seit langer Zeit so sind. Meines Wissens sind da immer wieder Diskussionen mit dem Team, dass wir da versuchen, dass er in diese Richtung zu gehen. Das heißt, wenn wir das Gefühl haben, dass diese Seiten wirklich keinen Wert bringen, wir können sie ja nicht crawlen, aber Sie sehen, dass zum Beispiel wirklich wenig Links auf diese Seiten verweisen, dann muss man die ja gar nicht erst indexieren. In meisten Fällen ist das sowieso unproblematisch, in dem Sinne, dass wenn eine URL ein Link, sag ich mal, intern hat und die per Robots Text blockiert ist, dann würden wir die ja nicht vorschlagen in den normalen Suchergebnissen. Das heißt, wenn jemand nach einem Produkt von euch sucht, dann habt ihr male Seiten bei euch im Shop, die, oder auf der Website, die zu diesem Produkt passen und dann würden wir nicht vorschlagen, dass eine URL, die per Robots Text blockiert ist, irgendwie relevant sein könnte. Wenn man hingegen eine Site-Abfrage macht und gezielt nach diesen blockierten URLs sucht, dann kann man die unter Umschänden finden. Von dem her ist es etwas, was vielleicht mal SEOs manchmal sehen und denken, das muss ich aufräumen. Zum Praktischen her ist es aber nicht etwas, was wirklich sichtbar ist. Und eines der Gründe, warum wir das überhaupt so am Anfang gemacht haben, ist, dass einige Websites blockieren Sachen per Robots Text, die sie eigentlich schon indexiert haben möchten, wo sie einfach nicht wollen, dass Google diese Seiten crawled. Manchmal sind das Inhalte, die einfach sehr aufwendig sind zum Erstellen, oder manchmal sind das Einhalte, die aus irgendeinem Grund vielleicht absichtlich oder unabsichtlich per Robots Text blockiert werden, die aber trotzdem sehr wichtig sind für den normalen Benutzer. Ich weiß zum Beispiel unsere AdWords Homepage, die war lange Zeit per Robots Text blockiert, weil wir nicht wollten, dass da irgendwie die Crawlers sich da einlocken oder versuchen, diese Login- Seite zu holen, aber Benutzer suchen natürlich nach dieser AdWords Seite und dann haben wir die auch gezeigt, obwohl die per Robots Text blockiert waren. Dann in the property brand description, also das ist gleich bei schema.org Daten werden HTML-Formatierungen ausgegeben, das findet aufgrund des vorgefertigten Templates statt und dann noch ein Beispiel, Frage Escaped Google das oder führt das zum ignorieren der Beschreibung. Ich weiß nicht genau, wo das dargestellt werden würde, das heißt, ich hab den normalen Websuche, ist es ja so, dass wir das sowieso nicht so zeigen würden. Von dem her würde ich da mal überlegen wofür ihr das eingebunden habt und wie das dort sichtbar wäre. Meines Wissens ist das etwas, was wir eigentlich nicht direkt in der Suche zeigen, von dem her ist es wahrscheinlich egal, ob ihr da noch HTML dabei habt oder nicht. Ist das Good Relations Markup Gültig und wird von Google interpretiert. Ich musste da erstmal ein bisschen nachforschen mit diese Frage. Good Relations ist eine Art von RDFA Markup. Großer Teil davon ist sehr ähnlich wie das von schema.org und die Sachen, die für sich gleich sind, die können werden, Sachen, die nicht passend sind, so schema.org oder die allgemein nicht so den strukturierten Datenpassen, die wir benötigen, die werden aus unserer Seite ignoriert. Wir empfehlen ja an für sich jetzt auch die JSON-LD Variante von schema.org zu verwenden und ich weiß nicht, ob es da überhaupt etwas Ähnliches gibt von Good Relations. Aber eben normalerweise kann man die Sachen auch einfach in einem Texting-Tool kurz anschauen, dann sieht man es relativ schnell, wird das erkannt oder wird es nicht mehr erkannt. Wir kategorisieren auf unserer Webseite zwei verschiedenen Seitentypen, Content und Videoseiten. Zur Zeit kommt es vor, dass ein Keyword sowohl auf einer Content-Seite als auch auf einer Videoseite als Fokus behandelt wird. Das hat bei uns zu massiven Schwankungen in den Rankings geführt, weshalb wir in solchen Fällen das Video auf die Content-Seite haben. Was kann man da am besten machen? Grundsätzlich kann man das durchaus so machen, dass man zwei verschiedene Seiten zu einem Thema hat. Es ist nicht unbedingt so, dass wir das als negativ anschauen würden. Was dann einfach der Fall ist, ist, dass ihr halt gegeneinander konkurrenziert und wenn die Webseite sowieso relativ stark dasteht, dann ist es vielleicht weniger kritisch. Wenn man in starken Konkurrenzsituationen dasteht mit vielen anderen Webseiten, die auch sehr gute Inhalte hat, dann möchte man wahrscheinlich eher eine starke Seite haben statt zwei mittelmäßige Seiten. Der Vorteil von einer eigenen Videoseite ist, dass wir die anschauen können und ganz klar erkennen können, dass es eine Videoseite ist. Das ist eine klare Video-Play-Page für die ganz normalen Video-Suchergebnisse und auch zeigen können. Das macht unterm Ständensinn. Wenn das Video innerhalb einer längeren Seite ist, dann ist es für uns ein bisschen unklar, ob das jetzt eine Videolanding-Page ist oder nicht. Und dann kann es sein, dass wir das als Videolanding-Page anschauen mit einem Videosnippet. Es kann auch sein, dass wir das ohne Videosnippet darstellen in den Suchergebnissen. Und je nachdem welche Art von Inhalte man hat, möchte man vielleicht mit Video oder ohne Video gesehen werden. Das heißt, mit einem Video kommen Benutzer natürlich eher und erwarten ein Video und wollen das Video anschauen. Wenn kein Videosnippet dabei ist, kommen sie vielleicht eher und erwarten einen klaren Text, den sie durchlesen können. Von dem her hängt das ein bisschen davon ab, was ihr effektiv haben wollt. Es sind das Themen, die Benutzer anzieht, weil ihr ein gutes Video dazu habt. Oder sind das Themen, wo Benutzer eher ein Text erwarten. Und je nachdem kann man das dann natürlich auch ein bisschen steuern, dass man sagt, gut, ich nehme das Video separat raus. Dann kann die Videolanding-Page für solche direkt ranken, die nach dem Video suchen. Und meine Textseite ist für sich ganz klar eine normale Textseite. Oder man nimmt das zusammen und sagt, genau, wonach Benutzer suchen würden. Wir schauen mal, wie das klappt. Das sind für sich die beiden Varianten, die man da machen kann. Es ist nicht so, dass es ein oder andere besser ist. Es ist auch nicht so, dass das ein oder andere zu Rankingschwankungen führen wird. Das heißt, ich vermute, dass die Rankingschwankungen, die ihr da gesehen habt, sind eigentlich ganz normale Rankingschwankungen. Das heißt, ich habe mich bezogen auf welche Inhalte, wo vorhanden sind. Dann bezüglich den neuen Snippet-Einstellungen, Hintergründe zu den Änderungen bei der Snippet-Auszeichnung, zum Beispiel für Max Snippet. In welchen Fällen ratet ihr zu Änderungen? Grundsätzlich sind das Sachen, die ihr machen könnt. Das müsst ihr das machen. Ich denke gerade, wenn man als European Press Publisher angesehen wird, wenn man ein Website hat, die in diese Kategorie hineinfällt, dann sollte man sich schon überlegen, wie möchte man vorgehen? Möchte man, dass man bei einzelnen Seiten ein Textnippet dabei hat? Möchte man einen beschränkten Textnippet haben? Möchte man ein Bild-Preview dabei haben oder nicht? Wie möchte man das mit Videos handhaben? Da kann man sich das überlegen. Ich denke, was interessant ist mit den Mattertags, ist, dass man das pro Seite separat auch einstellen kann. Das heißt, man kann das auch erst mal austesten mit verschiedenen Seiten mit unterschiedlichen Einstellungen und dann ein bisschen selber überlegen, macht das für mich Sinn oder macht das nicht für mich Sinn? Was wir ja auch manchmal hören, ist, dass es nicht gerne haben, wenn im Snip zu viel steht, weil dann Gehen-Benutzer vielleicht nicht auf die Seite selber und so kann man das ein bisschen steuern und sagen, das ist die maximale Länge, das ist für mich okay und kann man auch mal ausprobieren, wie sich das entsprechend auswirkt auf den Traffic zur eigenen Website. Vom Ranking her verändert das überhaupt nichts. Es ist nur so, dass einzelne Elemente in den Suchergebnis-Seiten die brauchen manchmal gewisse Vorbedingungen. Das heißt, zum Beispiel, wenn ich Recipe-Markup habe, dann können wir die als Rezept darstellen in den Suchergebnissen. Wenn man diesen Markup nicht hat, dann können wir die nicht als Rezept darstellen in den Suchergebnissen. Das ist ein bisschen das, wo man sich auch überlegen muss, wie möchte ich sichtbar sein in den Suchergebnissen. Das Coole ist auch das mit dem Datano-Snippet, wo man bestimmte Teile der Seite auch angeben kann und sagen kann, dieser Teil meiner Seite möchte ich nicht, dass das im Snippet dargestellt wird. Das geht noch eine Weile, bis das aktiv ist, aber das könnte ich mir schon vorstellen, dass es für einer oder andere auch interessant sein wird. Zwei Fragen. Im Oktober sollen die meisten News Publisher in der Schweiz ein Loginpflicht für das Lesen einführen. Ok, das habe ich nicht gewusst. Inwiefern kann beim Mobile ein solcher Overlay als Interstitial interpretiert werden und eventuell zu einer Penalty führen? Das klingt schon mal sehr spannend. Ich weiß nicht, wie das effektiv umgesetzt wird. Von dem her ist schwierig für mich zu sagen, wie das quasi interpretiert wird auf unserer Seite. Also zu einem Penalty wird das wahrscheinlich nicht führen, also Penalty als manuelle Maßnahme, weil es ist ja nicht Web Spam. Ich könnte mir höchstens vorstellen, dass je nachdem, wie das implementiert wird, dass es einfach schwieriger ist, die Inhalte effektiv zu sehen und dass wir die Inhalte dann gar nicht mehr indexieren können. Und wenn wir die Inhalte nicht mehr indexieren können, dann haben wir keine Inhalte zum indexieren und dann ist es für uns vom Ranking das heißt manuelle Maßnahmen, Penalties, könnte ich mir vorstellen, dass das nicht ein Thema ist, sondern dass es wirklich einfach um quasi die technische Umsetzung dass es da dann schwierig sein wird. Wenn einer von euch mehr zu diesem Thema weiß, würde ich da gerne von euch hören. Klingt wie eine aufregende Zeit. Die zweite Frage, wir sehen in Search Console Coverage Report, eine hohe Anzahl an Software 04. Wenn man diese einzeln testet, findet man heraus, dass URLs vollkommen in Ordnung sind und sogar indexiert werden, wenn man ein Indexierungs- Orkest macht. Handelt es sich um solchen Fällen um ein Report Bug. Bug, vielleicht, vielleicht oder nicht, schwierig zu sagen, im Report sollte das eigentlich kein Problem sein, weil da werden effektiv die Sachen dargestellt, die wir aus Software 04 sind. Es kann sein, dass wir gewisse Seiten aus Software 04 anschauen, die nicht eine 404 Seite sind. Das ist dann, sag ich mal, eher einfach das vom Indexierung her ein Problem. Wenn ihr das in einer größeren Menge sieht, dann würde ich das gerne auch mal anschauen, damit ich das etwas mit der Software 04 Erkennung besser optimieren kann. Manchmal ist es so, dass wir Elemente auf einer Seite als Fehler-Meldung anschauen und dass wir nicht sicher sind, ob da effektiv normale Inhalte noch dabei sind. Wenn man zum Beispiel einen Temporären Server Fehler hatte und überall kommt jetzt ein JavaScript-Fehler oder ein PHP-Fehler direkt auf der Seite dazu, dann könnte ich mir vorstellen, dass wir das unter Umständen als Software 04 einstufen würden, wenn wir die Inhalte gar nicht mal sehen können. Und wenn man das später nochmal testet, dann geht das natürlich unproblematisch durch. Aber es klingt so, als ob das bei dir zumindest jetzt nicht der Fall ist, und da würde ich auch gerne ein bisschen mehr dazu hören. Zeitlich sind wir knapp am Ende und sind immer noch recht viele Fragen da. Mal kurz schauen. Oder vielleicht machen wir es so, wenn einer von euch noch eine Frage hat, einen Kommentar legt es uns einfach los. Ja, ich hätte da noch was. Okay. Und zwar habe ich gelesen auf Twitter, dass es ein September-Core-Update gab. Vor zwei Tagen soll das wohl ausgerollt worden sein. Vielleicht auch nur in Staaten. Kannst du ein bisschen was erzählen mit der Zielgruppe Absicht, irgendwie so ein bisschen Insider-Information, vielleicht zum Core-Update zum neuen? Insider-Information. Ich habe da eigentlich nicht ein groß Insider-Information. Normalerweise ist es so, dass solche Updates gehen nicht gezielt auf bestimmte Bereiche oder Sprachen oder Länder aus, sondern das sind eher allgemeine Algorithmusupdates, die wir machen. Das ist nicht wahnsinnig viel, was man dazu sagen kann. Ja, leider. Ich denke auch in diesem Fall ist es ein bisschen unglücklich, weil gerade gleichzeitig die ganzen Snippet-Sachen noch rausgekommen sind, aber es arbeiten aber viele Teams parallel an der Suche. Kannst du mal eine Frage vielleicht noch mal eben anschauen? Die habe ich auch in die Kommentare gesetzt. Die Frage mit den gleichen Links, Bild und Text auf Kategorien Seiten zu Produktseiten. Rein logisch betrachtet ist die Wahrscheinlichkeit höher zu den Produkten zu gelangen oder nicht. Ich denke, da hat man keinen Vorteil. Wir sehen das aus einem Link an. Wir können die Anchor-Text zusammen verstehen, wenn da unterschiedliche Anchor-Texts sind. Das ist das, was ich finde, ein Link von einer Seite auf der Webseite zu einer anderen. Also nicht, dass man da große Vorteile hätte oder Nachteile. Okay, danke. Ich hätte noch eine Frage. Okay. Und zwar gesehen wir uns in News bei der Zeitabfrage, während die Snippet-Texte nicht mit ausgeliefert. Teilweise sehen wir das Links wie Privacy-Center oder ähnliches von Scheinbewerbepartnern damit ausgespielt werden, die da eigentlich gar keinen Sinn machen. Oder es kommt gar nichts. Description werden in den Metadaten mitgeliefert. Strukturierte Daten sind auch vorhanden und funktionieren. Zumindest wenn man sich den entsprechenden Google-Tools vertraut. Was können wir tun? Normalerweise deutet das darauf hin, dass wir die Seiten nicht sauber lesen können. Was ich da vielleicht an erster Stelle mal kontrollieren würde, ist ob der Titel jeweils stimmt oder ob der Titel auch falsch ist oder vielleicht nur die URL vorhanden ist. Wenn der Titel stimmt, dann können wir zumindest den Titel herauslesen, dann ist es eher eine Frage, dass wir die Inhalte der Seite nicht sauber lesen konnten. Wenn das nur bei News ist oder bei sehr neuen Inhalten, dann würde ich mal überprüfen, ob von JavaScript her vielleicht irgendetwas noch dazwischenfunkt, wenn die Seite zum Beispiel mit dem JavaScript-Famework erstellt wird und vom Rendering her, dass nicht so optimal klappt, dass wir das sauber und rechtzeitig genug rendern können. Dann könnte es unter Umständen so sein, dass wir da den Titel haben von der HTML-Version und einfach die Inhalte gar nicht richtig lesen können. Wenn die später vorhanden sind in der Suche, dann deutet das schon eher in die Richtung hin, dass wir einfach mit dem Rendering wenn wir die Seite schnell anschauen müssen für News, dass wir da nicht richtig durchkommen und dass wenn wir die ein bisschen gemütlicher anschauen können für die normale Websuche, dann kann man die dann doch renderen, dann können wir da die Inhalte lesen. Wenn all das bei dir nicht zutreffen sollte, würde ich dir auch gerne die URLs mal sehen, damit ich das mit dem Team anschauen kann um festzustellen, was da genau passiert. Am optimalsten einfach mit dem Screenshot und mit gewissen Suchen, wo du das gezielt auch darstellen kannst. Also das siehst du im Grunde, wenn du eingibst site-doppelpunkt zum Beispiel express.de in News, dann siehst du das eigentlich sofort, es betrifft also in News sämtliche URLs, die ausgespielt werden. Okay. Gut. Nicht ganz alle, aber ja. Da wo es ausgespielt wird, da siehst du halt teilweise so komische URLs, die quasi in der Beschreibung mit reinkommen, die da offensichtlich nichts zu suchen haben. Okay. Kopie ich das mir kurz noch, damit ich das habe. Okay. Dann noch kurze Frage, glaube ich, im Chat. Es zeigen sich in der Zeitabfrage eine unterschiedliche Anzahl von Seiten für die Abfrage von M-Punkt oder WWW-Seiten, bei normalen Suchabfragen zeigen sich aber nur die M-Punkt-Ergebnisse, woher kommen diese Unterschiede. Ich vermute, das ist eine Website, die die gerade mobile URLs hat, wenn man ja M-Punkt-Ergebnisse hat und die jetzt neu auf Mobile First Indexing umgestellt ist oder umgestellt wurde. Und was mit Mobile First Indexing passiert, ist, dass wir als Canonical die M-Punkt-Variante nehmen und wir versuchen die Verbindung zur WWW-Variante trotzdem zu erkennen, sodass wir in den Desktop Suchergebnissen die WWW-Variante bringen können. In vielen Fällen klappt das nicht immer und dass wir dann trotzdem die M-Punkt-Variante als Canonical anschauen. Und wenn man da gezielt nach dem Sucht, dann sieht man manchmal solche Unterschiede. Wenn man auf der eigenen Website die redirects eingerichtet hat, dass Desktop- Benutzer immer zur Desktop-Variante kommen, Mobile-Benutzer zur Mobile-Variante, dann spielt das eigentlich nicht groß eine Rolle. Das heißt, wenn jemand auf Desktop ist und die M-Punkt-Variante anklickt, dann kommt man ja trotzdem noch zur WWW-Variante. Dann noch eine Frage zu Side-Search bezüglich der Anzahlergebnissen, die da gezeigt werden. Das ist effektiv so, wenn ich eine Side-Abfrage mache, dann würde ich nicht die Anzahl nehmen, die da oben dargestellt wird für irgendwelche diagnostische Dinge. Das heißt, nicht denken, dass das jetzt effektiv die Anzahl indexierter URLs ist, sondern das ist wirklich etwas, was auf Geschwindigkeit optimiert ist und das gibt dann manchmal eine sehr grobe Schätzung. Ich habe schon Fälle gesehen, wo das hundertfach in die eine oder andere Richtung irgendwie unterschiedlich ist. Von dem her sieht man, grob ist das sehr viel oder ist das sehr wenig, aber ich würde das nicht ja etwas nehmen, um da quasi daraus Pläne zu machen oder zu sagen, wir haben jetzt mehr indexiert, wir haben das gut hingekriegt, sondern für solche Sachen würde ich immer Search Console direkt verwenden. Okay, machen wir vielleicht hier mal Pause. Vielen Dank, dass ihr alle gekommen seid. Vielen Dank für die vielen Fragen. Die Sachen, die noch übrig geblieben sind, könnt ihr gerne noch einen Hangout, wenn das wiederkommt oder natürlich einfach in die Hilfeform dazukommen oder auf Twitter, auf den natürlich auch gerne fragen und dann versuchen wir da auch noch Lösungen hinzukriegen. Okay, dann wünsche ich euch noch einen schönen Nachmittag und bis zum nächsten Mal. Tschüss allerseits.