 Okay, herzlich willkommen beim heutigen Webmaster Essentials Sprechstunden Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Trends Analyst bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster Hangouts, wo jeder dazukommen kann und seine Fragen rund um seine Website und um die Google Suche stellen kann. Sind schon wahnsinnig viele Fragen eingereicht worden auf YouTube. Ich denke, da geht es viel zu tun. Aber wenn einer von euch anfangen möchte, seid ihr gerne dazu eingeladen. Ich würde direkt gerne starten wollen. Es geht um diese FAQ Markups. Also in der Community, in diesem Chat hast du wahrscheinlich schon gesehen, dass sich sehr viele auch beschweren, dass die Markups jetzt wechseln. Also bzw. die Rich Results jetzt auch weg sind. Woran könnte das liegen? Also ich vermute mal, dass die Implantation gleichgeblieben ist auf eurem Website, dass ihr da nicht groß etwas verändert habt, oder? Genau. Also ich? Du nicht, okay. Was ich einfach gesehen habe, ist, dass wir immer mehr von diesen FAQ Markups gezeigt haben in den Suchergebnissen. Und teilweise schon extrem viel. Weil jeder das irgendwie cool fand, noch mehr Platz zu haben in den Suchergebnissen. Und ich vermute, dass das Team einfach da ein bisschen stricter geworden ist und gesagt hat, gut, wir müssen schauen, dass es wirklich auch qualitativ hochstehende FAQs sind, dass sie entsprechend den ganzen, ich denke, Ideen hinter diesem Markup in den Suchergebnissen auch verwendet werden. Und von dem her könnte ich mir schon vorstellen, dass da, je nachdem einige Websites die gar nicht mehr haben oder dass es da einfach weniger sichtbar ist bei anderen Websites oder bei bestimmten Seiten, halt nur, das sind, normalerweise sind das so die üblichen Weiterentwicklungen von diesen Rich Results, dass sie erst mal implementiert werden, dann probiert man sie aus und dann denken alle, oh, die sind toll und alle verwenden die und die werden dann überall dargestellt und irgendwann denkt das Team gut, wir müssen aufpassen für das wir da nicht zu stark übertreiben und müssen das ein bisschen zurückschrauben. Okay, also habt ihr da so eine gewisse Qualitätsvorgabe praktisch für die Seite bis dann diese Rich Results auch angezeigt werden? Also ich meine, es ist jetzt von dem FAQ Markup, das ist bei mir verschworen. Ich könnte jetzt theoretisch wieder umschwenken auf diese Produktmarkups, also mit den Preisen. Jetzt ist es halt so, dass wir ja diese, wir verkaufen Flaggen und bei uns habe ich jetzt eine Kategoriesite für zum Beispiel die Frankreich Flagge und es sieht aus, wie eine Kategoriesite ist aber eigentlich ein Produkt. Jetzt gibt es ja dieses Aggregate Produktmarkup, wo man den Preis setzen kann von bis und die Sterne halt auch noch dazu und meinst du, das würde dann bei mir auch klappen? Also eigentlich spricht es ja gegen die Richtlinie, weil dieses Aggregate Markup ist ja nur für zum Beispiel die Idee, wo dann verschiedene Händler das gleiche Produkt anbieten. Ja, wobei Produktvarianten könnte ich mir schon vorstellen, dass es auch auch in dem Sinne wäre, wenn das quasi verschiedene Größen sind. Dann sind ja manchmal auch unterschiedliche Preise, auch wenn das gleich mal Kleider sind oder so, dann kann es ja sein, dass wenn man mehr Stoff braucht, dass es ein bisschen teuer ist für die großen Größen und die anderen Größen vielleicht ein bisschen günstiger, könnte ich mir schon vorstellen oder dass das vielleicht bestimmte Arten von der Verarbeitung her einfach ein bisschen anders sind, aber eigentlich ist es das gleiche Produkt. Von dem her, wenn das quasi die gleiche Flagge ist, einfach in verschiedenen Größen, sehe ich da eigentlich keinen Grund, warum das nicht funktionieren sollte, aber bezüglich ob das funktioniert oder nicht, ist natürlich schwierig zu sagen, weil ich denke, also ich weiß dann nicht im Detail, was jetzt mit dem FAQ Markup gemacht worden ist, aber ich habe von einigen Websites gesehen, dass das sich ganz verschwunden ist, bei anderen habe ich gesehen, dass sie nur auf einzelne Seiten oder einzelnen Varianten der Website vorhanden sind und da würde ich meinen, dass unsere Systeme einfach ein bisschen genauer schauen, macht es Sinn, da jetzt ein FAQ zu zeigen oder macht es da weniger Sinn? Das heißt, ich vermute, dass es weniger die ganze Website ist jetzt nicht mehr geeignet für FAQs, sondern es ist wirklich auch eher auf Seitenhänden. Ja, also bei mir ist es komplett weg, aber gut, ich könnte schwänken auf das Produkt Markup, um dann zu wenigstens ein paar Sterne und die Preise zu zeigen. Ich meine, das FAQ war besser, weil man dann direkte Lieferzeiten sehen konnte und war natürlich auch größer von der, also mehr Platz in der Suche, aber ich kann schon verstehen, dass wenn jetzt alle dieses FAQ nutzen, dass ihr dann direkt eine Doppel solange Seite habt und ja, ist in Ordnung, ja, okay, ja. Also ich würde es einfach mal ausprobieren, weil gerade mit den Rich Results ist es ja so, dass es relativ schnell auch anspricht, wenn man die Art von Einbindung verändert und wahrscheinlich sieht man, dass es dann relativ schnell für einzelne Testseiten, ob das klappt, ob das dargestellt wird und wenn ja, dann kann man immer noch überlegen, wie kann ich das so gestalten, dass es effektiv wirklich sinnvoll für Benutzer ist sind und dass es auch sinnvoll für dich ist. Ja, alles klar, super, danke schön. Okay, weitere Fragen, bevor wir da mit den eingereichten Fragen loslegen. Wenn nicht, ist das auch okay? Ich fange sonst mal oben an und wenn einer von euch noch weitere Kommentare oder Fragen zu den Sachen hat, einfach loslegen zwischen euch und hoffentlich haben wir am Ende auch noch ein bisschen Zeit. Die erste Frage betrifft quasi AMP und Google Discover. Wir sehen ein Shift von Google Discover Traffic von AMP zu Non-AMP. Das heißt, in Discover werden Artikel von uns normal dargestellt, also die AMP-Version mit dem Blitzsymbol. Wenn man die Artikel anklingt, landet man aber dann auf dem Canonical URL, also den Non-AMP. Das Gleiche haben wir auch bei anderen Publisher gesehen. Woran kann das liegen, ist das ein Bug von euch? Das klingt eher nach einem Bug, klingt eigentlich nicht so, als ob das so sein sollte, aber ich weiß da jetzt nicht mehr im Detail, wenn einer von euch das sieht und vielleicht Beispiel URLs hat oder Screenshots hat, die ich weitergeben kann, wäre ich da sehr froh. Schauen wir mal, ob wir da was finden können, aber ich vermute, wenn das normale AMP-Seiten sind, dann würden wir versuchen, die auch normal als AMP-Seiten darzustellen in den Suchergebnissen, also auch in Discover. Wir werden demnächst ein Consentmanagement einrichten in dem standardmäßig viele Externeskripts nicht geladen werden, YouTube, Twitter, andere Contents, da der Bord dem CMT nicht zustimmen wird, war meine Idee, das CMT für den Bord zu umgehen und quasi alle Skripte für den Bord zuzulassen und alle Contents direkt laden zu lassen, inklusive Erbungen wäre das für euch okay. An und für sich kann man das so machen. Normalerweise ist es so, dass wenn man ein rechtlichen Interstitial hat, dann ist es so, dass wir es versuchen, solche auch zu erkennen und auch zu ignorieren. Wenn hingegen dann die ganzen Skripts gar nicht erst geladen werden und die Inhalte gar nicht erst geladen werden, ist das natürlich ein bisschen schwieriger, weil dann können wir zwar diesen Interstitial ignorieren, aber wir haben die Inhalte trotzdem nicht. Was man da vielleicht überlegen könnte, ist, ob man das quasi auf Länderebene machen könnte, weil wenn man das zum Beispiel für Benutzer in Amerika nicht braucht und Googlebot crawlt ja meistens aus Amerika, dann ist das natürlich automatisch so gelöst, dass wenn man für Benutzer in Amerika quasi diesen Consentmanagement nicht macht, dann ist es auch okay, wenn man das auf jeden Fall Googlebot so crawlen lässt. Aber auch, ich denke auch sonst, wenn das Inhalte sind, die normalerweise dargestellt werden und einfach quasi wegen diesem Consent nicht geladen werden, denke ich, wäre das eigentlich nicht problematisch, wenn man das Googlebot zeigen würde. Es ist immer ein bisschen schwierig, bezüglich Cloking oder nicht Cloking, aber bei uns betrifft das mit Cloking eigentlich in erster Linie wirklich das Problem, dass wirklich ganz andere Inhalte dargestellt werden für Benutzer und für Suchmaschinen. Wenn das einfach quasi eine andere Variante von den gleichen Inhalten ist, dann ist das an für sich weniger problematisch. Es ist auch nicht so, dass das Webspam-Team da einschreiten würde und sagen würde, quasi ich sehe, wenn ich hingehe, sehe ich nur ein Thumbnail vom YouTube-Video und wenn Googlebot hingeht, wird das YouTube-Video im iFrame normal geladen. Aus unserer Sicht ist das total heucheklass. Eine Frage über Lighthouse und PageSpeed Insights. In dem Mid-Busting-Video über Geschwindigkeit hat Martin erwähnt, dass wenn du ein Test auf Lighthouse machst, ist das Ergebnis dann für deine Maschine, dein Browser und deine Internetverbindung. In der Helbsite heißt es, dass Lighthouse ein Seitenaufbau mit einem Gerät der Mittelflasse in Mobilnet simuliert. Funktioniert Lighthouse anders für PageSpeed Insights. Ich habe damals nachgeschaut bei den Lighthouse-Dokumentationen insgesamt und einerseits ist natürlich PageSpeed Insights nicht auf dem Browser, sondern quasi im Rechenzentrum bei uns und da macht es auf jeden Fall Sinn, dass man eine Art Emulation macht für die ganzen Tests. Lighthouse entgegen läuft ja normal im Browser, das kann man ja über die Entwickler-Tools und standardmäßig ist es so, dass Lighthouse ein Netzwerk-Throttle verwendet, welches die Geschwindigkeit ein bisschen drosselt. Das heißt, ich glaube, der CPU ist normal und all die anderen Einstellungen sind normal und einfach die Geschwindigkeit ist ein bisschen langsamer. Man kann das aber auch über die Einstellungen in Chrome, kann man das direkt ändern, man kann ja auch Lighthouse über Command Line Befehle auch aufrufen und da kann man auch die Simulation kann man da ein bisschen genauer definieren und sagen, so soll das gemacht werden oder so soll das gemacht werden. Man kann das relativ schnell in Chrome auch über die Netzwerkeignenschaften ich weiß nicht wie der Name auf Deutsch ist auch bei den Entwicklereinstellungen kann man da Netzwerkeignenschaften angeben und einerseits den User-Agent ändern, wenn man zum Beispiel gezielt eine Googlebot testen will oder mit einem anderen User-Agent und andererseits die Geschwindigkeit von der Netzwerkverbindung angeben. Die kann man, ich glaube, schnelles 3G Mobilnetz langsames 3G Mobilnetz man kann auch selber etwas angeben man kann es auch auf Offline stellen Interessante Weise, wenn ich meine Seite im Offline-Modus teste dann hat sie da am meisten Punkte weil halt keine Inhalte geladen werden können. Aber irgendwie so kann man das natürlich am besten testen wichtig mit diesem ganzen Test ist natürlich auch der Unterschied zwischen diesem Lab-Test den man direkt im Browser macht und mit den Benutzerdaten das heißt das aus Benutzer effektiv sehen und mit dem Lab-Test kann man natürlich sehr schnell hingehen und sagen, daran muss ich arbeiten man kann das gleich testen nachdem man das verändert hat und dann braucht man jeweils eine gewisse Zeit bis sie erst mal gesammelt werden und aggregiert werden ich glaube, das ist Größenordnung etwa ein Monat bis man die Veränderung bei den Benutzerdaten sehen würde das heißt In-Search Console da werden ja die Benutzerdaten verwendet über Chrome User Experience Report würde man da Größenordnung etwa ein Monat quasi Verzögerung haben bis man größere Veränderungen werden würde du hast getwittert, dass man so viele H1 auf eine Seite packen kann, wie man will darf eine H1 auch über mehrere Zeile laufen ja, kann man auf jeden Fall machen ich denke, dass das mit den H1 ist immer etwas wo, ja ich würde sagen es ist eher ein kleineres Element im großen Ranking Puzzles dass man verstehen kann worum es geht mit dieser Webseite oder mit dieser HTML-Seite, URL halt und das hilft uns da ein bisschen schon und wenn man mehrere H1 hat dann verteilt sich das entsprechend auch ein bisschen dann sehen wir die verschiedenen Abschnitte und versuchen da zu erkennen welche Überschrift zu welchem Abschnitt passt mit HTML5 kann man eigentlich standardmäßig diverse HTML-Elemente kann man auch H1 verwenden und von dem her ist es eigentlich schon relativ lange so, dass man das anders machen kann und auf unserer Seite sind wir da eh flexibel von dem her würde ich einfach schauen, dass man die H1 die Überschriften so macht dass sie für euch passen, dass sie stimmen dass das wirklich auch Überschriften für diese Bereiche sind und eben gezielt auf die Frage noch mehrere Zeilen überhaupt kein Problem mehrere H1 untereinander kann man natürlich auch machen ich denke besser ist wahrscheinlich wenn man das in ein H1-Element packt einfach vom quasi theoretischen Semantischen her aber man kann das auf verschiedene Arten anfangen dann 2 Fragen noch da steht als finales Datum für die komplette Umstellung auf Mobile Crawling noch September 2020 wird es da keine Ausnahmen geben wir haben das jetzt verschoben auf Ende März 2021 also ein bisschen mehr Zeit wir schicken weiterhin E-Mails über Search Console aus an Websites die dann auch nicht ganz bereit sind aber grundsätzlich sehen wir eigentlich, dass die allergrößte Zahl der Websites eigentlich so weit bereit sind wo wir ein bisschen kämpfen noch, sind einerseits Websites, die sehr klein sind die, die sich lange Zeit nicht mehr verändert haben, den ich auf unsere E-Mails quasi reagieren ich vermute, dass ein großer Teil dieser Websites einfach Websites sind die irgendwann mal veröffentlicht wurden und die einfach weiterlaufen wo es eigentlich niemand mehr aktiv da die Website auch betreut und der andere Teil der bei uns auch noch ein bisschen Sorgen macht mit Mobile First Indexing sind die extrem großen Websites die einfach sehr viele verschiedene Bereiche haben wo wenn wir das ganze Domain umstellen auf Mobile First Indexing sind das an und für sich sehr viele quasi Sub-Websites die da integriert sind die der Einzelnen auch ein bisschen passen müssen und für diese und an für sich alle die noch nicht ganz bereit sind versuchen über solche Kanzler weiterhin Meldungen auch rauszuschicken ich hab da eine Frage zu wird sich denn im Ranking irgendwas ändern unheimlich wenn ihr umstellt wahrscheinlich ja ne also normalerweise ist es so dass mit diesen Mobile First Indexing Systemen die wir da jetzt eingerichtet haben ist es so dass wir die Umstellung erst dann machen wenn wir ziemlich sicher sind dass das Ranking an und für sich alles stabil ist das heißt wenn wir erkennen können dass die Website an und für sich keine großen Veränderungen sehen würde mit Mobile First Indexing dann stellen wir da um ich denke auf das Stichdatum hin wird es auch nicht so sein sondern es sind dann einfach die Websites die bis dahin noch nicht umgestellt worden sind die werden dann halt trotzdem umgeschält aber eigentlich müsste doch dann also du hast ja gerade von den Seiten gesprochen die jetzt irgendwie nicht mehr gepflegt werden dann müssen noch dann auch nach unten rutschen also ich wenn ich mit meinem Google dann habe ich jetzt immer noch Seiten die ziemlich weit oben sind die überhaupt noch gar nicht oben bestellt sind und es macht einfach kein Spaß da drauf rum zu surfen und zu lesen weil man dann doppelt klicken muss, suchen muss und so weiter also wenn ich das nicht dachkomme vielleicht vielleicht also ich denke einerseits muss man unterscheiden zwischen dem Indexing quasi Mobile First Indexing und das andere ist Mobile Friendliness also ob das jetzt auf Mobilgeräten gut lesbar ist und für das Indexing so dass Seiten die anführe sich nicht gut lesbar sind trotzdem normal indexiert werden können das heißt wenn man zoomen muss um den Text zu lesen ist der Text ja trotzdem noch da hingegen wenn der Text gar nicht vorhanden ist auf der mobilen Variante dann ist das ein Problem für das Mobile First Indexing was wir einfach sehen ist gerade bei je nachdem bei verschiedenen Seiten sehen wir zum Beispiel wenn die Bilder klein sind dann können wir die Bilder nicht so gut in der Bildersuche verwenden wenn die Überschriften statt mit H1 nur mit html quasi formatiert werden auf der mobilen Variante dann können wir diese Überschriften weniger gut verwenden das heißt insgesamt ist es nicht unbedingt der Fall dass die Website gesamthaft weniger gut ranken würde sondern es ist einfach schwieriger für uns zu erkennen was da alles vorhanden ist und das kann einerseits die Textinhalte auf der Seite betreffen es kann aber auch einfach nur die Bildersuche betreffen und wenn für dich die Bildersuche nicht so wahnsinnig relevant ist dann sieht man da vielleicht eine Veränderung auf deiner Seite nicht wahnsinnig groß aber das sind da ich denke das Schwierige was ich einfach gesehen habe gerade mit den Emails was wir dann geschaut haben es gibt einfach viele Elemente auf einer Seite wo vom Indexing her, wo sie sagen würden ja das ist jetzt anders wir müssen diesen Websitebetreiber informieren darüber und wenn ich die Seite anschaue dann denke ich ja das interessiert doch niemanden ob das jetzt geändert wird oder nicht zum Beispiel wenn ich wir haben das ich weiß nicht auf verschiedenen Reises Seiten gesehen das die Information von einem Ort anschaut dann sind unten so diese Thumbnail-Bilder von vielleicht Hotels in diesem Ort oder andere Orte die in der Nähe sind und da sind einfach kleine Thumbnail-Bilder die zu diesen anderen Seiten führen und wenn statt, sag ich mal, 10 auf der Desktop-Variante nur 2 auf der mobilen Variante sind dann ist das für den Benutzer eigentlich egal es sind ja auch nicht Inhalte die für das Ranking relevant sind aber es ist eine relativ große Veränderung auf der Seite dass da statt 10 Thumbnail-Bilder auch einmal nur noch 2 da sind und das Websitebetreiber wenn ich das sehen würde, würde ich denken ja gut, ist ja eigentlich egal damit kann ich leben ok dann wie geht Google mit längeren A-B-Tests-Zeiträumen um konkret kann es zu Schwierigkeiten kommen wenn über einen Re-Launch-Zeitraum von 6 bis 9 Monaten zu 5% das eine und 95% ein anderes Template unabhängig vom User-Agent ausgespielt wird auf unserer Seite ist es eigentlich mit längeren A-B-Tests eher das Problem dass es dann langsam in Richtung Cloking geht wenn die Inhalte wirklich sehr unterschiedlich sind und das ist dann quasi der Bereich wo das Website-Team oder das Indexing-Team dann überlegen würde, müssen wir da irgendwie manuell etwas machen hingegen, wenn das jetzt einfach vom Design her Veränderungen sind, wenn das die HTML-Elemente einfach ein bisschen verschoben sind wenn die Inhalte grundsätzlich sehr ähnlich sind, ist das allen für sich egal und das andere was ich da jetzt nicht 100% sicher bin bei dieser Frage wenn das wirklich 5% und 95% der Zugriffe insgesamt sind, dann kann natürlich sein, dass Google ab und zu die eine Variante und ab und zu die andere Variante sieht und auf unserer Seite was dann passieren würde, ist, wir würden dann ab und zu die Variante indexieren und manchmal die andere Variante indexieren und je nachdem wie groß die A-B-Tests Veränderung da ist, kann das natürlich dazu führen dass einmal rankt die Website so und einmal rankt die Website so je nachdem wie welche Variante wir gerade indexiert haben und das kann es natürlich für euch dann ein bisschen kompliziert machen, dass ihr da ein Search Console dann sieht, es geht hoch und runter und dass man da nicht genau weiß ja warum verändert sich das so weil man da nicht direkt den Zusammenhang hat zwischen der A-B-Variante und der Seite, die aktuell indexiert ist das heißt was sich da manchmal lohnt ist, dass man da überlegt, wie kann man sicherstellen, dass Google-Board immer in die eine oder die andere Variante rutscht einfach damit man sauber das ganze testen kann, ohne dass von der Indexierung her dann noch zusätzliche Fluktuation dahinein kommen wenn ich da mal kurz nachfragen dürfte, gibt es eine Art Best Practice wie du empfehlen würdest weil ich dann auch so ein bisschen die Befürchtung hätte dass man dann so wirklich in diese Cloking-Falle rutschen könnte, also gerade in dieser Rampartphase, also wie es bei großen Projekten dann nur der Fall ist, dass man erst 5% auf dem einen Frontend, 95% auf dem anderen und dann halt eben das nach und nach dann eben austauscht, also 10, 90, 20, 80 etc. das ist über einen langen Zeitraum ja, dass das wirklich als das Cloking oder dergleichen interpretiert werden kann also die Gefahr sehe ich auch tatsächlich erst mal im Jahr 2016 in einem Hangout, da hatte ich diese Frage nämlich auch schon mal gestellt gesagt, dass Google eigentlich damit sehr gut zurechtkommt und es eigentlich keine wirklichen Aussagen, keine Ausschläge in die eine oder andere Richtung geben sollte gibt es da irgendwelche Erfahrungswerte auch, die du da jetzt sagen kannst wie das jetzt in den vergangenen, ja 4 Jahre ist jetzt schon her, ob es da irgendwie Erkenntnisse gibt, die du teilen kannst darfst ich ich kann einfach so quasi anerkotisch sagen ich habe in den letzten Jahren haben wir eigentlich noch nie Kontakt gehabt mit dem Mapspan-Team wo jemand gekommen ist und gesagt hat wir müssen diese Website kontaktieren wegen Cloking und es hat sich herausgestellt dass der AB Test gemacht werden das heißt wenn die Sachen, die wir bezüglich Cloking gesehen haben sind dann eher in Richtung Situation, dass irgendein Hacker gekommen ist und auf einmal Google-Bord eine Variante ausspielt und für Benutzer wenn sie draufgehen, kriegen sie dann ein Redirect auf irgendein Affiliate-Shop das ist eher das Problem bezüglich Cloking und alles was in Richtung quasi AB Test geht oder dass einfach verschiedene Ländervarianten ausgespielt werden oder für verschiedene Regionen, unterschiedliche Inhalte, all das ist aus unserer Sicht eher unproblematisch weil vom Ranking her nehmen wir einfach die Variante für das Indexing wenn wir Benutzer da hinschicken können und die Benutzer mehr oder weniger das bekommen, was wir ihnen quasi empfehlen in den Suchergebnissen, dann klappt das für uns. Das heißt da gerade bezüglich AB Test und langsamen Ramp-Ups solche Sachen würde ich mir da effektiv keine Sorgen machen. Dann noch eine weitere Frage dazu und zwar wenn sich zum Beispiel die URL-Struktur verbessert in irgendeiner Art und Weise und man dort vielleicht mit Redirects arbeiten wollen würde, gäbe es da vielleicht auch ein Best Practice, dass du sagst über ein 302er oder 303er oder 301er Status inzusenden, wie wird das gar nicht, beziehungsweise kannst du dazu was sagen? Bezüglich AB Test oder bezüglich quasi ein Relaunch? Naja, es wäre ein Relaunch in der Ramp-Up-Fase und dann hätte man ja eigentlich trotzdem das alte Frontent gegen das neue Frontent mit dem neuen Frontent würde dann eine neue URL-Struktur ausgespielt werden, mit dem alten Frontent natürlich die alte URL. Die alte wäre ja die, die im Index ist und die auch rankt, aber so dass man eben genau dieses Ranking nicht gefährdet eben durch dieses Flackern, wie du gerade selber beschrieben hast, mal geht es nach oben, mal geht es nach unten dass man das irgendwie durch eine Redirect-Strategie oder dergleichen eben auch lösen könnte. Ich denke wenn man dafür sorgen kann, dass Googlebot wirklich nur die eine Variante sieht, dann ist es ja eigentlich egal welche Variante man nimmt und wie das mit den Redirects geht. Das heißt, man hat ja dann einfach die Situation entweder hat man die Redirects am Anfang quasi dieser Umstellung, wenn Googlebot immer die neue Variante sieht oder man hat die Redirects dann am Ende, wenn Googlebot quasi dann erst die neue Variante sieht dann ist es effektiv eher eine Frage, wie geht man um mit den URL-Veränderungen bei entsprechend einem Re-Launch und das sind normalerweise einfach die 301 Redirects. Ich denke kritisch gerade in solchen Fällen ist natürlich, dass man das versucht sauber zu halten für die ganze Website, das heißt nicht nur für die Homepage oder wo man da diesen AB-Test macht weil wenn wir vom Crawling der Website auf einmal eine neue URL-Struktur erkennen und wir haben die alte URL-Struktur indexiert und sehen den Zusammenhang zwischen der alten Struktur und der neuen nicht dann kann das relativ verwirrend sein für unsere Systeme und dann sieht man einfach auch stärkere Fluktuation wenn man hingegen wirklich sicherstellen kann, dass Googlebot immer die alte Struktur sieht oder immer nur die neue Struktur sieht dann ist es eigentlich wie normaler Re-Launch das heißt im Umkehrschluss aber auch du würdest eine Art User-Agent Weiche würdest du auch mit empfehlen also es gibt ja gerade im Publisher-Bereich wo eben Forscherzeiten oder dergleichen die User-Kondenseiten da auch dann teilweise vom Bot fern gehalten werden sollten und da gibt es ja dann eben auch Best Practice oder halt eben Content hinter dem Paidwall in so einer Geschichten wo dann einfach eine Bot-Erkennung stattfindet da funktioniert es ja auch relativ gut so wenn ich das so von aus mitrechten das heißt du, du würdest das aber dann tatsächlich auch mit empfehlen Bot identifizieren über Reverse im IP lookup oder dergleichen und dann halt eben zu sagen der Bot kommt definitiv von Google bitte schickt ihn immer auf D&D URL auf D&D Sektion ja ist immer ein bisschen schwierig zu sagen ob man das jetzt immer so machen sollte aber ich denke gerade in so einer Situation würde das schon Sinn machen wichtig ist einfach, dass längerfristig der Zustand quasi angezielt wird, dass wirklich beide Seiten das Gleiche sehen einerseits damit das mit der Indexierung auch klappt, dass man auch Benutzer quasi auf D&D URL schicken kann die effektiver nachher quasi verwendet werden andererseits auch für die ganze die Wartung längerfristig auch, dass man nicht quasi 2 Websites unterschiedlich warten und unterhalten muss für ein länger Zeitraum aber gerade bei einer Umstellung gibt es halt die Situation dass man die beiden Varianten haben muss aber wenn man, sag ich mal, nach einem Jahr oder so, das alles mal umgestellt hat dann sollte Google-Bot wirklich auch mit der finalen Version auch arbeiten ok cool, danke ja, wir hatten wir hatten mal vor die ganze AB Test Dokumentation zu erweitern aber es gibt da doch so viele quasi Feinheiten dazwischen, die dann schwierig sind in exakte Aussagen zu packen dass man quasi immer so oder immer so machen muss mal schauen, ob wir das noch hinkriegen dann eine Frage zu internationalen SEO was genau hängen oder wie genau hängen die Fremdsprachigen Seiten mit der Hauptseite zusammen und wie weit können diese das Ranking beeinflussen, müssen Haar genau die selben Inhalte übersetzt sein oder können sie je nach Sprache auch abweichen wenn zum Beispiel auf der deutschen Seite von blauen Schulen die Rede ist und auf der übersetzten Seite aber von roten Pumps wird dies von Google abgestraft und wie weit kann bei solchen Dingen Google Translate schon mitdenken und hättest du noch ein paar Best Practices für internationalen SEO handeln für sich, wenn das übersetzte Seiten sind in anderen Sprachen werden die in erster Linie separat indexiert und die stehen für sich selber was noch dazu kommt ist diese Verbindung mit hreflang wo man angehen kann das ist meine Seite in dieser Sprache das ist die Variante in der anderen Sprache und was da normalerweise passiert ist wenn jemand nach dieser Seite suchen würde und der Benutzer würde sonst die falsche Variante sehen in den Suchergebnissen dann tauschen wir die URL aus gegen die besser passende Variante und an und für sich ist das total normal dass die Übersetzungen nicht eins zu eins wörtlich übersetzt werden, sondern dass sie entsprechend auch angepasst werden manchmal ist es ja auch so, dass in der gleichen Sprache für unterschiedliche Länder leicht unterschiedliche Versionen vorhanden sind in vielen Fällen macht das ja auch Sinn wenn man zum Beispiel eine Seite auf Deutsch hat für Deutschland eine Seite auf Deutsch für die Schweiz dann sind da manchmal auch andere Informationen vorhanden zumindest eine andere Währung auch dabei andere Adressen vielleicht vielleicht auch eine andere Anreihung der Produkte wenn man weiß dass Benutzer in diesem Gebiet diese Produkte wichtig finden und im anderen Gebiet eher andere Produkte dann sind das zwar lokalisierte Versionen von der gleichen Seite können trotzdem sehr unterschiedlich sein und das gilt umso mehr dann auch wenn das um Übersetzungen geht und gerade da ist es eigentlich total normal dass man quasi auch leicht angepasste Inhalte hat wichtig ist aus unserer Sicht gerade bezüglich hreflang wenn man das einsetzt dass die Seiten equivalent sind das heißt wenn jemand nach Schulen sucht und auf eure Webseite kommt und vielleicht auf Französisch sucht und auf eure Webseite kommt dass ihr immer noch Schuhe verkauft nicht dass ihr auf einmal ich weiß nicht Badehosen nur verkauft sondern es sollte natürlich equivalent sein und equivalent für uns entspricht dem einfach dass der Benutzer quasi das finden könnte wonach der Benutzer da gesucht hat manchmal ist das aber auch so dass man sagt das ist zwar die equivalente Seite aber wie verkaufen dieses Produkt gar nicht in diesem Land oder in dieser Sprachvariante und dann landet man auf einer Seite wo dann steht ja leider können wir da jetzt nicht helfen das ist aus unserer Sicht eigentlich auch okay das heißt wenn das die equivalente Version für diesen Benutzer ist und da steht dann wir können das leider nicht liefern aus was auch immer für Gründe dann ist das trotzdem eigentlich aus unserer Sicht okay ist die Unterschiede da welche Art von Schuhe auf der Seite sind das sind dann wirklich eher nebensächliche Sachen es gibt eine Webseite für eine Woche Rich Snippets hatte bei Produktseiten dann 4 Tage keine dann 3 Wochen ja und jetzt keine was kann da die Ursache sein da gibt es keine Veränderungen bei den Produktseiten einige können nicht mehr vorhanden sein aber das Problem betrifft alle Produkte nicht nur die ausverkauften Produkte was könnte ich checken ja schwierig zu sagen also ich vermute mal vom Markup her hat sich nichts verändert von der logischen Einbindung auf den Seiten hat sich wahrscheinlich auch nichts verändert vermutlich habt ihr auch keine manuelle Maßnahme bekommen für Rich Snippets weil sonst würdet ihr das irgendwie hier auch erwähnen das andere was da noch eine Rolle spielt einerseits unsere Systeme die versuchen zu erkennen wann macht das Sinn Rich Snippets zu zeigen das mal das eine wir haben das mit dem FAQ Rich Snippets kurz vorher angesprochen wo wir gesehen haben wir haben da vielleicht ein bisschen zu viel gezeigt jetzt haben wir da ein bisschen zurückgedrosselt andererseits was auch noch dazu kommt ist die gesamte Qualität der Webseite und bezüglich der Qualität der Webseite ist das mal ein bisschen schwierig objektiv anzuschauen und wir versuchen da verschiedene Signale zu nehmen um das ein bisschen zu erkennen und das kann sich natürlich auch im Laufe der Zeit verändern dass es mal quasi aus sehr gut eingeschätzt wird und mal als weniger gut und ich vermute wenn das quasi auf tagesebene quasi hin und zurückflugtuiert wird das wahrscheinlich weniger mit der Qualität der Webseite sein sondern eher einfach mit den einzelnen Seiten dass wir da denken dass es vielleicht nicht ganz relevant sein kann da auf diesen einzelnen Seiten aber es ist ein bisschen schwierig zu sagen ohne die Webseite genau zu kennen normalerweise wenn es bezüglich Qualität ein Problem ist sieht man das einigermaßen also jetzt nicht offiziellerweise aber man kann das einigermaßen testen indem man eine Side-Abfrage macht für die Webseite wenn man da immer noch die Rich Result sieht in der Side-Abfrage dann heißt es eigentlich dass es technisch sauber eingebunden ist und auch sauber erkannt wird wenn es in den normalen Suchergebnissen hingegen nicht gezeigt wird dann bedeutet das eher dass wir diese Webseite im Moment nicht darstellen wollen so kann man da ein bisschen einschätzen ist es eher etwas technisches oder muss ich eher mit der Qualität meiner Webseite insgesamt arbeiten bezüglich Qualität ist es so, dass wir das in vielen Fällen für die Webseite insgesamt anschauen und dass es dementsprechend auch einfach eine gewisse Zeit braucht bis wir die Qualität neu beurteilen können und das normalerweise sind das dann die Zeiträume von einigen Monaten wenn man größere Veränderungen an der Webseite vornehmt die quasi die Qualität erhöhen dann dauert das einfach in eine gewisse Zeit bis das unsere Algorithmen auch wirklich sauber erkannt haben ich habe eine Frage dazu also es geht nochmal um dieses FAQ Markup da wo ich jetzt sehe dass es nicht mehr eingeblendet wird hätte es dann ein Vorteil wenn ich das Markup dann auch lösche rausnehme oder kann das ruhig bleiben und spielt dann für die Qualität der Seite keine Rolle ja, das kann man durch auslassen es ist so wenn das wirklich nur für die RID Results eingebunden worden ist dann braucht man das ja nicht mehr dort aber es macht auch sicher keinen Schaden ok, also wie gesagt in England wird es bei mir noch angezeigt nur noch zwei Fragen von den vier Fragen in Deutschland in Österreich, in der Schweiz ist es verschwunden gut, ich würde es jetzt einfach lassen aber ja, vielleicht verstoße ich ja auch gegen die Richtlinie weil ich habe auf 400 Seiten die gleichen Fragen aber es sind ja auch immer die gleichen Fragen und Antworten weil die Leute fragen halt immer wie ist die Lieferzeit und könnt ihr mir ein Angebot erstellen das sind immer die gleichen Fragen halt auch und eventuell habe ich auch gedacht dass es vielleicht daran nicht dass ich jetzt viermal das gleiche Markup auf allen Seiten habe also ich an deiner Stelle was ich da machen würde ist einfach ein bisschen ausprobieren ein bisschen testen schauen ob man da etwas erreichen kann indem man andere Fragen auf den Seiten hat weil ich denke unsere Algorithmen sind da jetzt einfach ein bisschen besser angepasst an die Art und Weise wie diese FAQ Markups verwendet werden auf dem Web damit wir die eher dann zeigen können dass es wirklich Sinn machen aber ich denke in so einem Fall wo es manchmal gezeigt wird, manchmal nicht oder auf gewissen Zeichen gezeigt wird manchmal nicht besteht wahrscheinlich auch ein bisschen Spielraum dass man überlegt wie kann ich das einrichten dass ich das auf mehr Seiten sehe oder wie kann ich sicherstellen dass es wirklich sinnvoller eingebunden wird und das andere was du ja auch gesagt hast bezüglich Product Markup wenn du effektiv mal testen möchtest wenn es besser geht oder auch sichtbar ist dann kannst du auf einzelnen Seiten das ausprobieren also das Product Markup das funktioniert das ist wahrscheinlich einfacher weil es hat auch weniger Platz in den Ergebnissen also FAQ ist ja riesig gut, ich probiere aus ist ja meistens so immer ausprobieren gerade mit den Rich Results ist es ja auf Seitenebene also nicht für den ganzen Domain das heißt da kann man auch verschiedene Varianten auf der gleichen Webseite mal austesten alles klar, super, Dankeschön dann noch in Frage zu Online Shop auf der Produktdetail Seite bringt es ein Vorteil wenn dort in der URL der Produktname vorkommt es ist nachteilig wenn die URL nur ein Artikelnummer besitzt kann man auf beide Varianten machen manchmal hilft es uns wenn wir nur die URL sehen wenn da Stichwörter in der URL dabei sind aber sobald die URL crawlen und die Inhalte indexieren können haben wir natürlich viel mehr Informationen über diese Seite und da spielen Stichwörter in der URL eigentlich keine Rolle mehr das heißt, ich denke in so einem Fall kann man das so machen kann man das so machen das einzige worauf ich da machen würde, ist dass man da nicht zu oft hin und her wechselt das heißt, wenn ich jetzt einen neuen Shop aufstelle dann würde ich eine URL-Variante aussuchen und möglichst mit der Variante so lange bleiben wie es geht und nicht einfach aus SEO-Ründen von einer URL-Variante auf eine andere wechseln, weil wenn man die URL-Varianten wechselt innerhalb einer Webseite müssen wir effektiv die ganze Webseite neu verarbeiten und das kann unter Umständen eine gewisse Zeit dauern bis sich das alles wieder eingependelt hat das heißt, wenn ich von einer Nummer auf einen Text wechsel braucht es einfach eine gewisse Zeit ich würde mal sagen größte Ordnung, vielleicht mehrere Monate auch wenn ich von Punkt HTML am Ende auf Punkt PHP oder irgendwas anderes wechseln würde auch das ist eine URL-Variante in unserer Sicht und auch da müssen wir die ganze Webseite neu verarbeiten wir müssen die interne Link-Struktur neu bestimmen die Zusammenhänge mit den einzelnen alten URLs und den neuen URLs neu bestimmen das braucht einfach eine recht lange Zeit das heißt, wenn ihr umstellen wollt mit der URL-Variante-Struktur würde ich schauen, dass man da möglichst viel quasi andere Strukturveränderungen da zusammennimmt nicht, dass man dann Schritt für Schritt quasi erstmal so die URL-Struktur macht und dann nachher nach einem halben Jahr die URL-Struktur etwas anders macht sondern, dass ihr wirklich überlegt was ist die längerfristige URL-Struktur die ich da haben möchte bei den Re-Launch dort muss man ja die alten URLs per 301 redirect auf die neuen weiterleiten, bei Millionen von URLs kann man eigentlich nicht alles weiterleiten, macht es Sinn wenn man nur die URLs per 301 Re-Launch die in den Top 100 Platzierung bei Google sind ich würde sagen selbst wenn da Millionen von URLs sind kann man da die weiterleitung machen und sollte man das eigentlich auch machen weil was sonst passiert ist, dass diese URLs die quasi bei uns bekannt werden wenn wir die dann neu crawlen und einfach nur in 404 Fehler sehen dann haben wir überhaupt keinen Zusammenhang mit der alten Variante und der neuen Variante und wissen überhaupt nicht wie man diese Signale weitergeben kann und das geht dann bei euch schlussendlich dann verloren wenn man 99% der URLs so weiterleiten kann, ist das natürlich super wenn hingegen das wirklich nur ein kleiner Teil der URLs ist, dann kann da wirklich relativ viel verloren gehen und jeder Re-Launch wo man die URLs-Struktur verändert wie gesagt braucht eine gewisse Zeit da würde ich versuchen quasi nicht nicht dort zu sparen und nicht zu quasi nur ein Teil der Redirect machen, weil auch wenn man 100% der URLs weiterleitet, dann ist es trotzdem noch schmerzhaft, da würde ich dann nicht versuchen das noch schwieriger für die Suchmaschinen machen die URLs die kein Ranking besitzen und die vielleicht auf Seite 8 bis 10 dürfen ja keinen Einfluss auf die Sichtbarkeit nehmen, wenn diese entsprechend kein 301 Redirect erhalten ja ich würde wenn möglich wirklich versuchen alles weiterzuleiten, auch wenn das URLs sind die sehr selten dargestellt werden in den Suchergebnissen all die helfen uns zu erkennen was da effektiv vorgeht und unsere Systeme versuchen auch zu erkennen wenn ein größer Re-Launch gemacht wird und versuchen dann die Website gesamthaft neu zu crawlen zum Schauen was hat sich da alles verändert und wenn wir erkennen können, dass ein Teil nicht quasi auf einmal verschwunden ist oder auf New Index gesetzt wird dann sind es einfach unter Umständen recht viele kleine Signale, die verloren gehen die zusammengezählt dann doch etwas ausmachen könnten in den Suchergebnissen wie geht man am sichersten beim Umzug auf einen anderen Hoster vor ist der HTML Code 503 ausreichend sollte nach dem Umzug das Projekt in Search Console neu zur Indexierung eingereicht werden oder wie teilt man Google mit, dass das Projekt wieder erreichbar ist es handelt sich um ein noch sehr kleines Projekt das wollen nicht allzu oft vom Google Word Besuch bekommen ich vermute diese Umstellung bedeutet einfach, dass die Website quasi kurzfristig ausgeschaltet wird und dann wieder eingeschaltet wird einfach mit einem anderen IP Adresse an und für sich ist es am optimalsten, wenn man das wirklich synchron machen kann wenn man quasi die Website am neuen Ort schon laufen lassen kann und dann einfach die DNS Umstellungen macht sodass es von der einen Variante auf die andere Variante wechselt und dann ist aus unserer Sicht sehen wir da überhaupt keine Veränderung wenn das eine sehr dynamische Website ist dann ist es manchmal nicht so einfach machbar, dass man das quasi parallel laufen lässt und wenn man das effektiv auch erstmal abschalten muss und dann wieder neu einschalten muss dann ist der 503 wirklich das Richtige dort wichtig ist, dass bei einem 503 sehr der Status, dass das im Moment quasi nicht erreichbar ist dass dieser Status wirklich nur fristig auftritt, das heißt idealerweise weniger als 2-3 Tage dass das wirklich auch kurzfristig da ist weil wenn das längerfristig auch 503 ist, dann nehmen unsere Systeme an, dass diese Seiten nicht mehr existieren weil dieser temporäre Fehler ist irgendwann halt zum Dauerzustand geworden und dann denken wir gut dann machen wir euch den Gefahren und nehmen diese Seiten aus dem Index raus das heißt, wenn das eine Umstellung ist von, ich weiß nicht, ein paar Stunden vielleicht oder von maximal einem Tag sehe ich da überhaupt kein Problem da muss man auch nichts in Search Console neu einreichen zum Indexieren weil wir halten quasi das Crawling dann an und setzen dann wieder fort und aus unserer Sicht hat sich da nichts verändert wenn dieser Zustand quasi länger eintritt das heißt, wenn ich für eine Woche die Website erstmal herunternehmen muss dann ist es effektiv so dass wir einzeln Seiten dann halt aus dem Index fallen lassen wenn wir sie öfters als Fehler sehen und dann muss man halt mit den normalen Mitteln arbeiten wie man das sonst machen würde wenn man Seiten wieder neu indexiert haben möchte das heißt, für wenige Seiten kann man das ja in Search Console selber quasi von Hand machen für eine größere Website mit der Signup Dateien am besten arbeiten und all solche Veränderungen die brauchen wir natürlich auch mit gewisser Zeit das heißt weil das dann halt eine gewisse Zeit braucht, würde ich eher schauen, dass man diesen quasi dieses Loch zwischen der ein Variante und der neuen Variante möglichst kurz halten kann vielleicht sogar ganz überspringen kann, dass man diesen Wechsel ohne 503er machen kann wenn man mit 503er arbeitet wirklich schauen, dass es weniger als 2 Tage ist okay, wow, es sind noch immer viele Fragen da, aber zeitlich sind wir bald am Ende vielleicht gibt es von aus eurer Sicht noch irgendetwas dass wir ansprechen sollten ich würde gerne die Gelegenheiten nutzen John und eine Frage vielleicht dann nochmal stellen, die auch in den Kommentaren drin ist wenn es erst kommt, auch von mir da geht es nochmal um das Core Update von Mai 2020 und da haben wir halt festgestellt über viele Publisher hinweg dass es sehr viele Sichtbarkeitsverluste gab oder ungewöhnlich große Sichtbarkeitsverluste gab und gleichzeitig haben wir gesehen, dass größere Plattformen sehr stark gewonnen haben, Pinterest, Ebay auch Google.e war so ein Beispiel es ist so bei Google.e ist der Sichtbarkeitsgewinne mit Juli auch wieder komplett weg gefutscht die Frage zählt jetzt einfach dahin wie wird der das Update, sobald du das sagen kannst intern eingestuft, ist das ein erfolgreiches Update, also sagt wir sind mal ganz zufrieden mit was daraus gekommen ist oder kann es vielleicht auch sein, dass neben den normalen Kriterien, die bekannt sind zum Google Verabgelt, worauf man achten sollte dass die Webseite inhaltlich entsprechend gut aufgestellt ist dass es da vielleicht noch andere Kriterien gegeben hat die da vielleicht reingespült haben Zugverhalten, Corona ist das sicherlich ein gutes Stichwort kannst du dazu was sagen also bezüglich erfolgreich oder nicht, ist immer immer schwierig zu sagen, weil aus unserer Sicht ist es ja nie fertig oder es verändert sich einerseits unser Verhalten, die ganze Umgebung im Web verändert sich dauernd und entsprechend ist es ja auch so, dass wir immer in den Algorithmen weiterarbeiten und von dem her ist schwierig zu sagen, ob wir damit zufrieden sind oder nicht, weil es gibt immer etwas, was wir anders machen würden und in vielen Fällen ist es ja auch so, dass gerade bei größeren Updates gibt es vielleicht Sachen, die wir nicht gesehen haben ursprünglich mit unseren ganzen Tests mit den Benutzertests, die wir auch gemacht haben wo das Feedback vom Publisher, vom Webmaster dann auch entsprechend sehr wichtig ist auch vom Benutzer, wo wir dann sehen ah, jetzt auf einmal sind diese Websites oben und ich finde die schrecklich ich möchte das lieber anders haben all solche Sachen werden natürlich gesammelt im Laufe der Zeit und wir versuchen dann in den nächsten Updates da irgendwie eine Lösung zu finden ist natürlich schwierig zu sagen ob das bedeuten würde dass wir jetzt einzelnen Publisher wieder mehr zeigen weil die Publisher unzufrieden sind weil aus unserer Sicht geht es halt schon eher darum dass wir für den Nutzer gute Ergebnisse haben nicht dass wir quasi einfach den Publisher, die vorher viel Traffic bekommen haben, dass sie nachher auch wieder viel Traffic haben aber in vielen Fällen ist es ja auch überlappend ist ja auch so, dass diese Publisher viele Sachen gut machen und dass wir da auch schauen müssen dass das wirklich auch gut vielleicht mal gebracht werden in Suchergebnissen entsprechend passend für Benutzer am richtigen Ort genau, es war halt auch fällig dass wirklich sehr viele Publisher durch die Bank weg einen Trend hatten, nämlich dass sie doch sehr stark verloren haben und da war einfach nur mal die Frage hingehend ob das vielleicht auch intern dann aufgefallen ist Richtung auch, haben jetzt vielleicht auch so gar nicht erwartet aber klar, wie gesagt ich weiß nicht wie weit solche Sachen erwartet werden ich weiß einfach, es werden einfach sehr viele ausführliche Tests gemacht am Anfang auch die mit den Quality Raiders in verschiedenen Sprachen und Ländern, dass wir da wirklich auch sicher sind, dass für die wichtigsten Suchbegriffe, dass es wirklich auch passt mit dem was wir erwartet haben aber ich habe auch von relativ vielen Publishern gehört, gerade in deutschen Sprachraum dass sie da einfach verwirrt sind, nicht genau wissen was sie jetzt machen müssen und das haben wir schon auch als Feedback an das Team gegeben, ich denke solche Sachen sind auch immer wichtig, dass wir die mal bekommen, dass wir die auch weitergeben können, einerseits weil wir vielleicht mit den Algorithmen etwas verbessern können, andererseits vielleicht auch, dass wir von den ganzen Quality Teams vielleicht ein bisschen mehr Informationen bekommen, wo wir sagen können das könnten wir auch weitergeben wo im schlimmsten Fall würden die Webmaster quasi ihre Websites besser machen und das ist ja eigentlich nicht schlecht und von dem her ist es wichtig, dass wir dieses Feedback bekommen, aber ich kann gar nicht sagen es ist jetzt quasi fehlerhaft rausgerollt oder irgend so etwas, weil wenn Fehler beim Ausrollen updates passieren, dann sind das meistens Sachen, die wir innerhalb von ich weiß nicht, ein Stunde oder zwei die dann auch wieder zurück holen können und anpassen können, wieder neu raus bringen können. Okay, gut, danke dir. John, ich habe noch eine ganz wichtige Frage und zwar, ich habe das noch mit in die Timeline da gepostet und zwar zu einem Thema Content hygiene beziehungsweise mit automatisierten beziehungsweise mit News-Geschichten und so weiter. Jetzt sehe ich, darüber besteht die Möglichkeit, dass ich die Frage noch mal im englischen Hangout stelle oder ihr mail schreibe. Ja, ich richte die nächsten englische Hangouts sowieso heute oder morgen noch ein. Da kannst du einfach reinstellen. Oft ist es so, dass wenn die Fragen am Anfang reinkommen, dass sie am Anfang auch erscheinen in der Liste in YouTube, aber wie da das Ranking-Algorithmus funktioniert, weiß ich nicht. Alles klar, danke dir bis dahin. Dann machen wir vielleicht ein Pause hier. Vielen Dank fürs Kommen. Vielen Dank für die vielen Fragen. Toll, das sind jetzt zu viele Fragen quasi gekommen, aber immer gut zu sehen, dass da alles mögliche zusammen kommt. Vielen Dank fürs Kommen und ich wünsche euch noch einen schönen Tag und bis zum nächsten Mal. Tschüss allerseits. Ciao.