 Okay, herzlich willkommen allerseits zum heutigen Google Search Central SEO Sprechstunden Hangout. Mit dem Namen muss man mal aufpassen. Ich hoffe, es geht euch allen soweit gut. Mein Name ist Johannes Müller. Ich bin ein Search Developer Advocate bei Google und Teil von dem, was wir machen, sind solche Webmaster Sprechstunden, wo jeder dazu kommen kann und seine Fragen rund um die Suche stellen kann. Es sind schon einige Sachen eingereicht worden per YouTube direkt. Wenn aber eine von euch anfangen möchte mit einer Frage, seid ihr gerne dazu eingeladen? Ein bisschen ruhig am Anfang. Okay, kein Problem. Dann schauen wir mal nach, was wir da alles angereicht gekriegt haben. Welche Möglichkeiten für überregionale Publisher siehst du, um auch im regionalen Newsangebot stattzufinden? Ich weiß nicht, was ich da gezielt sagen kann, weil Teil davon ist wahrscheinlich Richtung Google News, wo ich eigentlich nicht so wahnsinnig viel Informationen habe, die ich teilen kann. Von der normalen Google Search Seite ist es eigentlich so, dass es keine Metatags oder Einstellungen gibt, die man machen muss, um eine Seite quasi zu markieren, dass sie relevant ist für eine bestimmte Region. Sondern was wir versuchen zu erkennen sind allgemeine Merkmale von diesen Seiten. Das heißt, so quasi Text auf diesen Seiten, Adressen, die wir finden auf diesen Seiten und versuchen das dann entsprechend zu verwenden für die Suchergebnisse. Das heißt, man muss da eigentlich nichts anderes machen, als die Information halt normal, wie man die veröffentlichen würde, auf die Webseite. Also nicht, dass man da irgendwie gezielt mit schema.org etwas machen muss, mit hreflang muss man sowieso nichts machen, weil das ist ja alles innerhalb vom gleichen Land. Sobald das dann international wird, dann kann man mit Geotargeting, mit diesen Einstellungen ein bisschen mehr machen. Aber solange das alles innerhalb vom gleichen Land ist und einfach für bestimmte Region ist, dann ist es eher einfach eine Frage, dass wir Informationen auf den Seiten direkt finden und das irgendwie auch zuordnen können. Dass wir sehen können, diese Website ist da platziert oder diese Informationen sind alle von dieser Region und dass wir das dann so in der Suche darstellen können. Wenn man alle Google Ranking Faktoren mit 100% ansetzt, wie viele Prozentpunkte werden davon circa die Core Web Bidles ausmachen? Gute Frage. Ich denke, das wird weiterhin so in der Art etwa kommen. Das Schwierige, da ist, dass wir nicht so die Ranking Faktoren anschauen. Das heißt, es ist nicht so, dass wir sagen, dieser Faktor ist fix und quasi man hat das jetzt gut erreicht und deswegen kriegt man 0,7 Punkte noch dazugerechnet, sondern diese Faktoren sind sehr variabel. Das sieht man zum Beispiel auch, wenn man Nachrichten anschaut, dann ist es ja so, wenn ein Thema auf einmal in den Nachrichten ist, dann versuchen wir für die gleichen Suchanfragen auf einmal dann eher ein bisschen stärker zu bewerten. Ist es jetzt ein relevanter Artikel quasi vom Zeitraum her oder ist es etwas älteres? Ähnlich ist es auch so mit anderen Bereichen, wo quasi die Relevanz ein bisschen wechseln kann. Relevanz ist sowieso ein bisschen schwieriges Thema und da versuchen wir natürlich die Sachen, wo wir erkennen können, dass die Informationen wirklich sehr relevant sind, dass wir das quasi aufgrund von den Informationen auf den Seiten entsprechend auch bewerten können und für das Ranking verwenden können. Bei solchen Situationen, wo es nicht eindeutig klar ist, welche Reihenfolge da wirklich passen würde, dann können wir solche Faktoren wie Corewrap-Wahl ein bisschen dazunehmen und aufgrund von dem ein bisschen das Ranking zusammenstellen. Das heißt, wenn jemand gezielt nach eurer Firma sucht, nach eurer Website, dann wird es nicht so sein, dass wir irgendeine andere Website zeigen würden, die halt ein kleines bisschen schneller ist, sondern da zeigen wir einfach eure Website, auch wenn sie ein bisschen langsamer ist. Hingegen, wenn wir mehrere verschiedene Resultate haben, die ein bisschen eher ähnlich sind, dann können wir natürlich Corewrap-Wahl dazunehmen und sagen, die ist jetzt ein bisschen die schnellere Seite oder hat ein besser User-Experience und aufgrund von dem wird das Ranking da ein bisschen angepasst. Das kann man natürlich auch, vielleicht mal so überlegen, das heißt, wenn man das in Extrem ziehen würde, dann ist natürlich eine leere Seite wahrscheinlich die schnellste, die man machen kann. Und für Benutzer, wenn sie in den Suchergebnissen leere Seiten sehen, sind die nicht wahnsinnig brauchbar für Benutzer. Das heißt, es muss irgendwie schon zusammen passen. Kann ich eine Frage stellen zu den Ranking-Faktoren? Klar. Ich sehe jetzt in letzter Zeit bei generischen Suchwörtern, also zum Beispiel französische Flange in Frankreich, dass ca. acht Suchtreffer auf Shopping-Seiten gehen. Hat das denn jetzt auch was zu tun mit dieser Corona-Krise, dass jetzt sehr viel gekauft wird? Oder wie kommt das auf einmal? Weil früher waren auch sehr viele mehrere unterschiedliche Suchtreffer zu finden, zum Beispiel irgendwelche Wikipedia-Seiten oder private Seiten. Oder sind diese Shopping-Seiten jetzt so extrem optimiert, dass überhaupt gar kein normaler User mehr da reinkommt? Das ist auch eine Sache, die sich im Laufe der Zeit verändern kann. Das heißt, wir versuchen zu erkennen, ob der Benutzer jetzt eher, sagen wir mal, kommerzielle Interessen da mit der Suchernfrage hat. Und aufgrund von dem zeigen wir dann eher Shopping-Resultate oder eher andere Resultate. Und das kann sich im Laufe der Zeit ändern. In den meisten Fällen ist es nicht so, dass wir da irgendwie manuell diesen Mix steuern, sondern wir versuchen das einfach algorithmisch zu bestimmen, dass wir feststellen können, dieser Suchbegriff ist jetzt mit einer höheren Wahrscheinlichkeit eher etwas, was Richtung Shopping geht. Und deswegen zeigen wir dann vielleicht ein bisschen mehr so Produkt-Lining-Pages statt Informations-Pages. Macht das so weit, Sven? Ja, weiß ich nicht. Also, es sind wirklich diese ganzen Informations-Pages und verschwunden. Und auch jetzt meine Frau beschwert sich es auch mittlerweile, dass sehr viel Shopping auch jetzt in letzter Zeit gezeigt wird. Also, ich kann mir schon gut vorstellen, dass auch die Shopping-Seite natürlich extrem in diese Suchmaschinenoptimierung reingehen und dass auch Können mittlerweile vielleicht und dass es vielleicht auch daran liegt. Aber also, gerade bei generischen Suchen, also diese Allgemeinsuche, jetzt nicht, wenn man speziell irgendwie sucht nach, wenn man drei Wörter z.B. nimmt oder so, dann wird die Suchtreffer schon besser auf jeden Fall. Ja. Okay, ja. Ja, aber ich glaube nicht, dass wir auf unserer Seite da irgendwie quasi so ein Hebel hätten, dass wir sagen können, einfach mehr Shopping-Resultat oder weniger. Sondern das sind, wahrscheinlich sind das einfach Algorithmen, die ein bisschen auf das Benutzer verhalten, sich dann auch längerfristig quasi anpassen. Und vielleicht ist das jetzt gerade in diesem Bereich so in die Richtung ein bisschen weitergerutscht. Ich vermute, dass das wird sich dann im Laufe der Zeit auch wieder einpendeln. Ja. Das ist jetzt ein aktuelles Abbild wahrscheinlich von den Suchen. Ja, klar, kann schon sein. Ja, okay. Viel SEO Tools zeigen Fehler an, wie zum Beispiel der HTML-Code ist nach W3C Standards nicht valide oder inline JavaScript gefunden oder reduziert die Anzahl ausgehender Links und so weiter. Wie wichtig sind solche Punkte wirklich für gute Rankings bzw. was sind denn für Google die wichtigsten technischen SEO-Faktoren auf die man achten sollte? Ja, gute Frage. Das geht natürlich sehr breit. Auf unserer Seite gibt es verschiedene Sachen, die relevant sind und andere Sachen, die weniger relevant sind. Es gibt gewisse Elemente von Seiten, die kann man sehr gut testen und Elemente von Seiten, die kann man nicht so wahnsinnig gut testen. Das heißt, für uns ist natürlich Relevanz super wichtig. Aber es gibt viele Faktoren, die da ein bisschen mit hineinfließen. Das heißt zum Beispiel, die interne Verlinkung auf einer Webseite hilft uns sehr stark zu erkennen, welche Seiten findet ihr als Zeitbetreiber besonders relevant. Und das geht natürlich in Richtung quasi die Anzahl ausgehender Links. Wenn man zu viele interne Verlinkungen hat, dann ist es schwieriger für uns zu erkennen, welche Seiten für euch besonders relevant sind. Oder wie man die Seite crawlen kann. Und von dem her ist die Anzahl der Links auf einer Seite schon etwas, das kann man relativ gut messen und dann kann man relativ gut sagen, das sind jetzt besonders viele Links oder besonders wenige Links. Man kann natürlich schlecht einschätzen, ist das jetzt gerade in diesem Fall problematisch oder okay. Aber man kann diese Zahl, wenn man die Anzahl der Links auf einer Seite nicht verwendet ist, dann ist das schon relativ kompatisch oder okay. Aber man kann diese Zahl ein bisschen kontrollieren. Und deswegen kommen auch viele SEO Tools in die Richtung und sagen, das ist jetzt etwas, was ich messen kann. Das kann ich kontrollieren. Wahrscheinlich ist da schon etwas, was Google einigermaßen verwendet, aber ich kann das in jedem Fall dem Benutzer vom Tool mal melden. Und der Benutzer kann dann selber entscheiden, ist das für mich jetzt wichtig die Anzahl Links-Anschauung auf einer Seite. Wenn das, sag ich mal, ich weiß nicht, was 20, 30 Links sind und das Tool meldet das und sagt, das sind besonders viele. Man darf nur 29 haben, dann kann man ja trotzdem das anschauen und sagen, für mich ist das eigentlich trotzdem okay. Das heißt, man muss nicht immer gerade diesen Tools eins zu eins wollen. Was weniger für uns direkt bezüglich SEO ein Faktor ist, ist die Validität vom HTML. Das heißt, ob jetzt der Code diesen Test besteht oder nicht. Das ist aus unserer Sicht eigentlich nicht, nicht ein Faktor. Wird eigentlich gar nicht verwendet, weil die meisten Websites bestehen, die Tests ja nicht. Die können das nicht vollständig bestehen. Was aber da ein bisschen trotzdem praktisch ist, ist, wenn man diese Tests besteht, dann hat man ein bisschen eine Gewissheit, dass diese Seiten in mehreren verschiedenen Browser richtig funktionieren. Das heißt, wenn das sauberes HTML ist, dann funktioniert das eher auf verschiedenen Arten von Geräten. Und das an und für sich ist das ja kein, vielleicht mal SEO Ranking Faktor, aber es ist trotzdem etwas, worauf man vielleicht achten würde und sagen würde, was bringt man das, wenn ich mit meiner Website an erster Stelle in den Suchergebnissen stehe und die meisten Benutzer können die Seite gar nicht sauber bedienen, dann bringt das ja auch nicht wahnsinnig viel. Von dem her, wenn ich so die verschiedenen SEO Tools anschaue, die ich mal ausprobiert habe, dann gibt es viele dieser Meldungen, die kommen, wo ich sagen würde, das ist jetzt in diesem Fall vielleicht nicht wahnsinnig wichtig. Aus Google-Sicht, wenn ich die anschaue, das ist total irrelevant, aber man kann das natürlich messen und man kann sich dann als Benutzer von diesen Tools überlegen, ist das für mich jetzt relevant oder weniger relevant? Und ich denke, das ist in vielen Fällen trotzdem noch hilfreich, dass man da ein bisschen eine Unterstützung hat, die in Richtung geht, wie mache ich meine Website so, dass sie möglichst sauber sind, dass sie möglichst gut zu verstehen sind, einerseits für Benutzer, für Suchmaschinen und gerade, wenn man eine größere Website hat mit, ich weiß nicht, 1.000 oder 1.000.000 von Seiten, dann findet man ja die problematischen Seiten nicht so wahnsinnig schnell, dann kann man mit diesen Tools sich dann ein bisschen schneller eingrenzen und sagen, bei diesen Arten von Produktseiten zum Beispiel habe ich ein Problem, weil da sind die Beschreibungen vielleicht irgendwie am falschen Links dabei oder sind besonders invalide und dann kann man sich ein bisschen auf das konzentrieren und sagen, das ist jetzt ein Thema, das ich mal annehmen möchte. Und von dem her würde ich nicht sagen, man muss eins zu eins all diesen Tools folgen mit diesen Faktoren, aber man kann die trotzdem als Hilfe nehmen, um ein bisschen zu erkennen, wo kann man seine Zeit investieren. Wie kann eine hohe Diskrepanz bei der Rankings bei Suchernfragen mit genau derselben Suchabsicht und denselben Begriffen erklärt werden. Ergebnisse auf der 1. Seite bezüglich auf der 10. Seite wenn einer dieser Suchbegriffe auf 2 verschiedenen Arten geschrieben werden kann zum Beispiel das Artwerb zu Hause oder zu mit dem Lehrschlag Hause. Ja, das kann passieren. Es ist schwierig zu sagen, wie kann man das erklären. An und für sich sind das ja auch unterschiedliche Suchbegriffe und für unsere Systeme müssen wir die Begriffe einzeln erst mal erkennen und müssen auch dann mal feststellen, ist quasi die Absicht diegleiche, sind das vielleicht verschiedene Schreibweisen vom gleichen Wort, sind das wirklich 1 zu 1 Austauschbarvarianten oder könnte das zum Beispiel sein, dass eine Schreibweise eher in einem Land verwendet wird, die andere Schreibweise eher in einem anderen Land und dass man dies bezüglich dann halt auch versucht die Rankings ein bisschen anzupassen. Im Praktischen was passiert mit solchen Suchbegriffen, gerade sag ich mal bei kürzeren Suchbegriffen ist es so, dass wir die Suchbegriffe erstmal versuchen zu verstehen. Das heißt wir versuchen erstmal zu bestimmen welche Synonyme sind da die quasi gleich oder ähnlich verwendet werden können, um das gleiche Wort zu beschreiben und da ist es nicht der Fall, dass wir sagen, die sind alle gleichwertig sondern wir sagen dann vielleicht zu, ich weiß nicht was, 70% ist diese Schreibweise eigentlich auch okay oder das ähnliche mit Singular und Plural Form, dann kann man natürlich auch die verschiedenen Varianten dazu nehmen ähnlich versuchen wir dann zu bestimmen ist das jetzt sag ich mal eine kommerzielle Suche oder eine weniger kommerzielle Suche welche Sprache ist diese Suche geschrieben und aufgrund von all diesen Faktoren nehmen wir dann das Ganze und schicken das an unser Index weiter und holen da entsprechend die Such, sag ich mal Resultate die entsprechend da passen würden und versuchen dann das Ranking aufgrund von diesen Faktoren zu machen. Das heißt es kann durchaus der Fall sein dass wir, sag ich mal mit einem Wort wo wir, wo man als sag ich mal als Deutschsprachender sagen würde ja die sind eigentlich fast das Gleiche dass unsere Systeme weil das Ganze automatisch geht sagen ja die sind nur zu 50% Wahrscheinlichkeit Synonyme und vielleicht ist sag ich mal die Plural Form eher Richtung kommerzielle Interesse und die Singular Form eher in Richtung Informationsinteresse da und das dementsprechend die Suchergebnissen total anders aussehen und das sind Sachen die auf unserer Seite nicht manuell angepasst werden das heißt wir gehen nicht manuell die Suchbegriffe durch und sagen das ist jetzt quasi das gleiche Wort wie das da und mit einem Lerschlag ist das okay mit zwei Lerschlägen wäre das vielleicht weniger okay auch mit Umlauten und solche Sachen kommt das natürlich alles auch ein bisschen dazu und das sind eben wie gesagt nicht Sachen die wir manuell eingeben und erfassen sondern Sachen die wir mehrheitlich automatisiert versuchen zu erkennen und die unsere Systeme im Laufe der Zeit auch immer wieder neu anpassen das heißt wenn wir sehen dass zum Beispiel Wörter oft als jetzt neu als Synonyme verwendet werden dann sind das Sachen die unsere Systeme im Laufe der Zeit dann auch ein bisschen dazu lernen und dann im Laufe der Zeit dann auch sagen eigentlich jetzt neuerdings kommen Benutzer wenn sie auf diese Varianten suchen meinen sie das gleiche und dann ist das eigentlich soweit für uns auch klar es gibt bei uns auf dem Youtube Kanal ein Video von Paul Har von ich würde sagen letzten Dezember von einer Konferenz die wir in Mountain View gemacht haben wo er auch ein bisschen in Richtung Synonyme eingeht wo er auch verschiedene sag ich mal Suchbegriffe darstellt die halten es ein bisschen problematisch für uns wo wir erstmal lernen mussten dass wir die anders behandeln müssen auch Fälle wo wir unsere Systeme quasi gelernt haben das sind Synonyme aber wo die eigentlich dann nicht wirklich Synonyme sind und das zu korrigieren das ist manchmal sehr spannend zu beobachten weil wie gesagt, wir können das nicht wirklich manuell machen weil es einfach so viele Sucheinfragen gibt die ständig neu dazukommen sondern wir müssen versuchen unsere Systeme dementsprechend einfach anzupassen wir haben auf unserer Desktop-Webseite eine Trendleiste mit wichtigen Links zu weiterführenden Artikeln die aber alle auf mobile ausgeblendet sind werden die Links trotzdem entsprechend gewichtet es hängt davon ab wie ihr diese Links ausblendet das heißt kurz gesagt wenn die Links trotzdem im HTML dabei sind, dann können wir die weiterhin auch verwenden für die interne Verlinkung wir finden diese Links wir können normal dementsprechend auch weitercronen wenn die HTML-Version wirklich auch anders ist auf mobile als auf desktop und im HTML selber diese interne Verlinkung nicht dabei ist dann sind diese Links an und für sich weg das heißt praktisch gesehen wir crawling für das Indexing bei Mobile First Indexing nur mit dem Smartphone Googlebot und wenn die Inhalte dort nicht im HTML dabei sind dann können wir die nicht nehmen für die Indexierung ich wollte direkt mal einhaken hi, die Frage ist von mir gewesen deine Antwort habe ich mir auch schon so gedacht weil tatsächlich ist es im HTML bei uns auf mobile drin von daher müsste es gewichtet werden wir haben sie momentan, ich glaube nur per CSS ausgeblendet weil wir noch eine bessere Möglichkeit suchen das auch platzmäßig und von der User Experience her darzustellen aber da haben wir meiner Meinung nach erst mal kein Nachteil zumindest wenn wir das so gelöst haben genau ich kann mich auch direkt im Anschluss noch eine andere Frage stellen wenn nicht ich und zwar, wir haben auf einer unserer Seiten auch ein großes Forum mit vielen Mitgliedern und die haben auch sehr viele URLs, also natürlich die Mitgliederseiten die Profilseiten aber auch die neuesten Beiträge von denen und so weiter das sind tausende, zehntausende URLs und die hatten wir vor geraumer Zeit per robots.txt einfach gesperrt und hatten dann aber gesehen dass es trotzdem einige davon in den Index aufgenommen hat weil du hattest ja auch mal erzählt es gibt unterschiedliche Signale und da kann das schon mal passieren deswegen haben wir die alle per robots.txt entsperrt und hatten dann alle auf noindex gesetzt in der Hoffnung, dass die dann mit der Zeit irgendwann aus den Index verschwinden und haben dann auch tatsächlich festgestellt dass der Googlebot gekommen ist und die alle crawlen wollte und da hat dann aber unser System admin Alarm geschlagen und da haben wir dann notgedrohen tatsächlich wieder die robots schwerer ziehen müssen um dem erstmal Einhalt zu gebieten wie ist denn jetzt deiner Empfehlung wie man das langfristig hinbekommt also sind momentan tatsächlich noch ein paar tausend URLs im Index die hätten wir ja gern draußen was ist das Problem an diesen URLs für euch oder was versucht ihr da so zu beheben in dem dass ihr das ganze Forum rausnehmt also nicht das ganze Forum sondern nur diese Mitgliederseiten weil die aus unserer Sicht halt nicht sehr relevant sind die sind auch sehr dünn, weil viele Mitglieder ihre Profile auch nicht pflegen also wenn man die anklickt hat man meines Erachtens nach keinen wirklichen Mehrwert natürlich sind jetzt diese paar tausend URLs bei unserer Website die viel viel viel mehr URLs hatten und ein kleiner Teil aber ja es war einfach es hat keinen Mehrwert also können wir es auch rausnehmen lassen ja ich würde ein Allgemein sagen wenn die nicht für normale Suchen auftauchen bei euch dann müsst ihr da eigentlich nicht spezielles machen das heißt was ich machen würde ist in Search Console kann man ja ein Filter einrichten dass man nur bestimmte URL-Muster mal anschauen kann und dann einfach mal die Suchbegriffe anschauen für die diese Seiten auftauchen würden und auch vielleicht die Anzahl Impressions und Clicks die die Seiten kriegen ich vermute dass die Suchbegriffe er Suchbegriffe sind die nicht so wahnsinnig wichtig sind für eure Website und wo man dann einfach sagen könnte ja gut, die sind per Robots Text gesperrt vom Ranking her werden die nicht besonders relevant sein weil die richtigen Inhalte haben ja trotzdem in den Suchergebnissen und irgendwann im Laufe der Zeit werden die wahrscheinlich rausfahren aus dem Index das sollte eigentlich keine Probleme verursachen okay, also ja das ist jetzt nichts, die Ranking für nicht wirklich tolle Begriffe ist völlig irrelevant, also meinst du es kann man ruhig so lassen, es ist jetzt nicht weiter tragisch ja, also ich würde das eher so lassen ich denke wenn du da nachschaust und merkst ah die Ranking sehr gut aus irgendeinem ich weiß nicht was, unerklärlichen Grund kann man immer noch sagen ich nehme quasi das Entfernungstool alles was in diesem Verzeichnis ist oder mit diesem URL-Fahrt was so anfängt dass wir das erstmal rausnehmen aber ich würde vermuten man kann die einfach sein lassen mein klar ist es immer schön wenn man das sauber aufräumt wenn man wirklich nur die URLs indexiert hat die man eigentlich haben möchte aber ich denke vom Praktischen her ändert das nicht wahnsinnig viel eben wenn man da die Robots Text schwere rausnehmten dann crawled Googlebot erstmal wie wild weil es denkt ah da gibt es jetzt was Neues zu holen und das ist wahrscheinlich noch aufwendiger als wenn man sagt gut wir lassen es einfach riesig ist und irgendwann fällt das schon noch raus ok, danke dir ok, dann da noch eine Frage zu Google My Business einträgen und Spam Report leider habe ich dann nicht wahnsinnig viel Informationen zu Google My Business da würde ich eher auf das Hilfeforum verweisen von Google My Business ich weiß nicht ob es auf Deutsch auch ein Forum speziell für die Färmen oder die Einträge die da sind ein Forum gibt aber auf Englisch gibt es auf jeden Fall ein Forum dafür und da würde ich mal die Frage vielleicht mal allgemein stellen und ein bisschen Informationen kriegen welche Möglichkeiten es überhaupt gibt und gegebenenfalls dann halt auch die genauen Informationen dort hinein posten weil bei den Hilfeforum ist es so, dass die Product Experts die da aktiv sind die können gewisse Beiträge entsprechend auch eskalieren das heißt weitergeben an Google Mitarbeiter damit das ein bisschen genauer angeschaut werden kann und von dem her würde ich da das eher Richtung den Hilfeforum mal geben fließen in die Felddaten zur Berechnung der Core Web Vitals sind da nur indexierte Webseiten ein oder werden auch nicht indexierte Webseiten berücksichtigt warum erscheinen auf meinem Handy in den Suchergebnissen bei Firefox keine AMP-Seiten ok, sind gleich 2 ein bisschen unterschiedliche Fragen bezüglich Core Web Vitals ist es effektiv so dass da wirklich alles was von Benutzern verwendet werden kann auch in die Core Web Vitals fließen kann das heißt für den Core Web Vitals Bericht in Search Console ist es ja so, dass wir die Chrome User Experience Report Daten nehmen und das sind Daten die anonymisiert von Benutzern quasi eingereicht werden und aufgrund von dem berechnen wir dann die Werte für die verschiedenen Core Web Vitals und diese Daten weil sie ja über Chrome kommen sind sie einfach nur für diese Website mit gewissen URLs natürlich verbunden aber es ist nicht so, dass Chrome weiß dass diese URL jetzt indexiert werden darf oder diese URL nicht indexiert werden darf ebenso weiß auch Chrome gar nicht, ob diese URL jetzt mal ohne Passwort zugänglich ist oder nur mit Passwort zugänglich ist das heißt in den Chrome User Experience Report sind anfühlig aggregierte Daten und wenn wir genug Daten haben können wir das in kleinere Gruppen dann entsprechend aufteilen das heißt, dass man da vielleicht eine Gruppe hat ich weiß jetzt nicht mal die Profilseiten vom Fall vorher dass diese quasi eine Gruppe sind in Chrome User Experience Report und die Forumbeiträge in einer anderen Gruppe und dementsprechend können wir natürlich die Core Web Vitals dann auch ein bisschen gezielter anwenden und in vielen Fällen wenn man jetzt Bereiche eine Website hat die nicht indexiert sind ist es ja auch so, dass man das ein bisschen abgetrennt hat und da können wir das dann in der Regel schon ein bisschen genauer steuern ihr könnt das aber auch im Core Web Vitals Report in Search Console selber nachschauen das heißt, ihr seht hier da die einzelnen Seiten die quasi Messwerte haben und das sieht man dann auch wieviel ähnliche URLs gefunden wurden diese Gruppe hineinpassen und so kann man da ein bisschen auch abschätzen quasi was geht jetzt alles in diese Gruppe oder was geht in die anderen Gruppen und meines Wissens ist die Gruppierung einerseits aufgrund von der URL-Struktur andererseits natürlich auch aufgrund von den Aufbau von den einzelnen HTML-Seiten gemacht das heißt, wenn wir erkennen können dass diese URLs, sag ich mal, alle Zeichnes sind, aber dass die HTML-Seiten sehr unterschiedlich sind und quasi nach diesen Mustern aufgeteilt werden können, dann versuchen wir das auch so hinzukriegen bezüglich Firefox und AMP weiß ich nicht was da speziell der Fall ist aber da sind die genauen Angaben vom Standort und Handy und Betriebssystem Version und Firefox Version dabei, da kann ich das auf jeden Fall an das Team mal weitergeben um das ein bisschen genauer anzuschauen ich weiß in einigen Fällen gerade am Anfang war es so, dass wir die AMP-Seiten nur dann ausgeliefert haben, wenn wir sicher waren dass die Browser das auch sauber verstanden verstehen können ich vermute das sollte eigentlich bei den aktuellen Firefox-Versionen unproblematisch sein das sollten wir die wahrscheinlich da schon normal ausliefern können realistisch betrachtet wird es nicht möglich sein alle unsere Unterseiten so zu optimieren, dass die 3 Core Web Vitals zu 100% im Grün stehen ein gewisser Prozentsatz der Seiten wird orange oder rot bleiben gibt es hier für die Core Web Vitals ein Prozentsatz, den Google noch als akzeptabel ansieht also wenn zum Beispiel 5% der Seiten rot sind, wäre das dann trotzdem noch in Ordnung gute Frage also einerseits, denke ich, geht das in Richtung quasi diesen agrarierten Messwerten die da zusammenkommen das heißt, wir testen ja nicht sag ich mal theoretisch diese Seiten durch sondern wir nehmen die Benutzerdaten die Benutzer effektiv gesehen haben und das wird ja agrariert für die ganze Website und aufgrund von diesen agrarierten Daten bestimmen wir dann ist die Website oder diese Teil der Website entsprechend im Grün oder nicht und da kann es durchaus sein dass bei einzelnen Seiten oder bei einzelnen Benutzern alles sehr langsam ist und bei anderen Seiten geht es sehr schnell und wenn man dann diese agrarierten Daten anschaut dann werden die ja irgendwo in der Mitte fallen und aufgrund von dem machen wir dann die Bewertung bezüglich Core Web Vitals ich glaube, bei uns in den Hilfeseiten haben wir das ein bisschen genauer auch definiert, was da genau angeschaut wird ich glaube, der 75 % wird da genommen von den Messwerten und wie das mit der Gruppierung ist ist glaube ich da auch ein bisschen genauer beschrieben und aufgrund von dem wird das dann ja da entsprechend zusammengestellt was meinerseits oder wo ich nicht 100 % sicher bin ich vermute das ist der Fall ist bezüglich wenn man jetzt irgendwo dazwischen liegt ob jetzt Google quasi nur sieht ist erfüllt das die Bedingungen für die Core Web Vitals oder erfüllt das nicht oder ist das ob wir das auch irgendwie als Zwischenwert dazunehmen würden dass wir sagen würden 70 % erfüllt dieser Wert also ist das ein bisschen besser als eine Website die vielleicht nur 70 % diesen Wert erfüllt meines Wissens wird das eher etwas sein dass entweder okay ist oder nicht okay und nicht irgendetwas was quasi so graustufen dazwischen noch hat weil wie wir das im letzten Blogpost auch beschrieben haben wollen wir ja auch ein Label oder ein Bild in den Suchergebnissen darstellen wenn wir wissen dass die Seite diesen Page Experience Faktoren erfüllt und da ist es natürlich eher so dass wir das nur zeigen können oder nicht zeigen können wir können dann nicht irgendwie 80 % von diesem Symbol zeigen und sagen mehrheitlich ist das erfüllt oder nicht aber das ist mal eine andere Frage ich denke bezüglich den effektiven Anzahlseiten und wenn ihr diese Tests quasi manuell durchgeht das ist etwas was man dann wirklich auch nachkontrollieren kann in diesen aggregierten Daten im Chrome User Experience Report und in Search Console sieht man das wahrscheinlich auch wie sich das verändert im Laufe der Zeit Autodetektion von einer Sprache mittels JavaScript führt beim Google Crawler dazu die Sprache indexiert wird obwohl die Seite auf Deutsch ist weil der Crawler in Deutschland Englisch sendet deutsche Seiten und Englische Seiten verschiedene URLs war über das Ergebnis erstaunt gibt es überhaupt Google Crawler die als akzeptierte Sprache auch die DE-DE-Version senden oder nur EN-US manuell als Mensch funktioniert alles super verschiedene Browser mit unterschiedlichen Sprachen installiert würde die Weiterleitung auf Zielsprache dazu führen, dass die deutsche Seite nicht mehr gecrawlt wird ja, das ist effektiv so dass wir pro Seite nur eine Sprachversion indexieren und wir machen das auch so, dass wenn wir die Seiten crawlen dann schickst Google eigentlich nur sag ich mal den Standard Header aus und crawlt diese Seiten nicht mit verschiedenen Sprache das heißt in einem solchen Fall, je nachdem wie das implementiert ist, wird das so sein, dass wir die Seite crawlen in vielen Fällen werden die diese Scripts erkennen quasi das ist ein Benutzer aus Amerika und werden dann entsprechend die Englische Version zeigen und das ist dann auch die einzige Version, die wir dann dementsprechend da indexieren würden das heißt wenn man verschiedene Sprachversionen hat dann müsste man auf jeden Fall separate URLs haben für diese einzelne Sprachversion und dann idealerweise auch links zu diesen einzelnen Versionen haben, idealerweise auch mit der hreflang Annotierung arbeiten so dass wenn wir die Seite crawlen und von der Standard Homepage eine Weiterleitung auf die Englische Homepage kriegen dass wir dann trotzdem wissen ah, da ist die deutsche Version mit einer Stich D.E. URL zum Beispiel dass die französische Version und dass wir diese einzelnen Sprachversionen gezielt auch separate Crawlen können das heißt wenn die Homepage eine solche sprachweiche aufweist dass wir zumindest die einzelnen Sprachvarianten selber separate Crawlen können und dann wenn wir diese Sprachvarianten separate Crawlen können, können wir die auch separate indexieren wenn hingegen die Homepage einfach die Inhalte austauscht, je nachdem wo der Benutzer her ist oder wie das halt eingeteilt wird dann wird es so sein, dass Google baut einfach eine Variante sieht und dann nur diese Variante indexiert und gerade wenn ihr verschiedene Sprachvarianten habt, ist das ja auch ein bisschen schade wenn dann nur die Englische Version indexiert wird oder nur die Version die ihr vielleicht Benutzer aus Amerika zeigt so indexiert wird wir haben da aber auch relativ ausführliche Dokumentationen wie man das am besten machen kann auch eine Blogpost wie man das machen kann, gerade bei solchen Homepages die eine automatische Sprachweitergabe haben oder die vielleicht auch ein Banner zeigen mit verschiedenen Sprach- und Ländervarianten wie man da am besten umgehen kann gerade mit diesen hreflang Annotation dass man sicher ist dass die verschiedenen Varianten auch gecrawlt und indexiert werden können so sind wir glaube ich da unten angekommen mal kurz nachschauen ob da ein bisschen mehr noch dazugekommen ist eine Webseite die ich betreue hat einen ganz korrekten PageSpeed für Desktop-User aber aus irgendeinem Grund will das für Mobile-User nicht klappen die Seite ist recht neu daher natürlich im Mobile First Indexing kann ich davon sagen dass ihr Ranking für Desktop-User auf anhand der Mobile-Performance bestimmt wird wenn mal alle anderen Ranking-Faktoren außer Acht lässt weiß ich nicht also es hängt ein bisschen davon ab wie sich das Ganze da sag ich mal einpendelt wenn das jetzt eine neue Web-Site ist dann haben wir wahrscheinlich noch keine Chrome-User Experience-Report Informationen für diese Seite das heißt dann ist sowieso erst einmal der Fall da dass wir keine weiteren Informationen haben und dann erstmal schätzen müssen die Chrome-User Experience-Report Daten werden meines Wissens nach etwa ein Monat aktualisiert entsprechend sieht man dann auch diesen Zeitverzögerung in Search Console wenn man diese Daten anschaut das heißt da würde man wahrscheinlich nach etwa einem Monat auch Informationen zu sehen und das sollte man dann auch den Unterschied zwischen Desktop und Mobile entsprechend sehen wir führen die Chrome-User Experience-Report Daten separat für Desktop und Mobile wir planen gerade beim Page-Experience-Ranking-Faktor nur die Mobile-Variante mit diesen Core-Web-Vitals mit den Page-Experience-Faktoren zu bewerten und bei der Mobile-Variante wenn jemand auf ein Mobile-Gerät sucht nehmen wir die Core-Web-Vitals und die anderen Faktoren beim Page-Experience-Faktor dazu und machen da entsprechend das Ranking das heißt wenn ich jetzt nur auf Desktop suche das ganze anschaue wie hier in der Frage dann einerseits werden die Core-Web-Vitals bei der Desktop suchen nicht dazu verwendet andererseits ist es so wenn wir die verwenden dann würden wir da nur die Desktop Informationen nehmen und nicht die Mobile-Version ebenso auf Mobile ist es so, dass wenn jemand auf ein Mobile-Gerät sucht und wir haben Chrome-User Experience-Report-Daten für Mobile-Geräte da dann nehmen wir die Mobile-Variante für den Ranking-Faktor nicht die Desktop-Variante dann nehmen wir auch nicht einen Mix sondern wir versuchen das so zu trennen dass wir wirklich für Desktop nur die Desktop-Faktoren nehmen für Mobile nur die Mobile-Faktoren und eben auf Desktop dass wir da die Core-Web-Vitals im Moment noch nicht nehmen und die Faktoren kommen ja sowieso erst im Mai ich weiß nicht ob sich bis dann diesbezüglich irgendwann man sagen gut auf Desktop nehmen wir auch die Speed-Faktoren dazu weiß ich nicht also das zielte vor allem da war auch das Indexing für die Mobile-Version beziehungsweise aus Sicht der Mobile-User die Ergebnisse für die Desktop-User quasi überschreibt also das ist so neu ist die Seite nicht ein Jahrchen aber das war so die Interpretation von Mobile First dass man guckt ok die Webseite als euch das Webprojekt funktioniert für Mobile-User sagen wir mal das Beispiel nicht besonders gut also renken wir das auch nicht besonders gut selbst wenn ein Desktop-User kommt das war so meine Frage es sind einfach sehr viele verschiedene Mobile-Varianten die da ins Spiel kommen wenn wir jetzt Mobile First Indexing anschauen ist es eigentlich eher technisch mit dem Indexieren von den Inhalten die auf dieser Webseite sind das heißt wir crawlen die Webseite mit dem Smartphone Crawler und nur die Information die wir per Smartphone sehen kommt dann ins Index hinein bezüglich diesen Ranking-Faktoren nehmen wir einfach das was wir im Index haben und nehmen das dann dementsprechend für Desktop oder Mobile unterschiedlich aber im Index ist effektiv dann nur die sag ich mal per Mobile das ist ja ein bisschen verwirrend dann müsste man irgendwie ein großes Diagramm machen oh ja bitte Twitter das andere was da auch noch ein bisschen hineinspielt ist Mobile Friendly quasi ob die Seite jetzt gut auf Mobile-Geräten geht oder nicht und das hängt auch nicht mit Mobile First Indexing zusammen ich glaube Mobile Friendliness ist ein Faktor bei den Page Experience Faktor also fließt das eher da als Ranking Faktor hinein so viel Mobile Varianten kann ich noch eine Frage stellen ja ich glaube wir haben alle Fragen die eingereicht worden sind euch leg los ich überhabe heute im Moment den Bestellablauf in unserem Online-Shop ich füge da mehrere Zahlungsarten hinzu jetzt frage ich mich halt wenn ich jetzt diese Logos von den neuen Zahlungsarten also z.B. Amazon Pay oder American Express unten im Food Time mit einem Blende habe ich dann dadurch irgendein Vorteil in der Suche also ich kann ja Google auch nicht irgendwie zeigen weil Google geht ja auch nicht durch den Bestellablauf dass da jetzt total toll ist deswegen denke ich mir einfach ich mache schöne Logos und binde die dann unten im Futter ein dann auch natürlich auf jeder Seite ich glaube das würde eigentlich nichts ändern aus unserer Sicht zumindest bezüglich der normalen Suche ich weiß nicht ob bei der Produktsuche so etwas noch dazu einfließen würde ich vermute auch eher weniger also Produktsuche meinst du dann Shopping weil die Ergebnisse sind ja jetzt auch in den normalen Desktop-Ergebnisse mit dabei und ich glaube da muss man jetzt auch nicht irgendwie Werbung dazu bezahlen oder so etwas sondern man kann das ja auch die ganzen Produkte für die Websuche quasi durch das Crawling freigeben und dann auch über the Merchant Center als Feed einreichen aber ich glaube da sind auch die verschiedenen Zahlungsmethoden sind da eigentlich nicht so relevant also die sind als Alltext dann die werden als Alltext eingebunden es gibt natürlich auch Besucher also Kunden die zum Beispiel nach Aufrechnung kaufen suchen würde ja dann auch schon aufpoppen also das würde dann zum Beispiel klappen ja ich meine wenn sie gezielt nach diesen Informationen suchen dann auf jeden Fall aber wenn jemand jetzt allgemein ich weiß nicht nach Deutschlandschlage sucht dann würde man nicht sagen da gibt es mehr Möglichkeiten das zu bezahlen also nehmen wir dieses Ergebnis auch nicht in der Konkurrenz also zu den anderen Online-Shops also wenn man jetzt von der Bewertung her kann ich mir ja schon vorstellen mehrere Zahlungsmöglichkeiten ist ja schon qualitativ besser wenn diese Wörter dann auf einmal drin vorkommen also Amazon zum Beispiel oder Google Pay wollte ich auch mit reinnehmen zum Beispiel ja eben wenn jemand gezielt danach sucht dann schon aber wenn man einfach allgemein sucht ich glaube da würden wir da einfach sehen ah das ist einfach ein Text der auf jeder Seite ist und nicht das besonders bewerten okay, okay, alles klein danke schon ich hätte sonst noch eine Neugierde in Richtung Internationalisierung okay zwar haben wir bei dieser Seite auch als Zielraum den russischsprachigen Raum das sind jetzt natürlich sehr viele Länder und jetzt nochmal wieder bei diesem HRF-Langentec Dilemma wir haben es momentan so gelöst dass wir eine Dotcom-Domain haben also für alle russischsprachigen Außer-Einstellungen ich frage mich jetzt nur ob das statistisch nicht vielleicht sinnvoll wäre wenn wir dann die verschiedenen Länder-Domains hätten, weil so haben wir de facto mehr Seiten im gleichen Content wir könnten das schon lösen über Canalicization danke und du hast auch mal gesagt bei gleichen Content dann indexiert ja auch nur eine Länder-Seite was dann ja wieder bedeuten würde ich bin wieder zurück auf der Anzahl von vorher von der Dotcom-Slash beispielsweise richtig richtig ja, ich denke das sind immer verschiedene Faktoren dazu hineinspielen und da gibt es wahrscheinlich nicht eine einzige Lösung die für alle Fälle entsprechend richtig ist weil in manchen Fällen ist es effektiv so, dass Benutzer eher nach quasi länderspezifischen Varianten suchen und dann macht es sicher Sinn dass man da einzelne Country Code Table of Domains verwendet für diese Seiten in anderen Bereichen ist es eher so dass wir einfach allgemein nach Informationen Sprache suchen und dann macht es vielleicht weniger Sinn, dass man die verschiedenen Länder-Domains hat, weil wenn man die Information stärker bündeln kann das heißt ein bisschen konzentrieren kann, können die natürlich auch ein bisschen besser Ranking im Vergleich zur Konkurrenz das heißt man hat dann einfach die Frage teile ich meine Informationen auf sodass sie ein bisschen besser passen auf die direkten Suchanfragen die kommen oder konzentriere ich meine Informationen ein bisschen mehr damit ich ein bisschen besser im Ranking für die eher allgemeinen Suchanfragen darbe und je nach Konkurrenzsituation je nachdem wie die Benutzer suchen macht vielleicht eher die eine Variante Sinn oder die andere Variante Sinn man könnte das natürlich auch kombinieren oder man kann dann vielleicht auch mal eine Länderversion ausgliedern und das einfach mal testen aber es gibt da keine Standard Antwort wo ich immer sagen würde ihr müsst das so machen oder so machen. Manchmal lohnt es sich aufzuteilen und ein bisschen breiter gefächer zu machen manchmal lohnt es sich eher zu konzentrieren und quasi ein bisschen stärkere Seiten bauen ja ich hab da deine Aussagen zu dem Thema schon in anderen Foren gehört und gelesen weil also ein Punkt den du immer wieder wieder holst ist die spezifischen Informationen machen dann natürlich auf länderspezifischen Seiten Sinn ich denke aber ganz viele von uns bieten vielleicht für den internationalen Raum die gleiche Dienstleistungen an also Christian beispielsweise mit seinen Flaggen, er sitzt in Deutschland und verkauft die Flaggen hier, verschickt sie auch noch mehr aus nach Bergen, Frankreich, sonst wo hin wir bieten eine Dienstleistung an wie sich ein russesprachigen Raumbild sichtet aber die Dienstleistung findet an und für sich hier statt immer exakt der gleiche Kontext, ich kann dann nicht sagen okay, ich schreibe das jetzt für den ukrainischen Markt oder für den russischen Markt etc. jetzt ist tatsächlich halt immer das Gleiche ja ja schwierig zu sagen ich könnte mir vorstellen dass in manchen Ländern für gewisse Arten versuchen dass man da vielleicht eher ein Country Code Table of a Domain eher trauen würde in anderen Fällen macht das vielleicht weniger aus, aber schwierig zu sagen eben was sicher auch passieren würde ist wenn die Informationen 1 zu 1 identisch sind dass wir beim Indexieren dann sagen das sind eigentlich die gleichen Sachen und versuchen das zu kombinieren der Vorteil ist dass wir das versuchen ein bisschen zu konzentrieren für dich andererseits ist natürlich der Nachteil da das in den ganzen Berichten in Search Console dass dementsprechend dann auch in solchen Fällen dann kombiniert und in vielen Fällen, wenn man das dann anschaut in Search Console, dann sind einige Sachen quasi konzentriert weil wir die sauber erkannt haben andere Sachen sind quasi noch einzeln indexiert und werden auch einzeln aufgeführt dann sind die Statistiken da einfach sehr schwieriger durchzugehen und zu bewerten was jetzt besser ist oder was schlechter ist okay, alles klar, danke ich denke Christian hat das sicher schon viele dieser Varianten gesehen, oder? Ja, auf jeden Fall, also was funktioniert bei Edgeworth-Lang ist, wenn es die gleiche Sprache ist also in Deutsch jetzt und dann Österreich, Schweiz und Deutschland sobald ich dann in Frankreich verknüpft habe mit Edgeworth-Lang hat das einfach nicht funktioniert also das, also meistens ist das bei Edgeworth-Lang eine Markensuche, wenn es einer nach nach Marke sucht, dann funktioniert das gut also Max Flux zum Beispiel als Marke wenn man Edgeworth-Lang dann über alle Sprachen verknüpft, klappt das aber jetzt nicht Florida also Florida Flagge, das funktioniert nicht, also weiß ich nicht warum aber also die gleiche Sprache unterschiedliche Regionen, das funktioniert mit Edgeworth-Lang okay aber habe ich ja auch jahrelang probiert ja ja, international SEO ist nicht, nicht besonders einfach cool noch irgendwelche weiteren Fragen ich glaube, irgendjemand wollte sich da noch melden ah, okay leg los, Johannes, oder frag einfach im Chat ah, okay Mikrofon geht nicht oder sonst, wenn es eine längere Frage ist, kannst du sie natürlich auch gerne bei den Kommentaren einfach auf YouTube noch dazunehmen und dann kann ich das nachher mal durchgehend und rausholen na ja, vielleicht, während Johannes noch schnell fertigtippt ganz kurz google will ja in Zukunft auch einzelne Abschnitte auf einer Webseite indexieren können gleichzeitig habe ich da einen interessanten Titel zu einem Feature gelesen was mich selber auch immer so ein bisschen erwartet nämlich das Überschreiben von Description-Tag kann das vielleicht sein wenn du jetzt mal den Blick in die Google barkst dass Google dann vielleicht irgendwann mal hergeht und ganze Passagen aus einer Webseite in die Description in den Service reinpacken, achte das und was sich als Weltmaster eingefahren macht das kann eigentlich immer sein ja, also auch unabhängig von diesem Passage Indexing was da kommen kann es ist so, dass Passage Indexing ist eigentlich vom Name her, ist das, würde ich sagen falsch, weil das bezieht sich wirklich eher auf das Ranking einfach, das heißt indexiert wird das genau gleich wie vorhin es ist einfach vom Ranking her dass wir erkennen können, dieser Teil weit unten auf der Seite ist besonders relevant für diese Suche die jemand jetzt gemacht hat und wenn wir das erkennen können versuchen wir das natürlich auch ein bisschen hervorzuheben in den Suchergebnissen meistens in Form von Description oder Snippet, der da gezeigt wird und so sieht man das dann wahrscheinlich dann auch in den Suchergebnissen dass wir dann eher, sag ich mal den Snippet austauschen vom Description Mattertag eher in Richtung quasi von diesem Ausschnitt, welches da besonders relevant gesehen wird aber das sind Sachen, die machen wir eigentlich auch allgemein in der Suche wenn wir erkennen können, dass der Description Mattertag nicht besonders relevant ist für den Benutzer oder sehr repetitiv ist innerhalb der Website, dann tauschen wir das auch aus und versuchen da ein bisschen bessere Beschreibung zu bringen für den Benutzer dass sie eher erkennen können was da jetzt relevant ist Okay, da von Johannes noch die Frage wegen der Google Business die Kategorien, die rausgenommen würden du sagst, ich soll es mal in den Support stellen, du reichst es dann entsprechend noch mal weiter Okay, da mit dem Link ich kann das mal ein bisschen weitergeben Vor ein paar Wochen habe ich hier schon mal gefragt und hast du gesagt, du hast da nicht direkt damit zu tun aber du könntest es weiterreichen das ist halt für uns ein schwieriges Problem weil die haben die Kategorien rausgenommen wir können es nicht mehr auswählen aber die anderen Mitbewerber, die das früher schon ausgewählt haben, die können diese Kategorien weiter verwenden das erschließt sich mir eben nicht das ist schon ein großes Problem für mich Okay, ich gebe das mal weiter ich kann allerdings nicht wahnsinnig viel versprechen weil ich nicht genau weiß, wie das organisiert ist auf der Google My Business Seite aber ich gebe das mal in das Team weiter da können sie das ein bisschen genauer anschauen Super, vielen Dank Okay, super zeitlich sind wir jetzt so ziemlich am Ende angelangt vielen Dank für eure vielen Fragen und Kommentare zwischen euch ich hoffe, wir sehen uns in einem der nächsten Hangouts wieder ich vermute, dass wir das schon noch im Dezember hinkriegen also nicht, dass wir jetzt schon ein frohes neues Jahr wünschen müssen aber vielen Dank fürs Kommen und auf jeden Fall auf bis zum nächsten Mal wieder Tschüss allerseits Tschüss, danke Tschüss, danke