 Jetzt sind wir live. Also, vielleicht erst mal kurz willkommen beim heutigen Webmaster Central Sprechstunden-Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Trans Analyst hier bei Google in der Schweiz und Teil von dem, was wir machen, sind solche Webmaster-Hangouts mit Webmaster SEOs und Publishers. Ben, du willst, kannst du gerade loslegen? Ich bin für alle Datenschutzgrundverordnung und jetzt haben ja einige Leute Angst vor Abmahnungen wegen irgendwelchen Verletzungen datenschutzrechtlicher Natur. Meine Idee wäre halt, dass man seitens die Impressionsdatenschutzerklärung AGB, die gerne gekreut werden, um noch solche Rechtsverletzungen zu suchen, dass man die grundsätzlich mal von der Indazierung ausschließt. Frage ist, ob man auf Google das irgendwie bewertet als Qualitätsmerkmal der Webseite, wenn ein Interessum, wenn eine Datenschutzerklärung oder ähnliches vorliegt. Ich glaube, das interessiert uns eigentlich nicht für die Webseuche. Wir schauen das eher einfach an, dass das sind halt Seiten, die nicht auf deiner Webseite sind. Wenn jemand gezielt nach diesen Stichwörtern sucht, dann ist wahrscheinlich dieses Thema eh nicht das Hauptthema deiner Webseite, von dem her ist das wahrscheinlich total okay. Also ich sehe da überhaupt kein Problem, dass man das mit Noindex versieht, sodass man sagt, man möchte das jetzt nicht indexiert haben oder dass man das sonst irgendwie vom Indexieren ausschließt. Das ist schlussendlich etwas zwischen dir und dem Benutzern deiner Webseite und die können ja trotzdem auf diese Erklärung gehen, auch wenn das per Noindex quasi blockiert wird. Wir würden es dann auch noch in die Robots.txt aufnehmen, dass grundsätzlich alle Crawler nicht berechtigt sind, diese Seiten zu lesen. Was natürlich passieren kann, ist, wenn du das per Robots.txt auch blockieren lässt, dass wir diesen Noindex nicht sehen. Dass wir da nicht wissen, sind da Inhalte, die wir indexieren sollten oder nicht? Das heißt, dass dann einfach diese URL separat indexiert ohne Inhalte. Wenn ich dann eine Side-Abfrage mache, dann sehe ich diese Seite, dass die Seite existiert auf der Webseite, aber man sieht natürlich nicht, welche Inhalte auf dieser Seite sind. In den meisten Fällen ist das total okay, weil man sucht ja nicht gezielt nach diesen Seiten und deswegen erscheinen sie auch nicht irgendwie gezielt in den Suchergebnissen. Super. Okay, damit haben wir das komplizierte rechtliche Thema schon mal angesprochen. Ich denke, dass das werden da sicher weiterhin Fragen und so kommen gerade in diesem Rahmen. Ich muss mal schauen, ob wir da etwas vielleicht allgemein auf dem Blog veröffentlichen können. Ist natürlich immer ein bisschen schwierig, wenn es um rechtliche Themen geht. Wenn wir dann sagen, so muss man das machen und dann sagen die gewisse Rechtsanwälte dann vielleicht, nein, das darf man nicht so machen. Aber aus unserer Sicht ist ja in erster Linie das wichtig, was für die Suche passiert und vielleicht können wir da trotzdem was zusammenstellen. Schauen wir mal die Fragen an, die eingereicht worden sind. Wenn ihr weitere Kommentare oder Fragen zu diesen Fragen habt, einfach nur melden. Ansonsten gehe ich mal ein bisschen durch, was wir da haben. Wir haben festgestellt, dass Ende Februar ein sichtbarer Switch bei den Trafficwellen von Google CH hin zu Google.com stattfindet. Wurde hier auf Seiten Google etwas angepasst oder kannst du hier zu etwas sagen? Ich weiß nicht genau, wann diese Veränderungen gemacht worden sind, aber irgendwann haben wir angefangen, dass wir auf, ich glaube, allen Länderdomains trotzdem die lokalen Inhalte zeigen. Das heißt, wenn ich auf Google.com gehe, sehe ich trotzdem hier in der Schweiz immer noch die Inhalte von Google.ch. Was natürlich ein bisschen einfacher macht für Benutzer, die lokalen Ergebnisse zu sehen, was aber natürlich auch bedeutet, dass Webmaster vielleicht eher, je nachdem nicht nur die lokalen Google-TLDs entsprechend in den References dann auch sehen. Ich weiß nicht, ob das im Februar gemacht wurde oder ob das schon früher gemacht wurde, aber ich vermute, da gibt es einfach so einen fließenden Übergang im Laufe der Zeit, dass Benutzer halt statt Google CH dann Google.com irgendwie im Bookmark haben oder als Startseite haben und dass da vielleicht im Laufe der Zeit so leichte Verschiebungen auch gibt. Was hat es mit dem neuesten Google Core Update auf sich, worauf genau zielt dieses ab, beziehungsweise welche Verbesserungen bringt es mit? Ich weiß jetzt nicht genau, welches Update du da ansprichst, weil wir machen ja ständig Anpassungen an unseren Suchergebnissen und das sind an für sich, sind das meistens, sind das einfach Anpassungen, wo wir denken, gut, wir können so die Relevanz der Suchergebnisse ein bisschen verbessern, die Qualität der Suchergebnisse für Benutzer etwas verbessern und da gibt es dann manchmal größere Anpassungen, manchmal gibt es kleinere Anpassungen und von dem her gibt es da meistens eigentlich nichts gezielt, das wo ich sagen könnte, wir schauen jetzt mehr auf den Metathag, der Skription Metathag oder auf den Titletag und deswegen sind die Suchergebnisse jetzt anders, sondern das sind natürlich größere zusammenhängende Systeme, die da versuchen, das Ganze ein bisschen zu verbessern. Ich maskiere auf meiner Website manche Links, um die Click-Rate intern tracken zu können und damit Links schöner sind, beispielsweise meine Seite von Com, Go, irgendein Artikel führt bei uns zu CNN. In Such Console werden mir diese maskierten Links unter Crawling-Fehler angezeigt, ist das ein Problem? Je nachdem wie das bei dir eingerichtet sind, kann das natürlich unterschiedlich in Such Console dargestellt werden. Wenn das wirklich nur ein Redirect ist von deiner Tracking-Ural zur Zielseite, dann können wir diesen Link natürlich auch folgen und sehen natürlich auch direkt, wo das hingeht und dann ist es aus unserer Sicht kein Fehler und ist auch nicht etwas, was man bewusst verstecken müsste. Manchmal hat man das Gefühl, dass wenn man diese diese Ziel irgendwie besser versteckt bei Google, dann hilft es der Website, weil Google dann denkt, das ist ein besserer Website, den ist eigentlich nicht so und deswegen muss man auch nicht irgendwas kompliziertes machen, um diese Links irgendwie gezielt zu verstecken, dass man da per Robots Text die ausschließt, dass man da 404 oder 403 zurückgibt und benutzt und dann trotzdem weiter leitet. Also die Sachen muss man in der Regel eigentlich nicht machen. Selbst bei Affiliate Websites, wo das ja oft gemacht wird, ist es eigentlich so, dass wir die Website selber aufgrund von den Inhalten versuchen zu bewerten und nicht unbedingt aufgrund von den Links, die auf dieser Seite sind. Es gibt ja viele Links, die irgendwie mit Monetisierung irgendwas zu tun haben und das ist aus unserer Sicht vollkommen okay, ihr müsst ja auch von irgendwas leben. Wichtig ist für uns einfach, dass die Inhalte auf diesen Seiten wirklich für sich stehen können, dass wir die Websites aufgrund von den eigenen Inhalten auch sauber rankten können. Für das Tracking gibt es natürlich auch andere Wege, das zu machen, wenn man das ein bisschen vereinfachen will, dass man da, ich weiß nicht, wie das heißt bei hTerminal oder mit JavaScript, dass man da quasi angeben kann. Wenn jemand auf diesen Link klickt, dann soll es da noch ein Ping auf eine andere Adresse machen, damit ihr das sauber auch zählen könnt. Das wäre vielleicht eine Variante oder eben, dass man halt einfach sauber ein Redirect macht von eurer Seite zur Zielseite. Dann ist es natürlich für uns ein bisschen einfacher, eure Seiten zu crawlen. Ihr habt diese Fehler nicht in Search Console und ihr könnt dann beispielsweise auch eigene Crawlers verwenden, um zu testen, ob ihr eigentliche kaputte Links auf euren Seiten habt, weil die können dann natürlich auch den Link verfolgen und sehen, dann ah, das geht auf eine 404 Seite. Ich muss diesen Link irgendwie verbessern oder anpassen oder vielleicht rausnehmen. Könntest du generell ein bisschen was erzählen, was mit den neuen Webseiten bei Google passiert? Wieso gibt es in den ersten Monaten ein großes Auf und Ab? Ist Google ein Google Sandbox, ein Mythos oder gibt es diese wirklich? Wir haben kein System bei Google, das gezielt neue Webseiten irgendwie unterdrückt in den Suchergebnissen. Also wir haben nicht irgendein Sandbox von dem her. Was aber einfach ist, gerade bei neuen Webseiten haben wir nicht so wahnsinnig viel Signale für diese Webseiten, wissen nicht so genau, wie wir diese in den Suchergebnissen zeigen können. Und da ist es so, dass unsere Algorithmen am Anfang erst mal einige Annahmen treffen und denken, vielleicht ist es richtig, dass wir sie so in den Suchergebnissen zeigen. Und im Laufe der Zeit können wir natürlich verschiedene Signale sammeln. Sehen wir auch, wie diese Webseiten verlinkt sind, wie der Kontext von diesen Seiten ist innerhalb von eurer Webseite und auch innerhalb von gesamten Web. Und dem entsprechend gibt es dann halt irgendwelche Schwankungen, wenn diese Signale langsam dazu kommen und irgendwann pendelt sich das dann in einen sauberen Zustand eher dann ein. Und das ist einfach das, was viele Leute sehen, dass wir dann manchmal einige Seiten vielleicht ein bisschen höher erst mal zeigen am Anfang, weil unsere Algorithmen einem ja wahrscheinlich ist das was ganz Tolles, was wir sehr vielen Benutzern zeigen müssen und vielleicht verändert sich das dann auch unten im Laufe der Zeit. Manchmal schätzen wir auch Seiten einfach ein bisschen tiefer ein und denken, ja, das ist eigentlich recht gut, aber nicht so top. Und dann sehen wir im Laufe der Zeit, dass es doch eigentlich eine sehr gute Webseite ist, die wir dann ein bisschen höher zeigen können in den Suchergebnissen. Und das ist meistens, was man da, was man da halt sieht, dass man da denkt, entweder das ist ein Sandbox oder in die Honeymoon Time oder wie man das halt immer nennt. Es gibt da die verschiedenen quasi Vermutungen, dass wir das entweder höher oder tiefer zeigen, aber eigentlich ist es wirklich nur etwas Praktisches, dass wir nicht genau wissen, wie wir es zeigen sollen und dann machen wir halt irgendwelche Annahmen und im Laufe der Zeit bestätigen sich diese Annahmen oder wir müssen das halt dann ein bisschen anders zeigen in den Suchergebnissen. Wir haben circa 340 PDF-Dateien online gestellt. Leider werden alle Dateien ohne Titel und ohne Meta Description angezeigt. Nach einer Suche konnte ich rausfinden, dass wir die Metadaten setzen müssen. Titel, Verfasser, Thema, Stichwörter. Ich frage mich, ob die Stichwörter von Google verarbeitet werden oder keine Verarbeitung stattfindet, wie bei den Meta Keywords auf den HTML-Seiten. Meines Wissens verwenden wir die Keyword-Wörter in PDF-Dateien überhaupt nicht. Kann sein, dass wir das ein bisschen anders verarbeiten, aber zumindest so, wie ich das verstanden habe, ist es so, dass wir die PDF-Dateien im ersten Moment eher umwandeln in eine Art HTML-Datei und wir indexieren dann quasi diesen HTML-Zustand. Und das sind ja dann in erster Linie einfach die Inhalte auf diesen Seiten vorhanden. Titel ist ein bisschen schwieriger, gerade bei PDF-Dateien, weil viele haben vielleicht kein Titel oder einen falschen Titel in der Datei selber. Das manchmal einfach ein interner Dateinnahme oder so etwas. Und was wir dann versuchen, ist einfach aufgrund von den Links auf diese PDF-Dateien festzustellen, wie können wir den Titel gestalten, sodass er einigermaßen sinnvoll ist. Und das sind wahrscheinlich die zwei Bereiche, die ihr da seht. Gerade wenn man jetzt sehr viele PDF-Dateien neu online stellt, dann geht das wahrscheinlich einfach in eine gewisse Zeit, bis wir genau wissen, wie soll man da die Titel sauber setzen. Und wenn ihr natürlich die Titel schon direkt setzen könnt, hilft uns das sicher. Keywords hingegen ist allerdings weniger ein Thema, weil wir sehen ja die Inhalte selber von diesen PDF-Dateien. Ja, also der Titel funktioniert auf jeden Fall von als Metadaten-Tag von PDF, also die Meta-Description halten nicht. Aber dann sagtest du ja Inhalt einstellen in die PDF-Datei, oder das werde ich dann als nächstes probieren auf jeden Fall. Super. Okay. Ich bin mal gespannt, wie das läuft. Eine Frage zur Bildersuche. Seit Monaten beobachte ich, dass die Bilder schnell im Index sind, jedoch nur kurze Zeit. Nach einem Tag sind sie komplett aus dem Index raus. Also da in einem Tag sind sie innerhalb von weniger Minuten indexiert und am nächsten Tag wieder raus. Meistens dauert es 14 bis 60 Tage, bis die Bilder wieder da sind und dann meist auf ihren alten Positionen. Ist das normal? Was passiert bei Google in der Zwischenzeit mit den Bildern? Kann ich diese Unterbrechungen im Bilderindex irgendwie vermeiden? Tja, weiß ich nicht, genau. Ich vermute, dass wir da einfach zwei oder vielleicht mehr verschiedene Systeme haben bei der Bildersuche, ähnlich wie bei der Websuche, dass wir versuchen, einige Sachen möglichst schnell zu indexieren und dass es dann in laufender Zeit quasi eher zum normalen Index übergeht, wo die Indexierung vielleicht ein bisschen langsamer ist. Bei der Websuche ist es so, dass wir versuchen, diese zwei oder mehrere Teile entsprechend anzupassen, dass der Übergang eher fließend ist, dass es keine Unterbrechungen gibt. Es klingt da so, dass bei der Bildersuche das nicht so gut klappt, dass wir das ein bisschen verbessern müssen auf unserer Seite. Gerade wenn das, sagen wir mal, bis zu 60 Tage geht, bis die Bilder wirklich indexiert sind, dann ist das natürlich ein ärgerlicher Unterbruch zwischen dem ersten Moment, wo die Bilder sichtbar waren innerhalb weniger Minuten oder Tage und dann nachher diese 60 Tage, wo gar nichts indexiert ist, finde ich ein bisschen, ja, nicht so optimal. Ich denke, da muss ich auf unserer Seite mal nachfragen, schauen, was wir da bei uns verbessern können oder wie man das allgemein so machen kann, dass dieser Übergang einfach ein bisschen fließender ist und nicht so mit solchen harten Unterbrechungen da ist. Wir haben circa 2.000 nicht gelistete Produktvideos auf YouTube, nicht gelistete Videos auf mein Noindex, bewertet Google Backlinks von Noindex-Seiten. Das ist ein kompliziertes Thema. Also bezüglich YouTube und nicht gelisteten Videos weiß ich nicht, wie die veröffentlicht werden. Wenn die Noindex haben, sind das ja eigentlich normale Noindex-Seiten. In der Regel ist es so, dass wir mit Noindex-Seiten, dass wir die im ersten Moment mal indexieren und sagen, gut, wir sehen da diese Inhalte, wir sehen aber auch, dass da Noindex ist, welches uns dann eigentlich sagt, dass wir die Seite nicht indexieren sollen. Das heißt, im ersten Moment sehen wir die Links von diesen Seiten und können die entsprechend auch dazuzählen. Im Laufe der Zeit denken wir jedoch, wenn dieses Noindex länger besteht, dann ist es eher wie eine Software 04-Seite. Das heißt, eine Seite, die nicht indexiert werden sollte und entsprechend können wir die ganz fallen lassen aus dem Index. Und dann im Laufe der Zeit lassen wir die ganze Seite entsprechend aus dem Index fallen, samt allen Links, die von dieser Seite waren. Das heißt, im ersten Moment sieht ihr vielleicht diese Links in Search Console und dann im Laufe der Zeit werden die Links wahrscheinlich auch wieder verschwinden, weil wir einfach denken, das sind wie Software 04-Seiten, die müssen wir nicht separat indexieren. Oft, wenn man das auf der eigenen Website macht, sieht man das dann auch in Search Console, dass bei den Software 04-Fählern, dass diese Seiten zum Teil dann auch da gelistet werden. Und wenn man die anschaut, dann sieht man, ah, das ist einfach ein Noindex auf diesen Seiten. Deswegen lässt Google die aus dem Index fallen. Wir haben auf unseren Produktzeiten sehr viele Links zu ähnlichen und dazugehörigen Produkten, zum Beispiel Produktvariation, Kundenkaufgen auch, Zubehör, gleiche Gruppe und so weiter. Teilweise handelt es sich um mehr als 130 Links zu anderen Produkten in unserem Shop. Die Inhalte sind im HTML enthalten. Ich vermute, dass wir dadurch einen Ranking-Problem haben und Google dadurch die falschen Seiten anzeigt. Bei Amazon werden solche Inhalte zum Beispiel nur auf User-Anforderungen nachgeladen. Fünf bis sechs Links ähnlichen Produkten sind im HTML kodiert, aber nicht so viele wie bei uns. Meinst du, dass Google verwert wird durch die hohe Anzahl von Links? Wir könnten die Inhalte theoretisch auch nachladen auf Knopfdruck. Ich denke, das sollte eigentlich kein Problem sein, dass man da so ein Netz spannt über die Website. Ich finde das im Allgemeinen auch gut, weil so kann man ein bisschen besser erkennen, was der Kontext ist von einzelnen Produkten innerhalb von eurer Website. Dann sieht man, dass da quasi ähnliche Produkte irgendwie verlinkt werden. Dann ist es auch viel einfacher für uns, von einer Seite den ganzen Rest der Website zu crawlen. Wir haben mehr Möglichkeiten zu verschiedenen Teilen der Website schneller zu kommen. Von dem her sollte das eigentlich kein Problem sein. Bezüglich Ranking und dass Google dadurch die falschen Seiten anzeigt, ist eher ein anderes Problem. Da lohnt es sich wahrscheinlich, die Seiten gezielt auch mal anzuschauen und zu überlegen, wieso kommt Google auf die Idee, diese Seite für dieses Thema zu zeigen statt den anderen Seiten, die ich da habe. Sind die anderen Seiten auch wirklich sauber indexiert? Sind die Inhalte wirklich klar erkenntlich, dass Google verstehen kann, das sind die Hauptinhalte hier und das sind quasi einfach Zubehör und weitere Inhalte oder sind quasi die Hauptinhalte einfach ein sehr kleiner Teil und der ganze Zubehör ist einfach der Hauptteil der Seite, dann ist natürlich auch ein bisschen schwieriger. Aber an und für sich, wenn man da verschiedene Querlinks hat, sollte das eigentlich kein Problem sein. Ich vermute, also ich weiß jetzt nicht wieso Amazon das so macht, aber ich vermute, das hat er einfach mit den Ladezeiten zu tun, dass die sagen, wir können die Hauptinhalte sehr schnell liefern, deswegen zeigen wir die sehr schnell für den Benutzer und die ganzen Querverlinkungen können wir entsprechend auch nachträglich zeigen für den Benutzer, die brauchen Zeit zum Laden, die machen die Seite größer und dementsprechend werden die dann auch nur nachgeladen, wenn der Benutzer wirklich danach auch fragt. Aber ich weiß nicht, wie die Entscheidungen dabei Amazon gelaufen sind, ob da SEO überhaupt ein Thema war bei dieser Umstellung oder ob vielleicht die Seiten auch trotzdem von unserer Seite her, per Rendering, ob wir da vielleicht trotzdem die ganzen Trailings sehen. Das ist schwierig zu sagen, nur aufgrund so, sag ich mal, einer Beispielseite. Eine Frage zum Umgang zu Seiten mit irrelevanten Content. Wir möchten unseren bisher auf einer subdomain liegenden Blog auf die Hauptdomain umziehen und wollen irrelevanten Seiten ungern mitnehmen. Wie sollten wir mit diesen Seiten umgehen? Können wir sie einfach löschen oder sollten wir sie auf jeden Fall weiterleiten? Das könnt ihr machen, ihr wollt. Ich denke, wenn sie längerfristig nicht gebraucht werden, könnt ihr sie direkt löschen. Das hängt ein bisschen davon ab, denke ich, wie ihr das zeitlich einbauen könnt, ob ihr sie vorher löschen wollt oder nach dem Umzug auf den neuen Teil löschen wollt. Das geht eigentlich beides. Es ändert aus unserer Sicht eigentlich nichts, wenn wir zuerst einen redirect sehen und dann einen 404 oder 410, ist das das gleiche aus unserer Sicht, wie einfach direkt einen 404 oder 410. Seit Jahren war ich mit meiner Seite bei Google an erster Stelle auf die Domain linken viele andere Webseiten, da die Information auf der Webseite für viele User eine Hilfe ist. Seit einigen Monaten gibt es einen Mitbewerber, welcher nun an erster Stelle angezeigt wird. Ich habe einen Backlink Tools ausprobiert und gemerkt, dass die Seite keine Backlinks hat. Dazu kommt noch meine Seite leg schneller, ist älter und hat mehr Links und mein Quail Code ist aufgeworbt, kein inline CSS. Wie kann es sein, dass der Mitbewerber besser gerankt wird aus meiner Webseite? Ich denke, das ist immer schwierig zu sagen. Auf jeden Fall ist es natürlich so, dass wir viele verschiedene Faktoren anschauen, wenn wir Websites anschauen bezüglich dem Ranking und das beschränkt sich nicht nur auf 3, 4, 5 Punkte bezüglich schneller und älter und mehr Links und Quail Code aufgehäumt, sondern es kommt da wirklich sehr viel zusammen, wo wir versuchen, die Signale herauszufinden, die uns sagen, dass es jetzt wirklich eine gute Seite für dieses Thema oder vielleicht denkt man auch, dass beide Seiten relativ gut sind für dieses Thema und dass wir dann nicht genau sicher sind, welches von diesen wir an erster Stelle stellen sollen. Auf jeden Fall zu den einzelnen Punkten ist natürlich so, dass Links werden bei uns trotzdem verwendet für verschiedene Faktoren innerhalb der Websuche, in erster Linie natürlich auch um neue Inhalte zu finden. Geschwindigkeit ist schon ein Rankingfaktor, aber aus unserer Sicht ist es eher ein Thema, ist die Seite einigermaßen schnell oder ist die extrem langsam? Wenn beide Seiten einigermaßen normal schnell sind, dann ist es, dass unsere Sicht eigentlich nicht etwas, wo wir sagen würden, dass es jetzt Ausschlag geben für ein Ranking, sondern wenn sie wirklich einigermaßen normal schnell laden, dann gibt es wenig Grund aus unserer Sicht zu sagen, ja, aber die ist 100 Millisekuten schneller, deswegen müssen wir die eher zeigen, sondern die sind eigentlich beide relativ gut. Bezüglich einigermaßen normal schnell ist natürlich schwierig da irgendwo eine Grenze zu ziehen, aber normalerweise würde ich sagen, wenn eine Seite mehrere Minuten braucht, um zu laden, dann ist das eher ein Problem für uns. Wenn sie schneller lädt, dann ist es einigermaßen okay für uns. Und ich vermute beide Seiten werden wahrscheinlich einigermaßen okay jetzt hier laden. Ich habe es ab jetzt nicht ausprobiert. Bezüglich Domain Alter ist es meistens eigentlich nicht so, dass wir da darauf groß achten und sagen, das ist jetzt eine älteren Webseite, deswegen muss sie höher ranken. Manchmal ist eine ältere Webseite halt auch eher veraltet und nicht mehr so interessant wie jetzt eine neue Version. Von dem her lässt sich schlecht sagen, nur aufgrund vom Domain, dass wir das irgendwie positiv oder negativ beurteilen sollten. Bezüglich Quellcode aufgeräumt. Aus unserer Sicht ist das überhaupt kein Thema, wenn die HTML-Seite einigermaßen lädt. Und aus unserer Sicht ist es einfach so, dass sie irgendwo eine Grenze haben. Ich weiß nicht, ob das irgendwie 10 Megabyte ist oder so etwas. Wenn die HTML-Seite weniger als 10 Megabyte ist, dann ist das aus unserer Sicht etwas, was wir direkt laden können und so vom Index für das Indexing verwenden können. Wenn sie größer ist, glaube ich, dann schneiden einfach irgendwo ab und nehmen die ersten 10 Megabyte der Seite für das Indexierung, für das ranking. Irgendjemand hat, glaube ich, mal eine Untersuchung extern gemacht und man kann das natürlich auch einigermaßen testen. Aber die meisten HTML-Seiten haben ja viel weniger als 10 Megabyte HTML drin und von dem her ist das weniger Ausschlag geben, welche Seite jetzt weniger HTML hat und mehr Text oder wie das gestaltet ist innerhalb der Webseite. Von dem her, wenn ich so die Punkte da anschaue, denke ich eigentlich nicht, dass die jetzt Ausschlag geben wären für das Ranking allgemein, sondern dass wir da einfach die verschiedenen Faktoren alle zusammenzählen und dass das alles insgesamt im Moment für uns eher für die andere Seite ausschlägt. Und da, was ich eher empfehlen würde, ist, dass man wirklich überlegt, was kann man machen, damit die eigene Seite nicht nur ähnlich ist oder gleich gut oder fast gleich gut ist wie die anderen, sondern dass sie wirklich signifikant einen Schritt weiter ist als alle anderen, so dass ihr zum Beispiel zu uns kommen könnt und sagen könnt, für diese Stichwort wird diese Seite gezeigt und nicht meine Seite dabei ist meine Seite eigentlich ganz klar die Seite, die an erster Stelle sein muss, weil sie wirklich weit aus viel bessere Inhalte hat zu diesem Thema und ihr macht euren Benutzern eigentlich keinen Gefallen, wenn ihr nicht diese Seite zeigt. Und das ist dann eher etwas, womit ich dann auch zum Ranking-Team gehen kann und sagen kann, wir machen da ein Fehler, dass wir da nicht die richtige Seite zeigen, hingegen, wenn beide Seiten einigermaßen okay sind, wenn man da vielleicht mit diskutieren kann, ja, da ist noch das dabei, da ist das dabei, da sieht das so aus, da sieht das so aus, dann sagt uns das Ranking-Team ja gut, die sind beide einigermaßen okay, die sind nicht beide falsch und von dem her müssen wir vom Ranking eigentlich nichts anpassen, um sicherzustellen, dass diese Seite wirklich an erster Stelle sein soll. Ja, ich denke, das macht es nicht gerade einfach für dich. Was ich da machen würde, vielleicht als ersten Schritt, ist einfach mal in einen von den Webmaster-Foreign gehen und damit andere Kollegen das besprechen und überlegen, was man vielleicht machen könnte, um die Website, um diese Seite selber wirklich signifikant zu verbessern. Gibt es vielleicht Sachen, die man irgendwie anders gestalten muss, sind diese Themen vielleicht jetzt nicht mehr so aktuell oder muss man da vielleicht andere Themenbereiche dazunehmen, irgendwie konkriminieren oder ausweiten, weiß ich jetzt nicht, aber da würde ich wirklich mit anderen das anschauen und möglichst auch objektiv mal einzeln und Punkte durchgehen und überlegen, was könnte man da wirklich machen, um das signifikant zu verbessern. Ich denke aber auch allgemein wird das wahrscheinlich auch ein Thema sein, dass in laufe der Zeit einfach weniger Interesse von Benutzern insgesamt hat, von dem her ist das wahrscheinlich eh schwierig zu sagen, es lohnt sich da jetzt irgendwie zwei Jahre Arbeit hinein zu stecken, um diese Websites zu verbessern, wenn es einfach immer weniger Leute gibt, die mit Kassetten überhaupt arbeiten und die überhaupt auf mp3 übertragen wollen, solche Sachen, da ist natürlich immer schwierig abzuwählen. Wir haben auf einer Seite ein Google Tag Manager Data Layer mit Page Name, der Googlebot ruft nun beispielsweise unsere Seite auf, obwohl der Data Layer kein HTML Link ist, dadurch werden für Google Millionen von Links auf 404 Seiten generiert, da es die URL in Wirklichkeit nicht gibt und diese für jeden Ort weltweit vorhanden ist. Wir haben dazu entschlossen, über Robots Text den Bereich zu blockieren. Nun beginnt Google Laut Search Console jedoch die Seiten trotzdem zur Indexierung, obwohl sich später ein 404 Fehler dahinter verbergt. Gibt es eine Möglichkeit Google daran zu hindern, eine vermeintliche URL aus dem Data Layer aufzuholen? Ja, das kann passieren, wenn wir irgendwo im JavaScript versehen, das aussieht wie eine URL, dann kann es sein, dass wir versuchen das auch entsprechend zu crawlen wie eine URL, einfach weil wir es sicher sein wollen, dass wir keine Inhalte von der Webseite verpassen. Meistens ist das ein Zeichen, dass wir gerne auch mehr crawlen würden von der Webseite, wenn mehr vorhanden wären, was ja eigentlich auch nicht schlecht ist. Bezüglich was man machen kann, um das zu vermeiden, in erster Linie ist es nicht problematisch, wenn hier einfach 404 zurückgeht, wenn Google diese 404 Fehler sieht. Wir lernen im Laufe der Zeit, dass diese URLs nicht zu irgendwelchen brauchbaren Seiten führen und wir crawlen die dann auch im Laufe der Zeit. Von dem her könnt ihr die durchaus per 404 blockieren und das wäre eigentlich aus unserer Sicht auch okay. Per Robots Text kann man das auch blockieren, was jedoch passieren kann, ist wie ihr da seht, dass wir die URLs trotzdem separat noch indexieren, weil wir nicht wissen, was dahinter steckt, weil wir sehen ja dann auch nicht, dass sie zu einer 404 Seite führt und dementsprechend kann es sein, dass unsere Systeme erst mal denken, gut, wir indexieren mal diese URL und wenn jemand gezielt danach sucht, mit einer Seilabfrage zum Beispiel, können wir die auch zeigen, in den normalen Suchergebnissen werden die aber meistens nicht dargestellt. Von dem her ist das auch für sie eine Möglichkeit, das so zu handhaben. Was man vielleicht auch machen könnte, ist je nachdem, ich weiß nicht wie das mit dem Tag Manager, mit der Data Layer funktioniert, aber dass man da URLs mit einem Fragezeichen verwendet, statt mit einem Streckstrich und dass ihr dann aufgrund vom URL Parameter Tool in Search Console angibt, alle URLs mit diesen Parameter, also mit etwas nach einem Fragezeichen zum Beispiel, sollen gar nicht indexiert werden und so können wir uns zum großen Teil auch das Crawling separat sparen und wenn diese URLs dann auf einer 404 Seite führen, dann selbst wenn wir sie crawlen, würden wir nichts indexieren. Ich denke, das wäre wahrscheinlich eine Möglichkeit, ich weiß allerdings nicht, ob das mit dem Tag Manager so auch funktioniert und das so umsetzen könnte. Aber auf jeden Fall, 404 oder Robots Text sind auch gute Möglichkeiten. Im Laufe der Zeit lernen wir, dass diese URLs nicht zu brauchbaren Inhalten führen. Wir crawlen die dann auch weniger. Im ersten Moment, ich denke mal vielleicht die ersten paar Monate oder so, werden wir sicher versuchen, da möglichst vielen noch zu crawlen und das sieht ihr, das dann entsprechend auch in Search Console, aber das pendelt sich dann auch wieder ein bisschen ruhiger ein. Wir konnten Seiten News Umstellung auf unsere App-Seiten, auf fast allen Seiten etwas seltsam an Direct Traffic verstellen. Unsere Direct Sessions sind inzwischen 500% bis 2500% gestiegen, während unsere Organic Sessions um 30 bis 70% gefallen sind. In Summe konnten die Direct Sessions den Verlust von Organic nicht kompensieren. Könnt ihr erläutern, wo dieser Direct Traffic herkommt bzw. wie der Shift zustande kommt. Es ist natürlich schwierig zu sagen, ohne die genauen Seiten anzuschauen, was da genau passiert. Aber ich könnte mir schon vorstellen, dass gerade mit dieser Google News Umstellung, die wir gemacht haben, dass da vielleicht mit dem Refer irgendetwas noch nicht ganz sauber läuft, dass wir das vielleicht ein bisschen anpassen müssen. Ich habe das auf jeden Fall mal an das News Team und an das M-Team weitergegeben, damit sie das mal ein bisschen anschauen können und überlegen können. Müssen wir da vielleicht auf unserer Seite etwas anpassen oder müssen wir das eben wie genauer dokumentieren, damit ihr das auch sauber trappen könnt. Ich denke, ein von den beiden Seiten oder vielleicht beides, müssen wir dann mal noch anschauen. Aber in Grunde genommen ist natürlich mit einer Umstellung auf ein neues News System schon mit ein bisschen Schwankungen zu rechnen, weil das wird ihr alles auch ein bisschen anders gehandhabt innerhalb von Google News. Aber wie genau die Zahlen da sein sollten, weiß ich jetzt nicht. Wir sind ein Live-Ticker Software und werden von unseren News Kunden als iFrame mit iFrame Resize JS eingebunden. Beim ersten Indexieren der Mutterseite, angeschlossen über die News-Seite, bei unserem Kunden, wird das iFrame korrekt gesendert und der iFrame InHard mitindexiert, wird dann die Mutterseite erneut abgeendet, scheint Google about das iFrame nicht mehr so render. Die Änderungen an der Mutterseite werden indexiert, die Neuigkeiten im iFrame nicht. Der vermutete Grund, die Mutterseite lädt bei JavaScript insgesamt 60 Ads und comment iFrames nach, was zu lange dauert. Wie bekomme ich den Googlebot dazu, dass er jedes Mal mein iFrame neu mit rendering soll? Schwierig zu sagen, ohne die Seiten genau anzuschauen. Ich vermute, was da passiert ist, dass wir die embedded resources, also in diesem Fall der iFrame oder die JavaScript-Dateien oder die Server-Antworten, die dazu führen zu diesen einzelnen Ressourcen, dass wir das ein bisschen stärker cashen auf unserer Seite, so dass wir die HTML-Seite zwar relativ schnell wieder aktualisieren, die einzelnen gecached Inhalte jedoch weniger schnell aktualisieren und dementsprechend seht ihr wahrscheinlich diesen leichten Unterschied, dass wir da die HTML-Seite relativ schnell wieder anpassen und die Sachen, die per JavaScript noch eingebunden werden, einfach ein bisschen später entsprechend dazu noch nicht. Kann ich da? Das lässt sich eigentlich nicht so einfach beheben. Kann man da über einen HTTP-Header, einen NoCache oder setzen, der perspektiert wird? Eigentlich weniger, weil wir cashen das natürlich ein bisschen anders aus, dass im Browser gemacht wird, einfach aus praktischen Gründen, weil wir da nicht alle JavaScript-Dateien und CSS-Dateien jedes Mal wieder nachladen können. Was, ja, wir könnten das am besten machen. Ich vermute, also am einfachsten wäre es, wenn die Inhalte wirklich innerhalb der Seite wäre und nicht per I-Frame oder per JavaScript. Was ich vielleicht mal testen würde, ist, ob das besser geht, wenn man die Inhalte direkt per JavaScript einbindet, statt über ein I-Frame. Ich könnte mir vorstellen, dass das auf unserer Seite ein bisschen besser funktioniert, weil wir da einfach bei nur dem JavaScript neu verarbeiten müssen und nicht noch diesen I-Frame und die I-Frame-Inhalte noch dazu nehmen müssen. Interessant ist das, dass dann am einen Tag später über Nacht wird es dann quasi wieder komplett korrekt gerendert. Das würde das quasi von einer anderen Abteilung übernommen. Ja, kann sein. Ja, weil bei uns ist es natürlich so, von Crawling und Indexing-R versuchen wir die HTML-Seite erst einmal zu indexieren. Und das Rendering findet dann in einem separaten Schritt statt. Das kann unter Umständen einige Tage oder vielleicht eine Woche später passieren. Und so sieht ihr wahrscheinlich da quasi das hier wird zuerst gemacht und danach kommt noch der I-Frame-Inhalte irgendwann später noch dazu. Und das ist wahrscheinlich da diesen Unterschied, den ihr da seht. Ich würde es mal direkt mit JavaScript probieren und wenn das auch nicht funktioniert, vermute ich, dass man das zumindest per JavaScript selber nicht so einfach hinkriegt. Aber vielleicht klappt das ein bisschen besser, wenn man das nur per JavaScript macht und nicht per JavaScript plus I-Frame. Angenommen, eine Schweizer Webseite hat deutsche französisch- und italienisch-sprechende User und somit auch trilinguale Client-Anzeigen auf allen vorhandenen Kategorie-Seiten. Vermutest du SEO-technische Vorteile, wenn die enthalteten Anzeigen auf drei verschiedenen Sprach-Versionen pro Kategorie gesplittet sortiert werden? Das heißt nur deutsche Inserate auf deutschen Kategorien und nur französische Inserate auf französischen Kategorien. Ich denke, das würde Sinn machen, einfach aus dem Grund, dass es für uns dann auch einfacher ist zu erkennen, was die Hauptsprache von den einzelnen Bereichen ist. Das heißt, gerade bei den Kategorien-Seiten, wenn da die verschiedenen Sprach-Versionen untereinander dabei sind, dann ist es schwierig für unsere Systeme zu sagen, dass es jetzt eindeutig eine deutsche Seite, wenn jemand auf Deutsch sucht, können wir die Seite gut zeigen, oder es ist eindeutig etäenisch, sondern es ist ja dann eine Mischung. Und wenn man das aufteilt und sagt, nur die deutschen Inserate auf der deutschen Version, nur die französischen Inserate auf der französischen Version, dann ist das Problem nicht mehr da. Dann sehen wir wirklich ganz klar, dass es die französische Seite, dass es die deutsche Seite. Und von dem her könnte ich mir schon vorstellen, dass das ein bisschen helfen würde. Es hängt natürlich ein bisschen davon ab, wo der Traffic auf der Webseite hingeht. Wenn der Traffic zu diesen Kategorien-Seiten hauptsächlich geht, dann spielt das sich eine Rolle. Wenn hingegen der Traffic eher zu den einzelnen Inserateseiten gibt, wenn ihr einzelne Seiten vor Inserat habt, dann habt ihr natürlich schon auf diesen Inserateseiten die Sprache eindeutig. Dann ist ein Inserat auf Deutsch und das ist dann halt alles auf Deutsch. Und dann spielt das wahrscheinlich weniger eine Rolle. Das heißt, ich würde im ersten Moment mal überlegen, wo geht der Traffic hin von der Suche? Und würde es überhaupt etwas sichtbar verändern, wenn wir jetzt diese Seiten verändern, geht da der Traffic überhaupt hin? Würden die das überhaupt merken? Würde das für dich Suche überhaupt eine Rolle spielen? Und wenn da zum Beispiel kein Traffic hingeht über die Suche, dann ist das vielleicht auch weniger ein Thema. Aber normalerweise würden wir schon empfehlen, dass man wirklich pro Sprache eine klare Version aufmachen kann. Auf unser Domain läuft zurzeit ein RB-Test. Hierbei wird der Testgruppe ein Cookie gesetzt und eine andere Version ausgespielt. Der Googlebot ist auch anhand seines User Agents vom Test ausgeschlossen und sieht wie alle User ohne Cookie die unveränderte Version. Bei einem Fetch-und-Render-Test konnten wir aber feststellen, dass Google in der Visitor-Ansicht dennoch die neue Version das Seite zu sehen bekommt. Wir halten uns an die Empfehlungen zeitlich begrenzt, bis ca. 14 Tage, URLs identisch, der Split nur auf Cookie-Basis. Der Inhalt ist für Menschen ähnlich, aber gerade aus technischer Sicht gibt es natürlich Unterschiede. Wie geht Google hier bei UserView mit Cookies um und könnte das UserView, nicht like-Bort-View, zu unten missverständlich ein Signal bei Google führen? Ich habe jetzt da die beiden Versionen nicht genau angeschaut, aber normalerweise sollte es eigentlich schon so sein, dass Googlebot keine Cookies ausspielt. Von dem her sollte es eigentlich, jetzt in eurem Fall eigentlich immer der gleichen Gruppe, zugeordnet sein. Es gibt ganz wenige Websites, wo wir Cookies wieder zurückspielen und das ist meistens nur der Fall, wenn wir sehen können, dass wir die Inhalte gar nicht zu sehen bekommen, wenn wir keinen Cookie haben. Manchmal gibt es ja so Situation, dass da irgendwie ein Sicherheitsgrenze quasi vorgeschaltet wird und dass man da einen Cookie nehmen muss und dann mit dem Cookie sieht man dann erst die Inhalte. Das sind solche Situationen, wo wir dann mit dem Cookie mal arbeiten würden, aber das ist sehr, sehr selten der Fall. Das heißt, es wird ziemlich sicher der Fall sein, dass wir bei euch jetzt kein Cookie irgendwie zurückgeben würden. Und wenn ihr über Fetch und Render seht, dass Googlebot die Version quasi mit Cookie auch sieht, dann müsste irgendwo in der Logik vielleicht irgendwo etwas auf eurer Seite schiefgehen, dass ihr Googlebot irgendwie anders einstuft als jemand mit einem Cookie. Von dem her würde ich das vielleicht mal genau anschauen. Bezüglich halte mein AB-Test, ist das aus unserer Sicht, ist das vollkommen okay? Ich denke, es ist normal, dass man AB-Tests macht. Das hilft euch auf jeden Fall die Website zu verbessern. Man muss solche Sachen natürlich auch austesten und mit dem AB-Test lässt sich das am einfachsten testen. Von dem her ist es für uns okay, solange die Inhalte an und für sich ähnlich sind. Das heißt, wenn jemand nach einem Thema sucht und auf der A-Version passt diese Website gut dazu, dann sollte die B-Version auch gut dazu passen. Man sollte nicht jetzt eine Fahrrad-Website haben und dann zeigt in der B-Version Autos zum Beispiel. Das wäre natürlich für Benutzer auch verwirrend. Das wäre aus unserer Sicht eher problematisch, wenn das einfach verschiedene Versionen vom gleichen Produkt sind oder vom gleichen Benutzer Intent irgendwie zusammengefasst werden, ist das vollkommen okay aus unserer Sicht. Ob ich bin auch hier. Der Google Crawler-Bot, also die linke Ansicht in dem Search Console Fetched Render, der sieht immer die Original-Version. Aber der so hat der User ihre Seite gesehen. Der gerät in den Testereien und sieht variante Gräben. Okay, das ist wahrscheinlich weil wir da einen anderen User-Agent nehmen, um diese Seite so in der User-Sicht zu laden. Und akzeptiert der User-Bot, nenne ich ihn mal, würde der Akzeptieren? Glaube nicht. Glaube, das ist weg. Also die Idee ist da wirklich, dass man einfach feststellen kann, wenn Google Bot zum Beispiel deutlich weniger Inhalte sehen würde, dass man das aufgrund vom Screenshot feststellen kann. Das ist nicht etwas, was wir regelmäßig machen mit den Seiten Crawl, mit Crawl, mit Google-Bot in erster Linie. Und es kann höchstens sein, dass das Webs beim Thema kommt und sagt, ja, was passiert, da ist da eigentlich Cloking, macht man da komische Sachen auf dieser Website. Aber das in einem solchen Fall, wo A-B-Tests stattfinden, ist das überhaupt kein Thema. Die schauen das an und sehen, ah, das sind da verschiedene Versionen vom gleichen, überhaupt kein Problem. Alles klar, vielen Dank. Ja, bitte. Wenn ihr auf einer Seite drei Links zur gleichen Zielseite findet, ignoriert ihr zwei der drei Links, wirken sich diese Mehrfach-Links dennoch negativ auf das Linkpower aus, die dann an der Zielseite ankommt. Ja, ich weiß jetzt nicht genau, wie wir das auf unserer Seite quasi machen. An und für sich sind das, sag ich mal, interne Sachen, die eigentlich für den Webmaster keinen großen Unterschied machen sollten. Das heißt, wir haben das nicht so definiert, dass wir sagen, wenn wir drei Links finden, nehmen wir nur den ersten Link oder nehmen wir eine Summe von diesen Links, sondern wir versuchen, diese Seiten entsprechend einfach in Kontext zusammenzunehmen und da kannst euch auch sein, dass wir da die drei Links zusammennehmen und sagen, da ist ein Linkenkel dabei, da ist keiner dabei, da kann man das zusammennehmen. Es kann auch sein, dass wir manchmal dann nur den ersten Link nehmen, je nachdem, wie wir das gerade verarbeiten. Von dem her, aus meiner Sicht ist es nicht so, dass man das Webmaster irgendwie umbauen muss, dass man sagen muss, ja, das sind drei Links, deswegen muss ich, dass ein Link zusammenklappen, damit das irgendwie besser aussieht für Google. Ich würde die Sachen einfach ganz normal verlinken, wie das auf eurer Seite halt gerade passt. Welches Google Patent oder welche Quellen sollte man derzeit zum Thema Textmining und NLP aktuell am intensivsten studieren, um über Daten basiert, wie sprachlich hochwertige Texte das bestmögliche Ergebnis sowohl an Bot als auch an User zu liefern. Inzwischen sind die diversen Tools und Meinungen unüberschaubar. Ja, ich habe da keine Patentempfehlungen, leider. Ich denke, da lohnt sich, was kann man da empfehlen. Ich denke, es lohnt sich auf jeden Fall, die verschiedenen Sachen mal anzuschauen, auch wenn verschiedene Tools unterschiedliche Meinungen haben, lohnt es sich vielleicht, wenn man sich in das Thema intensiv mit dem Thema intensiv beschäftigen will, dass man es auch mal überlegt, wie kommen diese Tools überhaupt zu diesen Ergebnissen, dann kann man auch eher einschätzen, welche Ergebnisse sind für mich relevant und welche Ergebnisse sind für mich weniger relevant. Und da führt eigentlich nichts dran vorbei, dass man halt wirklich auch die Zeit mal nimmt und die verschiedenen Sachen anschaut und überlegt, was passt wirklich bei meiner Seite, was passt bei meiner Seite weniger. Und oft kommt das dann auch zurück eher zum Thema, was funktioniert am besten für unsere Benutzer. Und nicht unbedingt, was funktioniert am besten für Googlebot im Moment, sondern Google versucht natürlich immer bessere Ergebnisse für Benutzer zu liefern. Und dementsprechend müsst ihr nicht auf das nur quasi ansteuern, was Googlebot im Moment macht, sondern wirklich überlegen, Google will in diese Richtung gehen und möchte den Benutzer eher relevante Ergebnisse bringen. Wie kann ich sicherstellen, dass mal passiert ist, dass einfach Benutzer die Warnung in Chrome sehen. Für die Google-Suche sollte das eigentlich keine Rolle spielen, weil wir sehen das immer noch als SSL-Version an. Was manchmal passiert ist, dass, wenn wir erkennen können, dass das ZFB-Card gar nicht gültig ist, dass wir dann eher zur HDTP-Version zurückgreifen. Wenn das ZFB-Card einigermaßen gültig ist, wenn das im modernen Browser funktioniert, ist das aus unserer Sicht vollkommen okay. Also egal, ob man da jetzt ein teueres ZFB-Card hat oder ein kostenloses ZFB-Card, ob das ZFB-Card für drei Monate hält oder für zehn Jahre, ist das aus unserer Sicht alles gleich. Dann hätte ich noch eine Frage. Und zwar, dass Ad-Up-Devolution ja in Kürze kommen, also ab Juli gibt es da im Vorfeld nochmal genauere Informationen. Google argumentiert ja, dass das für die User-Experience unheimlich wichtig ist und in dem Zusammenhang wäre für mich auch ganz interessant zu wissen, ob Google beim Crawling der Webseiten auch User-Experience Komponenten in Betracht zieht. Zum Beispiel, wenn man Ankerpunkte auf der Webseite hat, die man über eine On-Page, also Seitennavigation direkt anspringen kann, gerade auch Mobile-Geräten hat man ja bei langen Webseiten vielleicht 30, 40 Screens zu scrollen, da würde so eine Navigation sicherlich praktisch sein. Wird das bewertet? Für das Crawling und Indexing verwenden wir das eigentlich gar nicht. Also gerade so User-Experience-Elemente in dem Sinn, dass wir erkennen können, dass es jetzt nur für User-Experience gemacht, das verwenden wir eigentlich gar nicht. Es kann sein, dass solche Elemente natürlich auch eigentlich intern Links haben, dass die das Crawling allgemein vereinfachen oder komplizierter machen, aber an und für sich ist es nicht so, dass wir beim Crawling oder beim Indexing sagen, da sind jetzt diese User-Experience-Punkte verwendet, deswegen ist das besser für die Webseite, wir crawlen das halt mehr oder wir indexieren das ein bisschen anders. Sondern das ist wirklich etwas, was quasi viel später dann auch irgendwie passiert. Und mit dem Speed-Update ist es so, dass wir wahrscheinlich, also so wie ich das im Moment sehe, gibt es eigentlich nicht wahnsinnig viel mehr, was wir sagen können oder müssen, weil die verschiedenen Testprogramme sind ja da, man kann die Seiten selber testen. Es ist aus unserer Sicht einfach von dem her vielleicht ein bisschen komplizierter für den Webmaster, dass wir nicht sagen, wir nehmen diese Zahl und das ist unsere Messlatte, die wir verwenden, sondern wir versuchen da verschiedene Messenwerte zu nehmen und versuchen aufgrund von diesen verschiedenen Messwerten festzustellen, wie sieht das insgesamt aus? Weil oft kann man ja einzelnen Zahlen irgendwie optimieren, dass man sagt, jetzt im PageSpeed-Inside, diesen Score kann ich optimieren, ohne dass die benutzersichtbare Geschwindigkeit sich wirklich verändert hat. Und das wollen wir einfach vermeiden, dass man nicht einfach hingeht und sagt, diese Zahl möchte ich optimieren und ist mir egal, was mit dem Rest der Website passiert, sondern wir möchten wirklich das insgesamt, dass diese Seiten wirklich auch schnell laden. Kann man noch Zeit für eine Frage? Ja, Link los. Zwar als Submaschinenoptimierer habe ich zum Beispiel mal im Restaurant, was ja ein Local Business ist, gute Arbeit geleistet, habe in dem Ort, wo 40, 50 Restaurants sind, ist dieses Restaurant schon das erste Restaurant, was auf der Suchergebnisseite aufgelistet wird nach Speisekarte.de und Shippadvisor. Aber es stehen ja noch die Local Businesses, also Google Maps Ergebnisse oben drüber. Dort ist die Seite, also ist das Restaurant nicht so schnell zu finden. Deswegen wäre meine Frage, kann man vielleicht mal, wie man dann vom Maps Team in einem Spezial-Hangout hin zuziehen, dass man da vielleicht mal eine Informationsbräne schafft, wo man Fragen stellen kann, wo Empfehlungen gegeben werden. Das sind halt die relevanten Ergebnisse, auf die es für viele Betriebe Ja, das finde ich eine gute Idee. Da muss ich mal schauen. Ich weiß nicht, ob wir jemand auf Deutsch haben, aber vielleicht können wir zumindest auf Englisch das auch mal einreihen, dass tatsächlich etwas, was immer wieder kommt und aus unserer Sicht sehen wir die die Local Ergebnisse natürlich nicht als Teil der normalen Websuche an, von dem her können wir zumindest nicht wahnsinnig viel sagen, aber vielleicht kann jemand vom Maps Team dann doch einiges dazu sagen, worauf man achten muss oder was man da vielleicht gezielt machen kann, um das zu verbessern oder so zu gestalten, dass Google das besser erkennen kann. Manchmal ist ja nicht eine Frage davon, dass man eigentlich einen Hebel einfach bewegt, um das Ranking zu erheben, sondern dass Google die Sachen einfach nicht sauber erkennen kann und deswegen das nicht so dargestellt wird in der Suche. Aber das müssen wir vielleicht machen. Ich war nämlich in einem Workshop vergangener Woche und da wurde unter anderem der Google My Business Account extrem in den Himmel gehoben und da wurde behauptet, dass sich das schon auf die Positionierung der Webseite in den Suche-Regierungen auswirkt. Genauso die Einträge bei Portalen wie Mine-Stadt oder Tom-Tom-Laligation-System, stimmt das oder ist es erst mal einfach nur Backlinks, wenn man durch diese Ronchen-Bucheinträge bekommt? Ja, also meines Wissens hat Google My Business eigentlich gar keinen Einfluss auf die normalen Web-Ergebnisse. Man sieht natürlich die lokalen Ergebnisse und mit Google My Business Eintrag hat man natürlich die Möglichkeit quasi in diesen lokalen Ergebnissen zu sehen und man kann auch die Webseite dort angeben. Das wird, glaube ich, den Search Console auch entsprechend gezählt aus Impression, aber ansonsten hat das keinen Ranking-Einfluss auf die normale Webseite. Cool. Okay, dann machen wir doch hier mal Pause. Vielen Dank für die vielen Fragen und Kommentare und Ideen für die nächsten Hangouts. Muss man schauen ob ich da jemand vom Maps Team finden kann, vielleicht ein bisschen was zu sagen kann. Ansonsten stelle ich sicher mal die nächsten Hangouts, die nächsten Tagen wieder ein. Das heißt, wenn weitere Fragen kommen, könnt ihr die gerne da einstellen oder natürlich auch im Hilfohrung sind natürlich auch da vorhanden. Okay, vielen Dank und bis zum nächsten Mal. Tschüss, allerseits.