 Okay, herzlich willkommen beim heutigen Google Webmaster Central Sprechstunden Hangout. Ich bin Johannes Müller, Webmaster Trends Analyst bei Google in der Schweiz. Und Teil von dem, was wir machen, ist solche Hangouts mit Webmaster und Publisher, die Fragen zu Websearch oder zu Google allgemein haben. Wie immer, wenn einer von euch möchte, könnt ihr gerne gerade loslegen, ersten Fragen stellen. Okay, sonst sind da schon einige Fragen bereit geworden. Ich gehe die mal von oben durch. Wenn einer von euch zu den Fragen oder Antworten weitere Informationen hat, einfach loslegen. Okay, macht es Sinn, einen nicht mehr vorhandenen Bildurale auf ein thematisch passenden Artikelurale umzuleiten. An und für sich nicht. Also, wenn ich ein Bildurale nehme und das weiterleitet, dann nimmt Google an, dass die Weiterleitung auch zu einem Bild geht. Und wenn jetzt ein Bildurale auf eine Seite weiterleitet, dann können wir mit dem eigentlich nicht wahnsinnig viel anfangen, weil es eine war eingebunden in einer Website, und auf einmal ist das eine eigenständige Website, und dann haben wir da eigentlich keinen passenden Zusammenhang. Das heißt, wenn ihr denkt, das macht für eure Benutzer Sinn, könnt ihr das natürlich machen. Für uns hat das allerdings keinen Einfluss. Es ist nicht so, dass da irgendwelche Signale vom Bild danach zur Seite weitergegeben werden. Wir unterscheiden relativ stark zwischen einer normalen Seite, irgendetwas, was aus H-Termal-Seite in den Suchergebnissen gezeigt werden kann und ein Bild, welches innerhalb einer H-Termal-Seite eingebunden ist. Eine Firma mit Sitz in Österreich will nun international durchstarten. Und das geht da ein bisschen weiter quasi, wie man das am besten mit den Domains macht. Ob man mit domain.eu eine Weiterleitung macht. Zum Beispiel auf einen Unterverzeichnissen, Strich D.E. und dann zum Beispiel in Englisch als Hauptsprache auf der Hauptseite machen. Grundsätzlich könnt ihr da strukturieren, wie ihr wollt. Also mit einem EU-Domain ist das aus unserer Sicht ein generischer top level Domain. Das heißt, ihr könnt da Länderzuordnung machen für Unterverzeichnisse, für Subdomains. Ich würde, wenn möglich, vermeiden, die Länderzuordnung allzu fest zu wechseln. Das heißt, wenn man zum Beispiel den Route-Pfad nimmt und sagt, das ist für Deutschland, wenn man den wechselt auf zum Beispiel eine englische Sprache, englisches Land zum Beispiel wechselt, dann geht das wahrscheinlich eine Weile, bis das neu übernommen wird. Und von dem her würde ich vorschlagen, dass wenn man das irgendwie machen kann, dass man von Anfang an mit Strich E.N. oder Strich U.K. zum Beispiel arbeitet, damit man das gezielt auch so lassen kann. Bezüglich der Sprache, also wenn es nicht um die Länderzuordnung geht, könnt ihr das machen, wie ihr wollt. Das wird ihr dann pro Seite ausgewertet und das wird mit dem hreflang dann kombiniert. Aber eben Länderzuordnung würde ich vermeiden, dass man da allzu fest wechselt. Dann eine Frage, wie man das mit der Startzeit am besten macht, ob man da keine Inhalte zeigt, ob man da quasi ein Logo mit Sprachauswahl zeigt auf der Startzeit oder ob man automatisch eine Weiteleitung macht. Das könnt ihr machen, wie ihr wollt. Wir haben einen Blog-Post, eine Weile zurück, die gezielt auf das Problem ein bisschen eingeht und die verschiedenen Varianten auflistet und wie man das mit hreflang markieren kann. Das Einzige, worauf ich achten würde, ist, dass man bei automatischen Weiteleitungen darauf achtet, dass die einzelnen Sprach- oder Länderversionen trotzdem gecrawled werden können. Das heißt, die Startzeit kann durchaus eine automatische Weiteleitung machen. Aber die einzelnen Sprach- und Länderversion, wo das dann weitergeleitet wird, die müssten wir normal crawlen können. Einfach aus dem einfachen Grund, dass wenn wir die verschiedenen Sprach-Versionen nicht crawlen können, können wir sie auch nicht indexieren. Hallo. Ja. Johannes, hi Klaus. Und die X-Default ist ja noch erforderlich. Ja, ich würde, gerade wenn man so eine Startzeit hat mit einer Auswahl oder mit einer automatischen Weiteleitung, würde ich die als X-Default markieren. Damit wir eigentlich einfach wissen, dass das jetzt quasi die Version ist, die gezeigt werden kann, wenn wir nicht wissen, welche sonst gezeigt werden können, damit dann nicht quasi alle Varianten gleichzeitig erscheinen in den Suchergebnissen. Danke. Ich glaube, die nächste Frage ist ähnlich. Hat der Google-Baut Probleme beim Crawlen einer Website, wenn diese eine cookie-basierte Sprach-Steuerung hat? Es geht eigentlich um ein Overlay, den man auf der Home-Seite implementieren möchte, wo der User beim ersten Besuch eine Auswahl zwischen Deutsch und Französisch treffen kann. Hierbei verwenden wir für die Sprach-Version unterschiedliche URLs. Läuft man nicht Gefahr, dass man wegen Overlay abgestraft werden könnte? Grundsätzlich, was ich in solchen Fällen machen würde, ist, dass man nicht die ganze Seite zudeckt, dass man einfach mit einem Banner zum Beispiel oben arbeitet. Normalerweise sind wir relativ gut beim Erkennen von der Sprache, die der Benutzer bei der Suche verwendet hat und zeigen dann die richtige Version. Für den ist es nicht so, dass die ganze Overlay irgendwie praktisch oder sinnvoll wäre in solchen Fällen. Was ich da machen würde, ist, mit einem Banner oben arbeiten, wenn der Benutzer klar seine Sprach-Version angebt über diesen Banner und dass ein Cookie abgespeichert werden kann, kann man durchaus beim nächsten Besuch automatisch auf die Sprach-Version weiterleiten. Googlebot verwendet keine Cookies beim Crawling. Das heißt, wenn ihr irgendwelche Cookies setzt, die werden von Googlebot nicht mehr zurückgespielt. Das heißt natürlich auch, dass wenn ihr Cookies braucht, um auf eine bestimmte Sprach-Version zu kommen, dann kann Googlebot damit nicht arbeiten. In diesem Fall, wenn da separate URLs vorhanden sind und wir links zu diesen separaten URLs finden, sollte das problemlos klappen. Das Projekt ist ein Anbieter auf Ausluckstouren in Österreich. Ein hoher Anteil der Kunden kommt aus den USA nach Österreich. Die Website ist eine .com-Domain. Bei Search Console wird er die Ausrichtung auf Nutzer in Vereinigten Staaten eingestellt. Ist es besser hier auf Österreich einzustellen, da es um Benutzer geht, die sich entweder in Österreich befinden oder Leistungen suchen, die sie in Österreich erhalten möchten. Das ist immer eine interessante Variante. Grundsätzlich ist die Länderzuordnung gedacht für die Benutzer. Das heißt, wo die Benutzer jetzt sind, ob das jetzt relevant ist für diese Benutzer in diesen Ländern. Das heißt, wenn ihr Ausluckstouren in Österreich anbietet und euer Publikum ist in Amerika, dann stellt ihr die Länderzuordnung auf Amerika ein und dann auf Österreich an. Ihr könnt natürlich auch auf Österreich etwas einstellen, wenn ihr gezielt Benutzer quasi haben möchtet, die in Österreich sind, aber das müsste man dann separat auf der Website haben, dass man einen Teil zum Beispiel für Benutzer aus Amerika, einen Teil für Benutzer aus Österreich hat. Das wären an für sich die beiden Varianten. Was man natürlich auch machen kann, ist, dass man sagt, ich möchte keine Länderzuordnung haben. Ich möchte einfach, dass Google das als normale Website international zeigt und das ist auch eine Variante. Okay, danke dir. Bitte. Eine Website hat statt einem Bildlogo nur ein Textlogo. Das Textlogo ist in einem H1 Tag umschlossen, somit ist auf jeder Unterseite die H1-Überschrift des Textlogos. Im Website Content befindet sich noch ein zweiter H1, zum Beispiel ein Überschrift für Blogposts. Gibt das Probleme, funktioniert das okay. Aus unserer Sicht ist das vollkommen okay. Viele Websites haben verschiedene H1s, mit HTML5 ist das sowieso an und für sich standard, dass man verschiedene Bereiche haben kann mit eigenen H1 Tags. Ich würde mir da keine Sorgen machen. Ich weiß einige SEO Tools, merken solche Sachen, dass da mehrere H1s auf einer Seite sind und sagen, da müsste man vielleicht aufpassen. Aus unserer Sicht ist das eigentlich vollkommen okay. Ich würde mir da keine großen Sorgen machen, würden so etwas. Thema Crawling Fehler in Search Console, es wird beispielsweise ein Fehler angezeigt, der am 31.08. erkannt wurde. Das ist quasi eine alte Seite und die schon lange weg und die Links dorthin gibt es auch schon lange nicht mehr. Was soll man da machen? Aus unserer Sicht müsste gar nichts mit solchen Crawling Fehler machen. Wir zeigen sie in Search Console, weil wir sie gesehen haben. Wir haben diese alten URLs mal ausprobiert und gesehen, da ist immer noch ein Crawl Fehler da. Und vielleicht ist das ganz okay, dass da ein Crawl Fehler ist. Aber wenn ihr das Gefühl habt, dass unter diese URLs sollten eigentlich Inhalte erscheinen, dann wäre das etwas, was man verbessern könnte. Aber wenn das wirklich Seiten sind, die aus eurer Sicht gar nicht existieren sollten, die eigentlich ganz klar ungultige URLs sind, dann ist das ganz okay. Da müsst ihr eigentlich nichts machen. Dann könnt ihr das so lassen. In Search Console kann man angeben, dass Crawling Fehler quasi, die kann man eigentlich markieren. Was jetzt nicht wieder deutsche Name heißt. Und dann verschwinden sie in der UI in Search Console. Aus unserer Sicht ist das nur etwas, was euch betrifft. Das heißt, nur ihr sieht, dass diese Crawling Fehler verschwinden. Intern für das Crawling und für das Indexing wird das gar nicht verwendet. Das heißt, es ist nicht so, dass wir dann aufgrund von dem nochmal hingehen und diese Seite kontrollieren und prüfen, ist sie jetzt wirklich weg oder nicht. Oder dass wir sie gar nicht mehr prüfen, und vielleicht meint ihr, dass man die gar nicht mehr prüfen muss, sondern es ist wirklich einfach bei euch in der Benutzeroberfläche von Search Console wird das halt nicht mehr dargestellt. Dann haben wir da eine Frage zu Impressionen, Klicks, durchschnittliche Positionen in Search Console. Wenn ein Nutzer noch etwas sucht, wahrscheinlich zum Beispiel auf der sechsten Ergebnisseite, der Nutzer kommt allerdings nur zur zweiten Seite. Dann wird das trotzdem als Impression gezählt oder nicht. Wir zeigen die Impressions nur an, die effektiv der Benutzer sehen könnte. Das heißt, wenn der Benutzer auf Seite 2 geht und eure Ergebnisse sind alle auf Seite 3, dann zählen wir das nicht als Impression für eure Website. Worauf wir nicht achten, ist, ob jetzt eure Suchergebnisse im Viewport sichtbar ist. Ob der Benutzer jetzt nach unten gescrollt hat und das gesehen hat oder ob das einfach irgendwie unterhalb vom sichtbaren Bereich erscheint ist. Aber wenn euer Resultat in den Suchergebnissen, in der Suchergebnisseite vom Benutzer erschienen ist, dann zählen wir das effektiv. In Search Console werden mir oft durchschnittliche Positionen jenseits der 100 angezeigt. Sind das dann echte Impressionen oder sind das lediglich Angaben, wo die Seite ausgespielt worden wäre? Wie gesagt, das sind wirklich Benutzer, die so weit nach hinten geklickt haben und da wirklich etwas gesucht haben. Es ist nicht so, dass wir da eine theoretische Position errechnen und sagen, theoretisch wäre das an dieser Stelle oder wenn der Benutzer jetzt weitergeklickt hätte, wäre das auf Seite 27, sondern irgendjemand hat so weit nach hinten geklickt. Manchmal ist man ja neugierig und schaut nach, was es sonst so alles gibt und dann kommt man vielleicht so weit nach hinten, aber das ist wahrscheinlich eher selten der Fall. Noch eine Frage zu Images, die per JavaScript nachgeladen werden, per Lazy-Loading. Um die Ladezeit zu verbessern, haben wir auf den Kategorien im Bereich Above the Fold ein Fallback-Image implementiert und darunter werden die Bilder per JavaScript nachgeladen, wenn der User nach unten scrollt. Mit Fetch and Render stellt man fest, dass Googlebot diese Teaser-Images nicht sieht. Kann das einen negativen Effekt haben? Ja oder nein? Im Grunde genommen, wenn per Lazy-Loading die Bilder geladen werden und die erst geladen werden aufgrund von einem Event, der im Browser quasi gestartet wird, dann kann es sein, dass ein Benutzer in bestimmten Positionen gescrollt hat oder sonst etwas gemacht hat, dann kann es sein, dass wir diese Bilder manchmal nicht sehen. Das heißt, Googlebot scrollt schon ein bisschen nach unten, wenn die Seite gerendert wird für das Indexing, aber nicht endlos nach unten. Es gibt ja auch diese endlosen Seiten, die immer wieder nachgeladen werden und so kann es durchaus sein, dass Bilder, die per Lazy-Loading weiter unten nachgeladen werden, für Googlebot geladen werden. In den meisten Fällen ist das nicht so wichtig, weil diese Bilder sind ja in vielen Fällen einfach so Thumbnail-Bilder, die zu anderen Seiten führen. Das heißt, der Link zu der anderen Seite ist ja da auf der Seite. Den Link finden wir und das Thumbnail-Bild selbst ist ja nicht etwas, was bei vielen Websites als kritisch angesehen wird, sondern das Thumbnail-Bild ist ja eigentlich nur eine Vorschau für der eigentlichen Produkte-Seite zum Beispiel. Und wenn das der Fall ist, dass dieses Thumbnail-Bild gar nicht so kritisch ist für euch und dieser Link trotzdem da ist, das heißt, der schon sichtbar ist, wenn die Seite geladen wird, dann können wir das größere Bild holen von der eigentlichen Details-Seite und indexieren das dann für Image Search. Wenn hingegen diese per Lazy-Loading nachgeladenen Bilder kritisch sind für euch, wenn ihr wirklich möchte, dass sie in der Bildersuche erscheinen, dann müsste man sich vielleicht anders überlegen, wie man das einbinden könnte, sodass dann trotzdem einigermaßen schnell lädt, aber dass Googlebot diese Bilder trotzdem noch sehen kann. Man kann das zum Beispiel so machen, dass auch einfach ein Link zu diesen Bilddateien dabei ist. Das heißt, wenn Googlebot ein Link zu einem Bild, zum Beispiel zu einer JPEG-Datei sieht, dann nehmen wir an, das ist eigentlich wie eingebunden ist auf dieser Seite und nehmen das dann auch für Image Search. So jeweils dazu. Super, vielen Dank, Johannes. Super. Okay, dann haben wir da eine Frage zur internen Verlinkung. Relativ lang. Meine Zeit ist relativ frisch, drei Monate und hatte für die wichtigsten Keywords schon stabile Rankings zwischen 11 und 15. Und dann haben wir quasi ein bisschen was auf der Seite umgestaltet, die Keywords ein bisschen optimiert und dann ist die Seite die Website quasi nach unten gefallen im Ranking. Und inzwischen ist das wieder ein bisschen hochgegangen, aber woran könnte das liegen? Ich denke, es gibt da verschiedene Sachen, die wahrscheinlich zusammenkommen. Das heißt, einerseits, wenn eine Website relativ neu ist, dann ist es schwierig für uns zu wissen, wie sollen wir die wirklich einstufen in den Suchergebnissen und dann kann es sein, dass unsere Algorithmen irgendwie am Anfang oder relativ früh irgendeine Einschätzung mal machen und sagen, grundsätzlich sieht das eigentlich relativ gut aus. Wir stufen das jetzt so ein und zeigen das so in den Suchergebnissen. Wir finden, dass es wahrscheinlich etwa richtig und im Laufe der Zeit sammeln wir natürlich verschiedene Signale für diese Website, welche Links dahin kommen, alles Mögliche, was wir über diese Website, über die Inhalte irgendwie erfahren können und da pendelt sich das Ranking dann im Laufe der Zeit ein bisschen ein. Und was natürlich passieren könnte in einem solchen Fall, wenn die Website relativ neu ist und dann nach einiger Zeit gleich am Anfang die Inhalte verändert werden, dann kann es natürlich sein, dass unsere Algorithmen erstmal vielleicht ein bisschen zu hoch eingestuft haben und dass dann eher ein bisschen nach unten stufen würden und dann hat man das Gefühl, diese leichte nach unten Verstufung hat damit zu tun, dass man die Inhalte geändert hat. Und in vielen Fällen ist das einfach eine natürliche Entwicklung, die wir haben, dass wir irgendwo die Website erstmal einstufen müssen und dann im Laufe der Zeit kann sein, vielleicht haben wir es zu hoch eingestuft, wir müssen uns ein bisschen nach unten stufen und wahrscheinlich sieht ihr das und diese Veränderung, dass jetzt das Ganze auch langsam wieder nach oben geht ist wahrscheinlich auch einfach eine natürliche Veränderung, die wir haben, dass wir sagen, gut, wir haben es am Anfang ein bisschen hoch eingeschätzt, danach ein bisschen tiefer eingeschätzt, aber eigentlich wäre es vielleicht doch besser oder relevanter, wenn wir das ein bisschen höher zeigen würden in den Suchergebnissen. Und solche Veränderungen gibt es eigentlich immer und gerade bei relativ neuen Websites sind solche Veränderungen eigentlich normal, dass wir da einfach noch nicht so viele Signale haben und dann trotzdem das irgendwie vergleichbar einstufen müssen mit anderen Websites, die wir schon kennen und dann gibt es manchmal diese Schwankungen am Anfang und dann im Laufe der Monate pendelt sich das meistens irgendwo ein und bleibt ein bisschen stabil oder verändert sich dann halt leicht, wie wir sehen, dass sich die Website weiterentwickelt. Und eben die Frage da geht ein bisschen auch darauf hinein, dass, ob Google jetzt die Website jetzt neu bewertet hat aufgrund von der veränderten Links innerhalb der Website. Aus unserer Sicht kann man durchaus Encrotex von internen Links verändern. Ich denke, das ist nicht unbedingt etwas, wo wir sagen würden, wir müssen jetzt die Website insgesamt neu einschätzen. Insgesamt neu einschätzen ist eher etwas, was wir machen müssen, wenn wirklich die ganze interne Struktur sich verändert hat, wenn man jetzt die ganzen URLs intern anders verlinkt, wenn man ganz neue URL-Struktur vorfinden, dann müssen wir uns überlegen, wie können wir das Gesamtbild dieser Website jetzt einstufen. Aber wenn man nur den Encrotex verändert und die Links bleiben gleich, die URLs bleiben gleich, dann sind das eigentlich normale Veränderungen, die jede Website im Laufe der Zeit mal macht. Eine Frage zu unnatürlichen Backlinks. Einer unserer Konkurrenten renkt sehr gut. Die Backlinks der Seite sind aber oftmals unnatürlich und basieren auf unlauteren Methoden. Teilweise kommen diese zwar von sehr guten Seiten, die aber absolut nichts mit dem Thema zu tun haben und verlinken ebenso auf solche Themenfremde Unterseiten. Uns kommt das irgendwie ein bisschen unfair vor. Warum renken solche Seiten trotz seltsamer Backlinks gut und kann man dagegen etwas vor irgendetwas machen? Das ist immer ein bisschen ein schwieriges Thema. Ich denke, im Grunde ist es ein bisschen schwierig, das einzuschätzen von extern, weil wir verwenden so viele verschiedene Signale für das Ranking, für das Indexing, dass wir auch viele Signale einfach weglassen und ignorieren. Das heißt, in vielen Fällen, gerade mit unnatürlichen Backlinks, ist es so, dass wir die Website anschauen und sehen. Eigentlich sind da relativ gute Inhalte da, aber es werden vielleicht diese Methoden auch angewendet, die gegen unsere Webmaster guidelines sind. Und was wir dann oft machen können, ist, dass wir sagen, gut, wir konzentrieren uns auf das, was gut ist bei dieser Website und ignorieren den ganzen Rest. Und da kann es dann durchaus sein, dass eine Website trotzdem relativ guten Suchergebnissen erscheint, obwohl sie auch alles Mögliche vielleicht macht, was so Spammy irgendwie eingestuft werden könnte. Manchmal sieht man das zum Beispiel auch mit Keyword Stuffing oder mit versteckten Text auf Seiten. Und wenn man das so von außen anschaut, dann denkt man vielleicht, ja, die Website erscheint gut in den Suchergebnissen, weil sie diese Spammy-Sachen macht. Aber aus unserer Sicht ist es so, dass die Website relativ gut in den Suchergebnissen erscheint, obwohl sie all diese Sachen noch macht, obwohl diese Sachen, wo sie quasi ihre Zeit verschwendet, gar nicht dazu gezählt werden. Was man aber trotzdem machen könnte, was ich trotzdem empfehlen würde, ist, dass wenn ihr merkt, dass irgendeine Website Methoden verwendet, die gegen unsere Webmaster guidelines gehen, dass ihr uns einfach ein Spam-Report schickt, das Webspam-Team schaut diese Spam-Reports auch an und überlegt jeweils, wo müssen wir manuell eingreifen, wo können wir vielleicht algorithmisch eine Verbesserung im Laufe der Zeit machen und wo machen unsere Algorithmen vielleicht jetzt schon das Richtige, in denen, dass sie solche Methoden da quasi ignorieren. Aber das würde ich auf jeden Fall noch machen. Gibt es Google Tools, wie man Relation des organicen Rankings und den Conversions sehen kann, also so statistische Werte? Meines Wissens haben wir da keine Statistiken herausgegeben für solche Sachen, also quasi wie das Ranking mit dem Click-through zusammenhängt. Ich weiß, es gibt da diverse externe Studien, die solche Sachen auch anschauen oder die Benutzerstudies machen, aber ich glaube aus unserer Sicht ist da nicht spezielles herausgegeben. Wir planen ein neues Projekt, welches eine Kategorie einer bisher bestehenden Seite komplett übernehmen sollte. Die Inhalte davon sollen also nur noch auf der neuen Website verfügbar sein. Die URLs beim alten Projekt sind schon vorhanden und länger im Index. Wir wollen diese per 301 auf die neuen Kategorie in der neuen Website weiterleiten. Ist das okay? Ja, kann man auf jeden Fall machen. Wichtig ist einfach, gerade wenn man solche Veränderungen macht, wo die ganze Website nicht von einem Ort zum nächsten Ort weitergeleitet wird, sondern wo man eine Website aufteilt oder wo man zwei Websites zusammenfügt, ist einfach, dass das Ganze ein bisschen schwieriger ist aus unserer Sicht, in dem wir erst mal dann erkennen müssen, wie stufen wir diese beiden Websites ein? Was ist quasi die Anfangssituation, wie sieht das am Ende aus? Weil da können wir dann nicht einfach sagen, gut, wir nehmen alles eins zu eins und gereichen das weiter auf die neue Website. Das hängt wirklich davon ab, wie die neue Website dann strukturiert ist. Das heißt, ihr werdet in solchen Fällen, wo ihr Websites zusammenfügt oder auseinandernehmt, wird ihr sicher Fluktuationen sehen, die ein bisschen länger andauern, die länger sind, als wenn man einen normalen Domainwechsel zum Beispiel macht und die ganze Website von einem Domain weitergeht. Unsere Website beantwortet auf einigen Seiten spezielle Fragen zu spezifischen Themen ausführlich, trotz ordentlicher Strukturierung und Piederung der Seiten, welche diese Fragen beinhalten, nahezu gar nicht in den Sucher geben müssen. Die Seiten sind soweit gut und auch gibt es für viele unsere Fragen keine Konkurrenzseiten mit ähnliche Phrasen, Formulierungen, die stärker sein könnten. Was könnte man da machen? Es ist ein bisschen schwierig zu sagen, ohne die Website zu kennen. Ich denke, eine Sache, vielleicht vorweg, ist, dass eine saubere Struktur, eine saubere technische Grundlage ist auf jeden Fall praktisch und wichtig. Die sorgt auch vor, dass man irgendwelche Fehler aus Versehen macht. Gerade mit einer sauberen Struktur können wir die Website besser crawlen. Aber die garantiert nicht, dass ihr automatisch an erster Stelle ersichtlich seid in den Suchergebenissen. Das heißt, nur weil etwas sauber aufgebaut ist und gut indexiert wird, heißt nicht, dass es automatisch auch relevant ist für Benutzer. Manchmal ist es so, dass ein Ergebnis für Benutzer sehr relevant sein kann, obwohl es auf einer alten Struktur aufgebaut ist und eine Table-Frame-Work aufgebaut ist. Wir haben einfach gesehen, dass solche Sachen dann manchmal trotzdem noch relevant sein können für den Benutzer. Nur weil etwas neu und sauber aufgebaut ist, heißt nicht, dass es automatisch an erster Stelle ist. Von dem her, finde ich es gut, dass man das sauber und technisch korrekt aufbaut und gute Gliederung hat. Aber ihr müsst sicher auch allgemein an der Website arbeiten. Das heißt, wenn man die Website anschaut, dass wir sehen, insgesamt ist das sehr eine qualitativ hochwertige Website, die eigene Inhalte hat, die gut bei den Benutzern ankommt, wo ihr vielleicht auch links kriegt von Benutzern, die das weiterempfehlen würden. Alle solche Sachen sind für uns relevant. Wichtig ist auch, dass man nicht nur einzelne Seiten herauspickt und sagt, diese Seite und diese Suchbegriff haben sehr gute Ergebnisse. Und wir haben da natürlich ganz viele andere Sachen, die eigentlich nicht so wahnsinnig toll sind. Weil für unsere Algorithmen, wenn wir die Website insgesamt anschauen, dann ist das ein bisschen schwierig. Also sagen, diese Seite ist eigentlich gut, aber die Website an und für sich ist nicht so gut. Wie sollen wir die jetzt in den Suchergebnissen zeigen? Von dem her, was ich in einer solchen Situation machen würde, ist, einerseits, man Feedback von anderen kriegen. Was könnte man verbessern an der Website insgesamt? Andererseits, auch selber mal wirklich kritisch die gesamte Website anschauen und überlegen, die Inhalte, die ich zur Verfügung stelle für die Indexierung, sind das wirklich die besten Inhalte, die es da gibt zu diesen Themen? Oder muss ich vielleicht an diesen Inhalten erst mal arbeiten? Oder muss ich noch Index erst mal setzen, bis ich die wirklich auch aufgebaut habe, dass sie wirklich auch sehr gut sind? Und wenn das eine relativ neue Website ist, dann kann es auch einfach sein, dass wir das halt noch nicht alles verarbeitet haben, dass man da ein bisschen Geduld haben muss und dass man auch erst mal das Wort ein bisschen selber rausbringen muss. Das heißt, dass man wirklich auch irgendwie die Website an die Leute bringt und dass man da einerseits dann auch selber die reagieren nutze auf meine Website und dann auch ein bisschen sieht, wo könnte man dann das Ganze ein bisschen verbessern? Okay, ich habe die Löschen eine URL beantragt und diese Worte laut Search Console auch entfernt. Dann auch taucht das Ergebnis in der Bildersuche auf, was kann ich da tun? Schwierig zu sagen, in den meisten Fällen, wo ich so etwas gesehen habe, ist es der Fall, dass ich eine URL zum gleichen Inhaltsstück quasi führen. Das heißt, wenn zum Beispiel eine Website so eingerichtet ist, dass die Inhalte mit Großschreibung und mit Kleinschreibung irgendwie trotzdem verfügbar sind auf beide Varianten und man löscht eine Variante heraus, dann kann es sein, dass einfach die andere Variante auf einmal in den Suchergebnissen sichtbar ist. Das heißt, was ich da machen würde, ist wirklich nochmal kontrollieren, die URL, die jetzt sichtbar ist, ob die auch gelöscht wurde oder ob da auch ein Antrag eingereicht wurde zur Löschung und wenn nicht, dass man die dann nochmal nachführt und dass man dann vielleicht auch noch ein paar Tage wartet und dann schaut, kommt etwas anderes nach, gibt es noch eine Variante, die jetzt sichtbar ist und wenn das der Fall ist, dass man die dann auch einreicht und sagt, das ist jetzt entfernt, das ist entfernt, das ist entfernt, so dass wir wirklich auch ganz klar sehen, es gibt keine weitere Variante, die wir da zeigen könnten für solche Suchergebnisse. Okay, wir haben vor kurzem HTTPS umgestiegen und anhand der Crawling Tools sehe ich das Mix Content über 307 HSTS auf HTTPS weitergeleitet. Ist das die ideale Lösung oder sollten wir uns bemühen, die PAP anzupassen und über 301 auf die SSL Version weiterzuleiten. 307 ist ganz okay. 307 ist der richtige Code. 307 ist allerdings kein Redirect, die euer Server gibt, sondern etwas aus der Browser selber macht. Das heißt, der Browser hat diese HTTPS Verbindung schon mal gesehen und weiß, dass wenn jemand auf die HTTPS Version gehen will, dass ein Redirect kommt und dann geht der Browser gar nicht mehr die HTTPS Version anschauen, sondern macht quasi intern, täuscht sich selber ein 307 Redirect vor auf die HTTPS Version. Das heißt, eigentlich macht der Server gar kein Redirect in einem solchen Fall, sondern es wird direkt die HTTPS Version angefragt und die auch dargestellt. Das heißt, in der Regel könnt ihr diese 307 Redirect im Browser eigentlich ignorieren. Du hast vorgestern das Keyword Spamming Structured Data in Hangout erwähnt, können HTML beziehungsweise JSON-LD Markierungen, die nicht auf Rich Snippets gerichtet sind seitens Google as Spam eingestuft werden. Meines Wissens machen wir das nicht. Meines Wissens macht das Web Spam Team, nimmt es wirklich nur eine manuelle Maßnahme vor, wenn die Structured Data auf dieser Seite zu ungewollten Rich Snippets führt. Das heißt, wenn einfach Structured Data auf einer Seite ist, welche gar nicht gebraucht wird, dann ignorieren wir das. Viele Websites verwenden ja Structured Data in verschiedenen Varianten. Für Structured Data, welches wir nicht in Rich Snippets darstellen, haben wir auch keine Richtlinien an und für sich. Und von dem her haben wir dann nicht spezielles, wo wir irgendwie darauf zugreifen würden. Wir haben die meisten Markup in unsere Website eingeführt und möchten, dass die Benutzer auf unsere internen Suchergebnisse weitergeleitet werden. Die Richtlinien sind gefolgt. Es erscheint aber immer noch die Seitabfragen in Suchergebnissen. Kann das an die Art von Content liegen. Normalerweise hängt das nicht von der Art der Website ab, sondern es ist einfach etwas, was relativ lang im Vergleich zu anderen Suche braucht, bis das wirklich verarbeitet ist. Das heißt, ich habe schon Situationen gesehen, wo das vielleicht ein Monat oder sogar zwei Monate braucht, bis das wirklich vom Indexing-System sauber umgesetzt wird. Und vielleicht ist es da einfach eine Frage der Zeit, bis das übernommen wird. Wenn das schon mehrere Monate so vorhanden ist und immer noch die Seitabfrage gezeigt wird in den Suchergebnissen, wäre ich froh, wenn du mir das nochmal zuschicken könntest, dann kann ich das mit dem Team genauer anschauen und überlegen, was da vielleicht schief geht. Super, danke. Okay, ist der Tag Unavailable After grundsätzlich für jede URL nutzbar? Ja, kann man für jede verwenden. Unavailable After ist ein, ich glaube ein Robotsmeta-Tag, den man angeben kann, um uns zu sagen, dass die Inhalte nach einem gewissen Datum nicht mehr gültig sind. Meistens wird das verwendet für Inhalte, wo man schon von vorn hinweg weiß, wann die nicht mehr gültig sein werden. Das sind vielleicht irgendwelche Artikel, die bis zu einem gewissen Datum verkauft werden. So, ja, diverse solche Sachen, die nur für eine gewisse Zeit gültig sind. Kann man das auch für andere Inhalte sein, zum Beispiel ein Adventskalender, kann man auf jeden Fall machen. Google setzt das relativ schnell um, sobald wir das gesehen haben. In der Regel, was in solchen Fällen passiert, ist, dass wir die Seite aus dem Index ein bisschen Rechtsseite herausholen, auch wenn wir nicht kontrolliert haben, ob da jetzt ein No-Index dasteht. Das heißt, man muss einfach schauen, dass Unavailable After Datum wirklich auch relevant ist und nicht, dass man aus Versehen etwas zu früh entfernt. Eine Frage zum Crawling Verhalten von Google bei bestimmten Ressourcen. Wir bemerken, bei unserer Website ca. 500.000 indexierte Seiten starke Crawling Peaks im Millionenbereich, welche sich auf diverse CSS und JavaScript-Dateien zurückführen lassen. Nach einigeren Recherchen ist uns um Smax-Age aufgefallen, welches wir für die Proxies nutzen. Dann die Frage, ob wir diese Caching-Headers verwenden. Meines Wissens verwenden wir die nicht so, wie ihr sie angegeben habt. Weil eben, wie bei euch wahrscheinlich der Fall setzt ihr die gezielt für Benutzer, das heißt für Browser, für Network-Proxies und für Suchmaschinenindexierung ist das meistens etwas anders. Das heißt, sie werden meistens ein bisschen anders verwendet. Ich weiß allerdings jetzt nicht genau, wie man das noch besser machen könnte. Das heißt, in vielen Fällen, was wir sehen beim Rendering ist, dass die JavaScript- und CSS-Dateien, wenn sie sich verändern, wenn die URL dieser Dateien sich verändern, dann ist es natürlich unmöglich für uns die zu caching. Wenn wir sie verändern wollen, dann kommt das vielleicht zusammen. Ich habe allerdings auch schon Situationen gesehen, wo wir immer auf die gleichen CSS- und JavaScript-Dateien zugreifen für das Rendering, obwohl wir die wahrscheinlich auch weiter verwenden könnten. Und in solchen Fällen wäre es praktisch, wenn man das an uns mal melden würde. Das heißt, im Hilfecenter crawling-Probleme mit Googlebot zu melden und dort kann man dann die IP-Adressen von Googlebot, die man gesehen hat, eingeben, die URLs, die man gesehen hat, auf die zugegriffen wird. Und da kann man dann auch die Fragen dazuschreiben. Das heißt, welche Dateien wie oft zugegriffen werden und dass man das eigentlich nicht machen müsste. Und solche Anfragen werden direkt vom Googlebot-Team verarbeitet und die sind sehr schnell im Anpassen vom Verhalten von Googlebot, gerade für einzelne Seiten und versuchen dann auch heraus, welche Dienste intern bei Google jetzt für dieses Crawling quasi verantwortlich sind und nehmen mit denen dann auch Kontakte aus, um zu schauen, was könnte man da verbessern, dass das Websites da weniger Probleme sehen. Das heißt, ich würde das da am besten mal einreichen und die schauen das in der Regel relativ gut an. Wichtig ist vielleicht einfach, die bearbeiten das meistens auf Englisch. Das heißt, wenn ihr das auf Englisch einschreiben könnt, dann geht das ein bisschen schneller. Die interne Verlinkung, um die interne Verlinkung besser zu steuern, ist die Post-Redirect-Get-Methode, eine Methode, die du empfiehlst. Wir haben so unglaublich viele interne Verlinkungen auf unsere Seiten, von denen einige für Nutzerrelevanz sind, aber nicht für Google Bar. Ich weiß es nicht. Also die Post-Redirect-Get-Methode ist quasi, dass man statt einen normalen Link per JavaScript ein Postrequest auf den Server schickt und dass man dort entsprechend weitergeleitet wird. Und die Idee ist, dass Google Bar solchen Zugriffen quasi nicht folgt. Manchmal können wir da trotzdem durchcrawlen. Das heißt, es ist nicht ganz ausgeschlossen, dass wir da durchcrawlen. Was ich da eher machen würde, ist, dass man mit den normalen Methoden arbeitet, um das Crawling zu steuern. Das heißt, mit den Neural Parameter Tool in Search Console, dass man sagt, diese Parameter sind irrelevant, die kann man ignorieren. Und dass man so quasi mit einer einigermaßen statischen Website auch zurechtkommt, ohne dass man da noch serverseitig irgendwelche Tricks mit redirects und Postforms abfahren machen muss. Je nachdem, wie problematisch das natürlich ist, wie groß die Website ist, kann man vielleicht auch andere Sachen ausprobieren. In der Regel kommen wir eigentlich mit recht großen Websites problemlos zurecht, wenn sie die normalen URL-Tools verwenden und die normalen Websites verwenden. Das heißt, ohne, dass man mit solchen Tricks arbeiten muss. Schauen, da kommen noch einige Kommentare. Ich hatte letztes Hangout eine Frage gestellt, die leider falsch verstanden wurde. Kurzfassung, ein Konkurrent erstellt Fake-Review-Seiten, auf denen er zum Beispiel unsere Firma bewertet. Die Bewertungen sind okay, aber alle Links auf dem jeweiligen Profil einer Firma führen zu den Besitzer der Review-Seite. Auch der HTML-Code für den Link ist verschleiert und ändert sich erst nachdem man auf den Link geklickt hat. Das wird also der richtige Link in der Vorschau angezeigt. Dieser wird dann aber nicht aktiviert. Kann man etwas unternehmen? Die Nutzer werden ja dabei auch getäuscht. Schwierig zu sagen. Ich weiß nicht genau, wie das auf unserer Seite verarbeitet werden könnte. Aber wenn du mir einige Beispiele mit Suchanfragen wo diese Seiten auch erscheinen schicken könntest, dann kann ich das auf jeden Fall mal anschauen. Am einfachsten schickst du mir die einfach Bewert per Google Plus zu, dann kann ich das mit dem Team hier mal anschauen. Ich weiß nicht, ob wir da gezielt eine Antwort darauf haben oder ob wir einfach sicherstellen, dass unsere Algorithmen das besser erkennen können müssen wir dann ein bisschen schauen. Für was verwendet man ein Property Satz? Welche Vorteile hat man damit? Ein Property Satz in Search Console ist, wenn man verschiedene Website Einträge zusammenfasst und so die Gesamtstatistiken zum Beispiel anschaut. Das heißt, man könnte das zum Beispiel machen, dass man einen Satz erstellt, wenn man verschiedene Domains hat für einzelne Länder und man möchte ein Gesamtbild dieser Website haben in Search Analytics zum Beispiel, wie wird gesamthaft diese Sammlung von Domains, die ich habe dargestellt in den Suchergebnissen, kann man das zum Beispiel machen, wenn man eine Website hat, die teilweise mit m.subdomain arbeiten, teilweise mit www oder mit anderen Sprachsubdomains arbeiten, kann man das so zusammenführen. Man kann das natürlich auch beliebig kombinieren, dass man sagt, ich nehme jetzt die verschiedenen deutschen Websites zusammen und ich mache einen Satz nach Thema zum Beispiel, wenn ich verschiedene Websites habe zum gleichen Thema, dass man die zusammenführt all solche Sachen, um an und für sich einzelne Einträge in Search Console so zu machen, dass es ein bisschen besser euer Gesamtbild auch repräsentiert. Ein Problem mit Property Satz, was wir immer wieder hören, ist, dass man die nicht teilen kann und es ist effektiv so, dass jeder Benutzer die quasi neu aufsetzen muss, wenn Benutzer das auch anschauen möchte. Der Hauptgrund dahinter ist, dass für einen Property Satz müssen die einzelnen Websites auch verifiziert sein. Okay, mal schauen, was noch nach dazu gekommen ist. Ich hätte da noch eine ganz kurze, Johannes. Okay. Ist Anker Text Content? Ja. Für die Seite, wo der Anker Text steht Das war eine einfache. Okay, mal schauen, wo geht es weiter. Eine Frage zur SVG-Verlinkung. Hier ist die SVG direkt der Content vom Link kann Google's so etwas lesen. Schauen, ob das Bild öffnen kann. Das ist deswegen ganz klein geworden. Grundsätzlich ist es so, dass wir SVG als Bild verarbeiten. Das heißt, wenn wir sehen, dass ein SVG entweder direkt eingebaut ist in einer Seite oder verlinkt wird auf einer Seite, dann nehmen wir an, dass das ein Bild ist und nehmen das dann für die Bildersuche dazu. Das heißt, wenn irgendwelche Texte innerhalb von dieser Datei dargestellt werden, wenn da Links drin sind, wenn der Titel weitere Informationen innerhalb der SVG-Datei da sind, dann ist es für uns wie wenn man Text in einem Bild positioniert. Das heißt, für die Bildersuche verwenden wir das eigentlich nicht und für die Websuche verwenden wir das auch nicht. Das heißt, wir sehen diese Inhalte an und für sich nicht. Das heißt, was wir da empfehlen, ist, dass man SVG eher als Bild-Element oder Bildersatz verwendet und nicht verwendet und eigentlich die wichtigen Inhalte einer Website darzustellen. Manchmal geht das gut, manchmal ist es ein bisschen schwieriger, wenn man etwas interessantes, technisch kompliziertes aufbauen möchte, dann hat man manchmal auch die Texte innerhalb der SVG, solange wir diese Texte auch im normalen Teil der Website finden, dann ist es auch unproblematisch. Mal schauen, beim letzten Hangout hast du am Schluss noch das Thema Voice Search ausgesprochen, gibt es schon tiefergehende Infos zur Umsetzung von euch dazu. Mich würde da besonders die richtige Auszeichnung der Inhalte für die Ausgabe auf Home interessieren. Im Moment ist es nicht so, dass wir für die Featured Snippets irgendwelche Markup verwenden. Das heißt, es ist nicht so, dass man da gezielt eigentlich Markup sehen kann und wir nehmen das dann und sagen das in diesem Fall vom Assistant aus, sondern wir schauen die Seite insgesamt an. Was ich aber anschauen würde, ist eigentlich das Ganze rund um die Conversational Search. Das heißt, diese Vorgänger, wie man mit so Voice Assistance arbeiten kann. Und da sind in unseren Developer-Sites recht viele Beispiele dabei. Auch wenn man jetzt nicht einen Developer das anschaut, kann man sich vielleicht schon ein bisschen Gedanken machen, wie würde das eventuell für meine Firma Sinn machen oder vielleicht macht das gar kein Sinn für meine Firma im Moment. Aber so kann man sich ein bisschen überlegen, was für quasi Gespräche man haben könnte und wie könnte man ein Mehrwert bringen, so dass es einerseits für den Benutzer Sinn macht, andererseits natürlich auch für euch interessant ist, dass ihr nicht einfach ein Dienst bietet, das interessant ist für Benutzer, aber wo ihr kein Mehrwert daraus ziehen könnt. Auf unserer Webseite ist eine Datenbank integriert, auf der Unternehmer einen passenden Berater finden können, zählt es auf die Sichtbarkeit aus, wenn wir bekannte Namen wie McKinsey oder BCG in die Datenbank aufnehmen, können wir von der allgemeinen Sichtbarkeit, wie zum Beispiel McKinsey profitieren, da wir derzeit ein aufwendiges Aufnahmeverfahren haben, sind nicht so viele Firmen hinterlegt. Grundsätzlich könnt ihr natürlich schon bekannte Namen dazu nehmen, aber es ist nicht der Fall, dass wir quasi auf die Webseite gehen und sagen, ah, da ist dieser und dieser bekannte Name erwähnt, deshalb muss die Webseite gut sein, sondern es ist höchstens der Fall, dass wir eure Webseite in den Suchergebnissen zeigen und viele suchen nach diesen Namen und dann habt ihr natürlich die Möglichkeit bei einer größeren Menge von Sucher sichtbar zu sein. Aber es ist nicht der Fall, dass wir einfach schauen, ah, da ist jetzt ein Link auf eine bekannte Firma oder auf eine bekannte Webseite, deshalb muss diese Webseite auch besser sein. Das ist zum Beispiel ein, quasi ein Trick, der früher mal verwendet wurde, gerade auf spammigeren Websites, das man gesagt hat, gut, ich habe hier allen möglichen Inhalte, die nicht so wahnsinnig toll sind und unten platziere ich noch ein Link zu Wikipedia und CNN und Google und vielleicht anderen großen Firmen und dann hoffe ich, dass die Suchmaschinen meine Inhalte höher einschätzen, nur weil diese Links zu vielleicht bekannteren Websites auch dabei sind. Und das ist zumindest im Moment nicht der Fall. Das heißt, es macht vielleicht Sinn, diese Einträge bei euch reinzunehmen, wenn die für eure Benutzer Sinn machen, wenn Sucher so auf eure Seiten kommen könnten. Aber es ist nicht der Fall, dass wir eure Website höher einstufen, nur weil diese Wörter auf der Seite vorhanden sind. Eine Frage zur Bewertung einer Website, wenn sich die URL-Struktur verändert. Du meinst es eben, dass die Website komplett neu bewertet wird. Wenn sich die URL-Struktur so verändert, dass z.B. nur HTML am Ende wegfällt und sonst alles andere gleich bleibt und die 301 Weiterleiterin eingerichtet werden, ist das trotzdem kritisch. Aus unserer Sicht ist jede Veränderung an der URL-Struktur etwas etwas Neues. Die einzige Ausnahme, die wir eigentlich haben, ist HTTP und HTTPS Veränderung, wo wir wirklich 1 zu 1 auf den Übergang sehen können. Aber wenn z.B. HTML am Ende der URLs entfernt wird, dann ist es aus unserer Sicht etwa das gleiche, wie wenn die ganze URL anders ist. Von dem her sehen wir dann, dass wir beim Crawling einige neue URLs finden. Die alten URLs, wenn wir die crawlen, sehen wir in Redirect auf neue Varianten der URL und so müssen wir die ganze Website-Struktur erst mal neu erfassen, neu indexieren und neu verstehen. Das dauert einfach eine gewisse Zeit. Und das kann durchaus mehrere Monate gehen, vielleicht ein halbes Jahr sogar, bis wir wirklich alle diese URLs neu verarbeitet haben und neu versetzt haben. Und von dem her ist das etwas, was ich nicht einfach so schnell von heute auf morgen machen würde. Das heißt nicht, wenn ihr in irgendeinem SEO-Blog liest, dass Punkt HTML am Ende der URL ist schlecht, also müsste man das weglassen, dass man sich wirklich auch überlegt, was möchte ich damit erreichen und dass man sich überlegt, wie sieht das längerfristig aus. Das heißt, wenn ich jetzt eine Veränderung der URL-Struktur mache, muss ich vielleicht ein halbes Jahr nochmal eine URL-Struktur-Veränderung machen oder ist das jetzt wirklich mein End-Stadium vorläufig, zumindest, was ich erreichen möchte. Eben wenn man zum Beispiel nachher auf DE und EN arbeiten möchte, dann würde ich mir überlegen, wie kann ich diese Veränderung zusammenpacken und sagen, gut, ich mache diese URL-Struktur-Veränderung einfach einmal und nehme in Kauf, das geht einfach eine gewisse Zeit anstelle von den einzelnen Schritten dann separat, weil man dann jedes Mal, wenn ich die URL-Struktur-Veränderung mache, dann entsprechend warten muss. Und bei solchen Veränderungen ist es auch nicht so, dass wir die Website ganz auf den Index herausnehmen und dass wir die gar nicht mehr können, sondern wir haben dann vielleicht einfach beide Varianten mal indexiert und können dann nicht genau wissen, welche Variante jetzt übernommen werden sollte. Vom Ranking her sieht man dann einfach Fluktuation und solche Sachen sieht man dann da einfach entsprechend. Also es ist nicht so, dass man ganz verschwindet, sondern es ist einfach ein bisschen Unruhe in der Sichtbarkeit in den Suchergebnissen. Wenn wir die Default-Sprache, eine Website von Deutsch auf Englisch ändern, dann ist es problematisch, die deutschen Worklinks eine englische Seite. Es gibt das ein Problem. In der Regel ist das unproblematisch. Schwierig ist einfach so, dass wir den Ankertext für diesen Links verwenden wir ja für die Zielseite ein bisschen nicht als Inhalt, sondern als Kontext. Das heißt, wir wissen, diese Zielseite handelt um dieses Thema, was diese Links entsprechend da quasi bestätigen. Wenn ein Sprachmismatch vorliegt, dann ist es manchmal schwierig für uns festzustellen, ja, welches ist jetzt wirklich die deutsche Seite. Da, wo die ganzen Deutschen links hingehen oder die Seite, die effektiv auch auf Deutsch ist und wie es da zusammenhanden zwischen diesen Seiten. Das heißt, ich würde, wenn es irgendwie möglich ist, die Links auch extern vielleicht anpassen lassen, macht ja auch Sinn für den Benutzer und auf jeden Fall mit hreflang arbeiten, so dass wenn wir beide Varianten indexiert haben, dass wir in den Suchergebnissen dann die richtige Variante eintauschen können und die darstellen können. Und dann noch eine letzte, in den letzten paar Minuten, ich habe gelesen, dass die Search Console ein größeres Update bekommt, kannst du schon etwas über die neuen Version und deren Features verraten. Wir sind im Moment am Experimentieren. Wir haben da eine gewisse Menge von Websites ausgesucht, die wir mit dem Experiment mal arbeiten können. Wichtig für uns ist einfach, dass wir sehen können, wie funktioniert das für euch, dass wir Feedback von euch kriegen, was funktioniert gut, was funktioniert nicht so gut, damit das Team da entsprechend auch daran arbeiten kann. Mit diesen Experimenten machen wir auch eine Art A-B-Test. Das heißt, wir versuchen da festzustellen, welche Variante führt dazu, dass Websites wirklich die Probleme auch ein bisschen besser lösen können. Das heißt, nicht nur, wo man quasi ein bisschen mehr herumklickt, sondern wo wir dann effektiv auch sehen in den Suchergebnissen ist Dank dieser neuen Version hat sich etwas positiv verändert, weil Webmaster die Fehler schneller erkennen konnten oder schneller reparieren konnten oder schneller erkennen konnten, welche Fehler wichtig sind und nicht nur eine zufällige Liste von Crawl Fehler zum Beispiel sieht und so versuchen wir ein bisschen herauszufinden, welche Variante jetzt am besten ist. Und je nachdem, wie sich das entwickelt geht das vielleicht ein bisschen schneller oder es dauert ein bisschen länger, bis wir da die Tests wirklich auch abgestoßen haben und dann die neuere Version dann auch allgemein zugänglich machen können. Okay. Puh. Ja. Sonst noch eine letzte Frage von euch. Hi. Hi. Wie sieht es denn mit Google Snippet sowohl aus? Wie kommen wir auch da was für den Pool eine neue Version? Weil einige Sachen funktionieren, da definitiv viel mehr. Mit dem Rich Snippet Testing Tool? Yes. Ich glaube, da kommt auch etwas. Ich habe da gewisse Sachen schon gesehen von einem Team und die sind daran, dass man da auch einige Sachen neu überarbeitet. Es hängt ein bisschen davon ab, wie schnell die da vorwärts machen können mit dem Testing, weil wie immer gibt es irgendwelche Sonderfälle, die man dann auch noch gut abdecken muss. Es gibt aber auch so Testing Tools von ich glaube Miracle SEO, die relativ gut sind gerade für Rich Snippet. Würde ich vielleicht auch mal anschauen. Danke. Okay. Wie fällt es sich mit einem Redirect von einer PDF-Datei auf ein Artikel ähnlich wie die Bildjurals? Ein PDF ist ein Datei, die wir als HTML quasi indexieren für uns wie eine normale HTML-Seite. Wenn da ein Redirect auf eine andere HTML-Seite stattfindet, dann ist das wie ein normal Redirect zwischen verschiedenen HTML-Seiten. Das heißt, wir sehen das nicht gleich wie ein Bild, welches innerhalb von einer HTML-Seite eingebunden ist. Okay. Machen wir vielleicht hier Schluss. Ich glaube, es muss jetzt gerade jemand anderes ins Zimmer hier rein. Vielen Dank fürs Kommen. Vielen Dank für die vielen Fragen und hoffentlich sehen wir uns dann in einer der nächsten Hangouts wieder. Ciao. Danke schön. Danke schön, Ernest.