 Okay, herzlich willkommen zum heutigen Webmaster Essentials-Sprechstunden-Hangout. Mein Name ist Johannes Müller, bin Webmaster Chance Analyst hier bei Google in der Schweiz und Teil von dem, was wir machen, sind solche Webmaster-Sprechstunden, wo jeder dazukommen kann und Fragen stellen kann rund um die Websuche und ihre Website. Sind schon einige Fragen eingereicht worden, direkt auf der YouTube-Seite, das ist sehr praktisch. Wenn ihr wollt, könnt ihr aber auch gerade schon mal loslegen mit den ersten Fragen von euch, falls jemand möchte. Wenn nicht, dann fange ich einfach mal an, was hier so oben erscheint. Im letzten Hangout hatten wir es von Google's Eingriff in die Descriptions, ich hatte dir dazu ein E-Mail geschickt, gibt es dazu News aus dem Team. Ich habe das mal an das Team weitergegeben, also im Großen und Ganzen war, da glaube ich so hauptsächlich die Frage, die Descriptions oder die Snippets, die gezeigt werden in den Suchergebnissen, sind nicht genau das, was in dem Meta-Description angefügt war mit der Website und aus unserer Sicht ist das an und für sich normal. Das heißt, wir versuchen einerseits die Beschreibung oder den Vorschau, den wir da zeigen, an die Suche anzupassen und andererseits versuchen wir natürlich die Inhalte ein bisschen von der Seite so zu präsentieren, dass sie relevant sein können für den Benutzer und dazu können wir manchmal die Inhalte direkt aus dem Description-Meter tag holen und das entsprechend so zeigen. Manchmal passt von der Länge her nicht, da müssen wir dann weiterschauen, manchmal passt einfach von der Relevanz nicht und da müssen wir dann entsprechend auch weiterschauen und dann zum Beispiel ein Teil von Inhalt von der Seite dann direkt in den Vorschau und sprechen zu zeigen und aus unserer Sicht ist das eigentlich absichtlich so gemacht, weil oft ist es so, dass im Description immer das gleiche dargestellt wird auf einer größeren Webseite oder dass im Description etwas sehr Allgemeines ist und der Benutzer hat nach etwas sehr speziellem gesucht und dann möchten wir natürlich zeigen, weshalb ist diese Seite jetzt besonders relevant für den Benutzer und die quasi ins beste Licht stellen, damit der Benutzer dann auch entsprechend seine Informationen findet oder relativ früh schön erkennen kann, das passt zu dem, was ich suche oder das passt weniger. Feedback über diese Snippets, über die Vorschau, die wir da zeigen, ist es auf jeden Fall willkommen und ich habe das mal an das Team weitergegeben, damit sie das anschauen kann und ich denke gerade in Sprachen, die jetzt nicht englisch sind, ist das immer sehr praktisch, weil auf Englisch arbeiten natürlich viele dieser Teams direkt und die können das selber ein bisschen beurteilen, aber wenn Feedback auf Deutsch zum Beispiel kommt oder in anderen Sprachen, ist das immer ein bisschen etwas anders, weil das ist ein bisschen außerhalb von dem, was sie selber vielleicht beurteilen würden. Aber ich habe das mal weitergegeben, normalerweise habe ich da auch kein Feedback, das ich zurückgeben kann an dich, Marc, einfach weil das eher so quasi ein Weg Feedback ist für das Team und sie verwenden das, um die Algorithmen ein bisschen zu verbessern, aber es ist nicht so, dass sie dann konkret sagen würden, ja bei dieser Suche und bei diesem Snippet kann ich dir diesen Feedback konkret geben. Darf ich dazu kurz noch mal nachfragen? Ja, also was mich ja am allermeisten irritiert, ist jetzt weniger die Tatsache, dass ihr relevanteren Content aus der Seite zieht und den in die Description Park, sondern vielmehr die Tatsache, dass die Descriptions dann doch sehr zusammengestückelt sind. Also ich habe durchaus schon Teile der vorgegebenen Description gefunden, dann irgendwas aus dem Content, dann wieder was aus der vorgegebenen Description und dann wieder irgendwie so Punkte dazwischen und das sind keine zusammenhängende Sätze und da fehlt dann ein Wort und also es liest sich teilweise echt, also quasi gar nicht. Ich dachte vielleicht, dass das auch so eine Qualitätsgeschichte an der ja auch immer arbeitet. Ja, eben solche Sachen sind sehr praktisch für das Team, weil das sind Sachen, die funktionieren vielleicht besser auf Englisch als die vielleicht auf Deutsch funktionieren und da ist es praktisch, wenn man gerade solche Beispiele dann auch hat und die entsprechend weitergeben kann. Okay, alles klar, danke. Super. Wir sind eine Deutsche zu einem Printmedium gehörende Website mit der Zeit 11.000 Beiträgen rund um das Thema Reisen. Nach einer Seitenumstellung, die vor knapp drei Jahren erfolgte, begann unsere Besucherzahlen deutlich zu sinken. Was wir unter anderem taten, war ein Buchungstool, welches zuvor auf der rechten Seite seinen Platz hatte, dominant über die volle Breite der Seite, direkt unter dem Logo zu platzieren, so dass es nun praktisch das erste Element ist, welches ins Auge besticht, wenn man die Seite besucht. Ich habe in einem vor vergangenen Hangout gehört, wie du sagst, dass Google verwirrt sein könnte, wenn es ihm nicht eindeutig gelingt, eine Seite einem bestimmten Genre zuzuordnen. Kann es sein, dass Google bei uns nun unsicher ist, wie es unsere Seite einordnen soll, da über allem dieses dominante Tool hängt, in welches die Seite viel mehr wie ein Buchungsportal aussehen lässt, anstatt der redaktionellen Seite, die wir aber wirklich sind. Das ist durchaus möglich. Ich denke, grundsätzlich, wenn eine Umstellung, vor mehreren Jahren, stattgefunden hat und seitdem die Besucherzahlen ein bisschen runtergegangen sind, dann ist es schwierig zu sagen, ob das wegen dieser Umstellung ist, weil das ist schon eine längere Zeit. Und seit den letzten paar Jahren oder insgesamt ist es natürlich immer so, dass es relativ große Änderungen im Google Algorithmus gibt, so dass sich die Suchergebnisse sowieso verändern würden. Das heißt, ganz lässt sich das nicht vergleichen, wie heute der Zustand ist und wie das vor drei Jahren war. Da hat sich einfach sehr viel eh schon verändert. Aber im Grunde genommen, wenn man jetzt ein größeres Element oberhalb einer Seite platziert, dann ist es für uns schon ein bisschen schwieriger zu erkennen, was jetzt das Hauptelement ist von dieser Seite. Und wenn das ein Buchungstool ist, welches einigermaßen dazu zusammenpasst, ist das schon mal eine Sache. Wenn das aber dann so aussieht, wie vielleicht mal ein größerer Werbeblock, dann kann es schon sein, dass unsere Algorithmen denken, ja, die eigentlichen Informationen sind für den Besucher nicht im Vordergrund. Deshalb ist diese Seite vielleicht nicht so relevant für Besucher, die nach diesen Informationen suchen. Und das sind Sachen, die lassen sich oft nicht auf gewisse, sag ich mal technische Details zurückführen, dass man sagt, ja, so und so wie Pixel Maximum, sondern unsere Algorithmen versuchen das ein bisschen gesammthaft anzuschauen auf diesen Seiten. Was ich da vielleicht versuchen würde, ich kenne die Website jetzt nicht, aber was ich da versuchen würde, ist mit Benutzertest das Ganze ein bisschen zu überprüfen, ob das wirklich etwas ist, was stört, ob das etwas ist, was in den Weg kommt, wenn jemand nach normalen Informationen innerhalb der Website sucht, oder ob das vielleicht zwar die ganze Breite ist, aber nicht so, dass es wirklich alle Informationen abdeckten, dass Benutzert trotzdem noch einigermaßen mit der Website zurechtkommt. Und aufgrund von diesem Benutzertest kann man dann ein bisschen eher einordnen, ist das jetzt wirklich ein kritisches Problem, dass wir dringend lösen müssen, oder ist das etwas, was einfach, ja, ist vielleicht nicht optimal, aber man könnte es verbessern. Von da würde ich vielleicht in die Richtung hineingehen. Was man auch machen könnte, ist zum Beispiel in dem deutschen Webmaster Hilfe Forum darüber zu posten, direkt mit eurer Website, mit Suchanfragen, wo ihr Veränderungen gesehen habt oder Suchanfragen, wo ihr das Gefühl habt, dass eure Website bei Weitem die relevanteste sein würde zu diesem Thema, damit andere das auch mal anschauen können und euch ein bisschen objektiven Feedback geben über das Layout, wie ihr die Seite gestaltet, wie ihr insgesamt das vom SEO her angeht. Bei einem Online Shop, den ich betreue, wird in den Suchergebnissen an kurzen Titel die Domain an, wird in den Suchergebnissen an kurzen Titel die Domain angehämmen, soweit so gut. Jedoch wird die Domain mit einem weiteren String ist for sale, ergänzt. Der angezeigte Titel in den Suchergebnissen sieht dann so aus, Produktbezeichnung, Firmennamen, Domain.com ist for sale. Ja, ich müsste dazu wahrscheinlich die konkreten URLs mal sehen und die Suchanfragen, damit ich das genauer anschauen kann. Mit dem Screenshot, das du gezeigt hast, ist ja nur, glaube ich, Domain-Platzhalter dabei, das ist schwierig zu sagen. Normalerweise kommt so etwas von den eigentlichen Inhalten der Websites und gerade wenn man jetzt einen neuen, einen Domain übernimmt, der vorher, vielleicht mal geparkt war, das heißt einfach mit zum Verkaufenschild quasi platziert war, im Internet kann es sein, dass unsere Algorithmen denken, ja, zu diesem Domain gehört dieser allgemeine Domain-Titel. Und das sind Sachen, die lernen unsere Algorithmen im Laufe der Zeit relativ schnell. Wenn das jetzt eine Sache ist, die schon länger bei euch so hängt, dann würde ich das vielleicht wirklich mir mal konkret angeben. Dann kann ich das direkt mit dem Team anschauen, ob da irgendetwas klemmt. Aber normalerweise ist das schon etwas, was wir einfach mit unseren Algorithmen im Zusammenhang mit eurer Website gesehen haben. Meistens versuchen wir natürlich den eigentlichen Firmennamen zu erkennen und zeigen das dann. Aber wenn wir wirklich sehen, dass für eine längere Zeit dieser Text, ähnlich wie euer Firmennamen quasi platziert war auf der Website, dann lernen wir das erst einmal. Und dann braucht es eine gewisse Zeit, bis wir das Neue entsprechend lernen. Wir planen ein Re-Launch. Kann man mit einer Sidemap mit allen neuen Weiterleitungen den Crawlprozess beschleunigen, im Gegensatz dazu, dass der Googlebot alleine alle neuen URLs finden muss. Ja, kann man machen. Das heißt, bei einem Re-Launch ist es natürlich am optimalsten, wenn man möglichst die alten URLs beibehalten kann. Dann müssen wir da nicht viel neu dazulernen, von wegen, wie die einzelnen Seiten miteinander verknüpft sind. Wenn man eine URL-Veränderung macht, dann würde ich auf jeden Fall eben die Weiterleitungen einrichten. Dann würde ich auch konkret die alten und die neuen URLs entsprechend irgendwo mal aufzeichnen, damit ihr das habt. Und dann würde ich auch eine Sidemap-Datei erstellen mit den alten URLs, so wie eine Sidemap-Datei mit den neuen URLs. Der Ziel der Sidemap-Datei mit den alten URLs ist effektiv, dass das, was ihr da beschrieben hat, dass Google merkt, dass diese URLs sich verändert haben, was wir die dann crawlen, und dass wir dann diese Weiterleitungen ein bisschen schneller finden, als wenn wir natürlicherweise crawlen müssten. Was auf jeden Fall aber trotzdem passiert, egal ob man das jetzt mit der Sidemap-Datei macht oder nicht, ist, wenn unsere Systeme erkennen können, dass eine größere Veränderung auf der Website stattgefunden hat, dann versuchen wir die Website ein bisschen schneller neu zu crawlen. Das heißt, selbst wenn man jetzt nicht eine Sidemap-Datei mit den alten URLs insgesamt erstellen kann, versuchen wir das Ganze ein bisschen zu beschleunigen, sobald wir erkennen können, dass da eine größere Veränderung stattgefunden hat. Das heißt, es ist nicht so, dass man, sag ich mal, den aktuellen Zustand anschauen muss und merkt, ja, in einem halben Jahr crawled Google unsere ganze Website durch, deswegen wird ein Re-Launch ein halbes Jahr mindestens gehen. Sondern sobald wir erkennen können, dass eine größere Veränderung da war, dann versuchen wir den Rest ein bisschen schneller durchzugehen. Das heißt, dass es nicht quasi die natürliche Dauer hätte, wie es sonst bräuchte, bis wir alle URLs neu angeschaut haben. Ja, ganz kurz. Würdest du dann empfehlen, die alte, sag ich mal, und die neue Seite bei mir, wenn wir die hochladen, solltet es dann vom Datei-Namen her auch irgendwie kennzeichnet sein, man hat halt alte URLs und neue URLs oder? Nein, muss man nicht. Ich würde einfach, das Wichtige an der Seitenapp-Datei ist, dass man das Änderungsdatum der einzelnen Seiten dabei hat. Und dann kann man auch angeben, dass die alten Seiten sich jetzt verändert haben und dass wir die dann ein bisschen schneller crawlen würden. Datainahme und Struktur der Seitenapp-Datei ist uns total egal. Das landet bei uns alles in einem Topf, quasi alle Seitenapp-URLs und dann nehmen wir da die Sachen raus. Wenn man das separat, in einem separaten Seitenapp-Datei hat, dann ist es einfach ein bisschen einfacher, dass man sagt, nach einem oder zwei Monaten, ich lösche die Seitenapp-Datei mit den alten URLs, weil die ist ja jetzt nicht mehr relevant. Alles klar, danke. Zu Seitenapps hätte ich noch eine Nachfrage, John. Und zwar nutzen wir ein Last-Mod-Datum und geben nur das Datum an der letzten Modifikation. Es ist empfohlen, dass man dieses spezielle Format, dieses, weiß ich, mit dem Z und dem Zeitstempel hinten noch anhängt. Ist es okay, wenn man einfach das Datum benutzt oder nutzt ihr wirklich einen Zeitzeitstempel, also dass man auch noch die Stunden, Minuten und Sekunden daran hängt? Die Uhrzeit ist, glaube ich, weniger kritisch, aber es ist wichtig, dass das Format von dem Datum richtig ist. Ich glaube, das Datum mit ist, ich weiß jetzt nicht, welcher Standard, aber es ist so, dass man bei dem ja mehr Information angeben kann oder weniger Information. Das heißt, wenn ich jetzt nur das den Tag habe, dann ist das auch okay, weil kann man das korrekt so angeben. Wichtig ist einfach, dass das Format korrekt ist, nicht, dass man dann Monat und Tag vertauscht hat oder dass man mit einem Punkt statt mit dem Strich arbeitet. Es muss einfach korrekt sein und dann mit zwei Corona ist egal. Würdet ihr solche Fehler in der Search Console anzeigen, wenn ihr ein Problem mit dem Sidemap habt? Weiß ich jetzt gar nicht. Früher würden wir das anzeigen. Ich weiß nicht, ob das jetzt im neuen Search Console auch so ist. Kann man ja schnell ausprobieren. Einfach ein Sidemap-Datei mit totaler Standard-Auto machen und gucken, was passiert. Ich könnte mir vorstellen, dass wir das nicht mehr darstellen, einfach weil in den meisten Fällen werden die Sidemaps-Dateien ja automatisch vom CMS erstellt und da funktioniert wenig schief. Aber ich würde es einfach mal ausprobieren. Alles klar, danke. Super. Und die vielleicht noch zur Sidemap-Datei kurz noch die anderen Felder wie Priorität und Änderungsfrequenz, die sind aus unserer Sicht irrelevant. Das heißt, die müsst ihr nicht angeben. Es schadet auch nicht, wenn man die angibt. Einige CMS füllen das automatisch aus. Aber die haben einfach festgestellt im Laufe der Zeit, dass das Änderungsdatum ist das, was für uns kritisch ist. Die Priorität und die Änderungsfrequenz sind ja Sachen, die sehen wir ja dann indirekt sowieso. Okay, dann ein paar Fragen zu Google News in Frankreich. Als Schweizer Publisher, der in Frankreich auch Traffic generiert, sollten wir uns als European Press Publication in Search Console eintragen. Gute Frage. Ich weiß nicht, wie das genau definiert ist. Ich vermute, das ist auch gar nicht 100% definiert, wie man sich da quasi markieren soll oder nicht. Es sind ja auch dann manchmal die Fragen quasi, wir sind Tatek in Europa oder wir haben Sitz in Europa oder unsere Entwickler sind in Europa oder unsere Schriftsteller sind in Europa. Das sind ja alles Varianten, die unter Umständen dazu hingeuten würden, dass man diese Einstellung nimmt oder halt auch nicht. Deswegen haben wir uns beschlossen, dass wir diese Einstellung in Search Console euch an und für sich freilassen. Das heißt, wenn ihr das Gefühl habt, dass ihr ein European Press Publisher, weiß gar nicht, wie der deutsche Name ist, dass ihr, wenn ihr das Gefühl habt, dass eure Website da hinein passt, dann könnt ihr diese Einstellung vornehmen und dann ist das an und für sich aus unserer Sicht okay, wir übernehmen das so wie ihr das einstellt. Auch wenn ihr jetzt sagt, wir wollen nicht so eingestuft werden, dann könnt ihr das machen. Das ist an und für sich eure Entscheidung. Was dann passiert, ist eben das, was da noch angesprochen wird, ist die Snippets, die Vorschau Texte. Wenn sie von einer solchen Website in Frankreich gezeigt werden, werden sie standardmäßig, glaube ich, nur der Titel und die URL dargestellt. Es sei denn, man gibt explizit Informationen an, wie viel vom Text Snippet oder vom Bild, von der Vorschau, vom Video Preview gezeigt werden soll. Das heißt, wenn ihr wollt, dass ihr als europäischer Press Publisher angeschaut wird und explizit auf euren Seiten bekannt gibt, so und so viel Text darf dargestellt werden im Snippet, dann zeigen wir bis zu dieser Länge entsprechend an. Die Metathags kann jede Website verwenden und die gelten allgemein für die Suchergebnisse. Das heißt, auch wenn ihr jetzt nicht so eingestuft seid, dann könnt ihr diese Metathags verwenden und dann werden sie zum Beispiel auch in der Schweiz oder in Amerika entsprechend so verwenden. Im Moment ist es wirklich effektiv nur so, dass die European Press Publications, wenn sie in Frankreich dargestellt werden, dann ist einfach der Standardvorgabe so, dass Titel und URL gezeigt werden und in anderen Orten werden da die normale Vorschau Texte gezeigt, eben sei denn, man gibt explizit weiteren Erlaubnis auch an. Und wie ihr das machen soll, ist wirklich euch überlassen. Ich kann euch da nicht groß beraten und sagen, das ist meine Empfehlung oder so viel Buchstaben, würde ich da jetzt nehmen, das ist effektiv euch überlassen. Ihr könnt da selber entscheiden, was bei euch die Grenzen sind, wie viel ihr dargestellt haben wollt oder nicht. Werde es besser für das Ranking, eine DE-Domain zu nutzen anstatt unseren .com, sprich DE, Unterverzeichnis. Wir stecken wirklich viel Arbeit und unsere Testfotos, Videos und Berichte werden aber häufig von relativ einfachen Seiten verdrängt. Die Domain haben wir vor etwa zwei Jahren von einem Reseller gekauft, gibt es dort eventuell Altlasten. Im Grunde genommen ist es so, dass für Geotargeting, wenn man ein Unterverzeichnis zum Beispiel, sprich DE, für Deutschland einstellt, dann wird das als deutsche Website angesehen, genauso wie ein Domain.de. Das heißt, wenn ihr gezielt Deutschland per Geotargeting ansteuern wollt, dann könnt ihr das auf beide Varianten machen. Aus unserer Sicht ist das beides okay. Wenn ihr kein Geotargeting macht, wenn ihr zum Beispiel einfach nur deutsche Inhalte veröffentlicht, die für andere deutschsprachige Länder auch gelten, dann müsst ihr sowieso kein Geotargeting machen, dann passiert das eigentlich alles automatisch, dann ist das auch vollkommen okay. Welche Variante besser ist ein eigener Domain oder ein Unterverzeichnis oder ein Subdomain? Wir versuchen das so zu machen, dass es an für sich eure Entscheidung ist und nicht etwas ist, was wir davor geben würden, weil manchmal gibt es einfach Policy Gründe, dass man sagt, ich möchte mit einem eigenen Domain arbeiten oder es gibt technische Gründe, dass man sagt, ich möchte mit einem Unterverzeichnis oder mit einem Subdomain arbeiten. Das ist an für sich euch überlassen. Das einzige, was man nicht machen kann, ist, wenn man einen länderspezifischen Domain hat und dann ein anderes Land als Geotargeting einstellen möchte. Das heißt, wenn ich jetzt ein Domain mit DE habe, dann kann ich für dieses Domain nicht einstellen, ich möchte jetzt die Schweiz als Geotargeting verwenden oder dass ich ein Unterverzeichnis für die Schweiz habe und dass ich das mit Geotargeting ansteuern möchte, das würde nicht gehen. Aber mit einem generischen Top-level Domain kann man das beliebig machen oder wenn man ein länderspezifisches Domain hat, dann ist es automatisch einfach auf das Land entsprechend ausgerichtet. Ich habe den Domainnamen von dir auch kurz hier angeschaut und aus meiner Sicht sehe ich da eigentlich nichts Spezielles, was da irgendwie klemmen würde oder was euch da zurückhalten würde. Ich denke, das ist eher einfach eine Frage von eurer Website insgesamt, wie sie halt im Web interagiert. Unser Kunde hat eine internationale Corporate Website allerdings nur in Englisch. Eine Keyword Analyse hat nun ergeben, dass einige französische und deutsche Keywords ein hohes Suchvolumen haben. Welche Alternative hätte der Kunden, wenn er nicht die gesamte Homepage übersetzen will, macht es Sinn, nur einzelne Seiten oder einzelne Themencluster zu übersetzen. Bekommen die einzelnen übersetzten Seiten denn dann überhaupt Linkjuice. Wie würdest du da empfehlen? Grunde genommen ist es so, dass wir die Sprache pro Seite anschauen. Das heißt, pro einzelne HTML-Seite nicht der Website und von dem her könnt ihr problemlos sagen, ich mache jetzt fünf Seiten auf Deutsch und fünf Seiten auf Französisch und habe noch 100 Seiten, die auf Englisch sind. Das ist total an und für sich euch überlassen. Was man machen kann, wenn man die Inhalte übersetzt, das heißt, wenn man ein Stück Inhalt nimmt und das auf Deutsch übersetzt und zur Verfügung stellt, kann man mit hreflang arbeiten, um diese beiden Seiten zu verknüpfen. In vielen Fällen muss man das nicht speziell machen, weil wenn jemand nach den deutschen Begriffen sucht, dann ist ja das automatisch die Seite, die am relevantesten ist innerhalb der Website. Wichtig ist ein bisschen, wie du da angesprochen hast mit dem Linkjuice, also mit dem PageRank, ist einfach, dass es intern innerhalb der Website irgendwie verlinkt ist, sodass wir wirklich die Website crawlen können, erkennen können. Da sind jetzt vielleicht mal 120 Seiten. Davon sind 100 auf Englisch und 20 auf Deutsch. Wir können die normal crawlen, wir können PageRank innerhalb der Website normal weiter verteilen. Oft macht man das ja so, dass man, wenn man jetzt einzelne Sprachvarianten von einer Seite hat, dass man einfach einen Link hat, quasi siehe diesen Inhalt auf Deutsch oder siehe diesen Inhalt auf Französisch und dass man so die einzelnen Sprachvarianten verlinkt. Und so ist das ja dann automatisch eigentlich relativ gut verlinkt intern. Bezüglich einzelnen Seiten oder Themencluster, das ist eher euch überlassen. Es ist ja dann auch immer die Frage, was ist quasi der nächste Schritt, wenn der Benutzer euch gefunden hat über die Suche, weil eine Seite jetzt besonders gut war, was ist für euch das Wichtigste, was dann als nächstes passiert? Meistens ist es ja so, dass irgendein Art von Conversion stattfinden sollte, dass vielleicht irgendwas gekauft wird oder der Benutzer sich für irgendetwas anmeldet. Und da muss man natürlich diesen Pfad auch entsprechend frei haben, so dass die Übersetzung und dafür irgendwie verfügbar sind. Das heißt, wenn ein Benutzer jetzt auf Französisch zu euch kommt, dann möchtet ihr das, ich weiß nicht, irgendetwas verkauft wird oder dass er so eine Karte kommt mit den lokalen Standorten oder was auch immer. Und da müssten diese Varianten natürlich auch auf Französisch verfügbar sein. Das ist weniger eine Frage vom SEO, sondern einfach vom grundsätzlichen Überlegen, wie kommen Benutzer zu euch? Was wollen sie dort erreichen? Was wollt ihr erreichen? Und wie könnt ihr sie entsprechend weiterführen, dass sie den richtigen Weg finden? John, ich habe noch eine Frage zu links. Okay. Und zwar, wir stellen ganz viele Fotos und eigene Videos, aber vorne nämlich die Fotos werden halt von Spamside benutzt. Wenn ich mir in der Search-Konsole das angucke bei uns die Backlinks, dann sind dort 85 oder sogar 90 Prozent aller Backlinks in Spam. Und das meiste davon kann ich mir nicht mal angucken, weil dann natürlich ein internal 500-Error kommt oder so, weil ich wahrscheinlich nicht den Google-Wort-Referrer habe oder was auch immer. Ich habe einfach die Beschüchterung, dass es dort einfach unsere Webseite dann dementsprechend eingestuft wird, weil wir so unfassbar viel Spam-Backlinks haben, dass unsere richtigen Backlinks gar nicht richtig eingeschätzt werden vom Algorithmus eventuell und wir da dann halt ein Ranking-Problem bekommen. Normalerweise ist das kein Problem, weil wir haben natürlich all solche Spam-Links schon sehr oft gesehen und das sind Sachen, die unsere Algorithmen relativ gut ausfiltern können. Ich denke, das Verwirrende ist einfach, dass es in Search-Konsole trotzdem dargestellt wird, weil wir in Search-Konsole einfach ein Ausschnitt aus den Gesamtlinks von der Webseite zeigen wollen. Aber das heißt natürlich nicht, dass das jetzt die relevantesten Links sind oder dass das Links sind, um die ihr euch kümmern müsst. Was ich da einfach überlegen würde, ist, wenn es einzelne Domains gibt, die aus eurer Sicht problematisch sind, wo ihr das Gefühl habt, damit möchte ich wirklich nicht in Verbindung gebracht werden, dann würde ich die Domains in die Diss of Out-Datei nehmen. Aber wenn das nur, sag ich mal, ich weiß nicht, billiger Spam ist, der zusammen kopiert wird mit einem Script und wo sie einfach ein klein bisschen Traffic erhoffen, dann würde ich mir gar keine Gedanken machen. Dann würde ich die einfach sein lassen. Okay, die Seiten kann man sich halt teilweise gar nicht angucken. Also wir wissen nicht, was dann da angeht, was der Googlebot dann dort sieht, zum Beispiel. Du kannst, glaube ich, über den Mobile-Friendly-Test hast du ja auch den Googlebot Refer, oder den Googlebot User-Agent und da kannst du das in vielen Fällen kann man das trotzdem anschauen. Aber ich würde sagen im Grunde genommen, gerade solche Links kannst du einfach ignorieren. Die machen euch nichts, die existieren einfach, das sind Scripts, die irgendjemand mal aufgestellt hat, dann vielleicht laufen lässt und er hofft, dass da, ich weiß nicht, zehn Besucher im Monat mal vorbeikommen und das ist dann auf zick verschiedenen Domains. Aber da würde ich mir echt keine Gedanken machen. Okay, dann schauen wir mal weiter. Im Januar hast du in einem Tweet geschrieben, dass man den Index-No-Index-Status von Seiten nicht so oft ändern sollte. Wir haben auf unserer Website Kategorienseiten, wofür bis vor kurzem keine Produkte vorhanden waren, aber heute neue Produkte im Angebot sind. Dies kann sich manchmal täglich ändern. Wie würdest du in diesem Fall vorgehen, die Seiten immer auf Index lassen, unabhängig davon, ob Produkte vorhanden sind oder nicht. Seiten ohne Produkte auf No-Index-Stellen und sobald Produkte wieder vorhanden sind, sie wieder indexieren lassen. Gute Frage. Ich würde mal sagen, dass es da keine allgemeingültige Antwort gibt. Das ist ein bisschen schwierig zu handhaben, weil was effektiv passiert, wenn wir Seiten sehen, die auf No-Index gestellt sind, dann merken wir uns das nach einer gewissen Zeit und sagen, gut, die sind auf No-Index, die müssen wir nicht so häufig crawlen. Und das ist dann einfach das, wo dann die Frage dann irgendwie hingeht. Das heißt, wenn sie längerfristig auf No-Index sind, dann crawlen wir sie weniger häufig, dann sehen wir diese Veränderung von Index, von No-Index auf Index weniger schnell. Das heißt, wenn ihr einigermaßen sicher sein könnt, dass die Seiten nachher wieder indexiert werden, dann würde ich sie eher auf Index lassen. Wenn ihr sicher seid, dass die Seiten wirklich nie oder längerfristig jetzt nicht neue Inhalte haben, dann ist No-Index anfühlt ja auch okay. Und wenn ihr einfach nicht sicher seid, dann ja, muss ich das euch überlassen, ob ihr die auf Index stellt oder auf No-Index nehmt. Aber das sind, sag ich mal so, die allgemeine Überlegungen. Und es ist wirklich einfach die Frage von, wie schnell wir die Seiten dann neu crawlen, weil wenn Seiten längerfristig auf No-Index sind, dann wollen wir euren Server damit ja nicht belästigen und sagen, wir fragen jedes Mal neu ab, was jetzt der Zustand ist von dieser Seite. Wie steht es um die Markup-Element, Site-Navigation-Element und Image-Object? So lohnt es sich, diese auszuzeichnen oder sind sie irrelevant? Site-Navigation-Element weiß ich gar nicht, was das ist, ob das eigentlich so Structured-Data-Art ist. Image-Object insgesamt macht in vielen Fällen schon ein bisschen Sinn, gerade wenn man an der Bildersuche interessiert ist. Dann kann man natürlich ein bisschen mehr Informationen über die einzelnen Bilder entsprechend so angeben. Man kann aber auf verschiedene Varianten Informationen über die Bilder angeben. Das heißt, über den Alltext, über den Dateinamen, über den Text rund um die Bilder und auch natürlich über die Art und Weise, wie die Bilder in der Seite integriert sind, kann man ja mehr oder weniger Informationen angeben über diese einzelnen Bilder. Das heißt, wenn man an der Bildersuche interessiert ist, wenn man das Gefühl hat, dass Benutzer über die Bildersuche zu euch kommen und dann entsprechend bei euch das machen, was ihr gerne haben möchtet oder dass sie da halt ein Conversion machen, dann würde ich mir überlegen, welche Bilder das Sinn machen für euch und die dann entsprechend richtig gemäß unseren Tipps entsprechend auch zu markieren, dass man da auch mit dem Structured-Data die richtigen Informationen angebt, dass sie richtig sauber eingebunden werden in den Seiten, dass die sehr auch wirklich präsent sind auf den Seiten, wenn die aufgerufen werden. Einfach damit wir klar erkennen können, das ist ein Bild, das passt zu dieser Seite und das passt zu diesen Inhaltsblöcken und dann können wir das auch in der Bildersuche ein bisschen besser darstellen. Ich habe eine Frage dazu. Ja. Und zwar gibt es in der Search-Konsole ja diese Bildersuche, wo man erkennen kann, wie viele Klicks über die Bildersuche kommen, um über die Websuche. Jetzt haben wir auch Bilder in der Websuche, also es gibt drei Bilder manchmal in der Vorschau auch in der Websuche. Wenn jetzt ein Bild von uns angezeigt wird und einer draufklickt auf das Bild, gilt das dann als Websucheklick oder als Bildersucheklick? Das gilt als Websucheklick. Das gilt auch für die Impressions und die Position gilt das entsprechend auch in der Websuche. Das heißt, je nachdem kann das ein bisschen verwehrend sein, wenn zum Beispiel eure Website, sage ich mal auf Seite zwei oder drei ist, aber eins von euren Bildern auf der ersten Seite bei den Bildern dabei ist in der Websuche, dann zählen wir das trotzdem als entsprechend, weiß ich, Position eins oder zwei oder je nachdem, wo das Bild halt positioniert ist. Und der Klick gilt entsprechend dann auch für die Websuche. Okay, alles klar. Ich glaube, ähnlich ist es auch mit den Videos, wenn man glaubt man kann auch in Search Console die Videosuche separat anschauen und da ist es auch so, dass wenn wir das Video in der Websuche normal zeigen, dann gilt das für die Websuche. Wenn das wirklich nur in der Videosuche gesucht wurde und gezeigt wurde, dann gilt das dort. Wenn ich drei Links im Futter habe, Link A, B, C, möchte aber, dass Google die Seite Link B nicht indexiert. Reicht es dazu ein RelNoFollow zu geben oder muss ich die entsprechende Seite per RobotsNoIndex einbauen? Ja, haben für sich, wenn die Seite nicht indexiert sein soll, dann muss man mit dem NoIndex arbeiten. Der RelNoFollow ist für uns natürlich ein Zeichen, dass wir da kein PageRank weitergeben sollen auf diese Seite B in diesem Fall, aber es ist nicht ein Zeichen, dass wir die gar nicht anschauen sollen. Das heißt, es kann durchaus vorkommen, dass wir dann trotzdem die Seite B anschauen würden und dass wir die vielleicht auch indexieren würden, selbst wenn wir dann nicht direkt PageRank weitergeben würden durch diesen RelNoFollow Link. Das heißt, wenn es nicht indexiert werden soll, wirklich auch ganz klar uns das sagen und nicht einfach hoffen, dass wir die dann nicht finden. Ähnlich ist es mit anderen privaten Inhalten, wenn man etwas privates Online stellt auf der Webseite, dann würde ich nicht hoffen, dass Google das einfach nicht findet, sondern wirklich ganz klar mit dem NoIndex arbeiten oder das vielleicht noch besser mit dem Passwort entsprechend auch schützen, dass es gar nicht indexiert werden kann. Weil manchmal finden wir Links zu Seiten auf ganz wilde Arten. Manche dieser, sag ich mal, Tracking-Extensions, die es für Browsers gibt, die dann irgendwie relevanten Seiten zusammenstellen, die verwenden dann auf Seiten, die andere Benutzer besucht haben. Und dann auf einmal ist irgendwo ein Link im Internet zu dieser Seite, die ihr eigentlich nicht indexiert haben wolltet. Und dann finden wir diesen Link, finden diese Seite und indexieren die Inhalte, sofern wir nicht ganz klare Zeichen von euch haben, dass das Inhalte sind, die nicht indexiert werden sollen. Wir sind zwei Sachen aufgefallen in Online-Shops auf der Homepage. Amazon.de hat circa 250 ausgehende Links. Andere große E-Commerce-Sites haben weit über 700 ausgehende Links auf ihrer Homepage. Ist es richtig, dass Linkjuice durch 250 Links mehr Power auf die einzelnen Seiten überträgt als Linkjuice durch 700? Oder ist das irrelevant? Gut, ich sage mal Page-Rank statt Linkjuice, aber grundsätzlich ist es schon so, dass diese Signale werden natürlich weitergegeben an die verlinkten Seiten. Und wenn das auf weniger Seiten verteilt werden muss, dann gibt es entsprechend ein bisschen mehr Signale auf diese weniger Seiten. Ich denke, Amazon ist natürlich eine relativ große Website, von dem her ist es nicht so, dass sie dann gar keine Links auf die anderen Seiten haben, sondern diese Links sind wahrscheinlich einfach auf verschiedenen anderen Arten davorhanden und so können wir diese Seiten dann trotzdem noch indexieren. Was ich einfach vielleicht allgemein empfehlen würde, ist, gerade wenn wir jetzt als kleinere Website anfangen, nicht unbedingt Amazon oder eine große Website oder Google oder YouTube oder was auch immer als Vorbild nehmen und denken, die machen das schon richtig, ich kann ihr System kopieren und dann funktioniert es bei mir auch richtig. Gerade bei größeren Firmen, bei größeren Websites gibt es oft Sachen, die sind einfach suboptimal und die wurden halt so mal implementiert, weil irgendjemand gedacht hat, das ist schon okay und es funktioniert vielleicht einigermaßen für sie, vielleicht ist es aber nicht optimal. Und auf jeden Fall, gerade wenn ihr anfängt mit einer neuen Website, ihr seid ja noch nicht Amazon. Das kommt vielleicht noch, aber im Moment zeigt ihr das nicht. Das heißt, ihr habt einfach nicht diese Geschichte, die dahinter steckt und die ganzen anderen Einbindungen vom Internet her, die Links, all die anderen Signale, die jetzt eine größere Firma, die schon länger vorhanden ist auf dem Web, all die Sachen habt ihr natürlich noch nicht. Und von dem her ist es wichtig, dass ihr eine Strategie findet, die für euch funktioniert und nicht einfach eine nimmt, die für andere vielleicht funktioniert oder zumindest nicht katastrophal ist. Und bezüglich der Anzahl Links auf einer Seite ist es schon so, dass wir den Page-Rank entsprechend auch diese Links verteilen und dass wir dann so entsprechend den Rest der Website crawlen. Aber es ist natürlich immer trotzdem eine Frage davon, wie ihr das anschauen wollt. Es kann ja sein, dass ihr vielleicht 100 Sachen habt, die sehr wichtig sind und andere Sachen, die weniger wichtig sind, dann könnt ihr das vielleicht so einteilen. Das kann aber auch genauso gut sein, dass ihr sagt, gut, wir haben 500 Sachen und die sind alle gleich wichtig und dann, dass ihr die alle direkt auf der Homepage so verlinkt, dass es an und für euch überlassen, ob ihr da, sag ich mal, einen steilen Turm baut mit Links, die von oben nach unten geht oder ob ihr das breit gefächert macht, sodass die Seiten eher miteinander quer verlinkt sind. Das kann man auf verschiedenen Arten machen. Was ich einfach machen würde, ist überlegen, wie ihr das längerfristig gestalten wollt. Das heißt, nicht einfach ein System nehmen, was jetzt für euch einigermaßen funktioniert, sondern auch wirklich überlegen, wie würde das aussehen in ein oder zwei Jahren. Müssen wir da grundlegend unsere Website neu überdenken, wenn wir da weiter wachsen oder können wir weiter wachsen, ohne dass wir alles neu umstellen müssen. Weil wenn ihr die gesamte Website Struktur umstellen müsst, dann ist das ein größerer Eingriff in die Website und dann wird das zumindest für, sag ich mal, ein paar Monate auch in größere Schwankungen in der Suche geben. Das heißt, so weit wie möglich würde ich versuchen, dass ihr eine Struktur nehmt, die ihr längerfristig verwenden könnt, sodass ihr da nicht auf einmal alles umstellen müsst, nur damit ihr jetzt diesen paar neuen Produkten auch irgendwie integrieren könnt. Dann der zweite Teil. Online Shops tendieren dazu, die Anzahl ihrer indexierten Seiten aufzublasen, indem sie Seiten indexieren lassen, zum Beispiel mit Sneaker-Marke gleich Nike oder Sneaker-Marke gleich Adidas. Somit kann durchaus der Suche enthält genauer getroffen werden. Nutzer suchen nach dieser Sneaker-Marke, erhöht aber auch insgesamt die Anzahl an Seiten. Wie bewertest du dieses Vorgehen? Ja, ich denke, du hast da auch die beiden Varianten schon mal angesprochen. Einerseits macht es natürlich Sinn, dass man weniger Seiten hat, damit die einzelnen Seiten mehr Wert haben insgesamt innerhalb von eurer Website. Andererseits möchtet ihr vielleicht auch gewisse Benutzerbedürfnisse gezielter abdecken, sodass wenn jemand gezielt nach dieser Marke sucht, dass da etwas gezieltes bei euch auch vorhanden ist. Und diese Balance zu finden, die ist manchmal nicht sehr einfach. Da muss man sich auch wirklich ein bisschen überlegen, wie man das am besten gestaltet. Und manchmal macht es sogar auch Sinn, dass man sagt, gut für einzelne Produkte nehmen wir alles eher zusammen und für andere Produkte teilen wir das auch wirklich sauber auf, weil wir da erkennen können, dass jemand gezielt nach dieser Variante sucht. Wenn Benutzer zu euch kommen und zum Beispiel Sneaker in eurem eurem Ort oder in eurem Land entsprechend suchen, auf eure Website kommen, dann ist vielleicht die Marke dieses Sneaker irrelevant. Wenn jemand zu euch kommt und sagt, ich möchte jetzt goldene Adidas, Tornschuhe für, ich weiß nicht, spezielle Sportart, wenn da genug Leute so direkt suchen, dann macht es vielleicht auch Sinn, dass man sagt, gut für diese ganz spezielle Variante möchte ich eine eigene Lightning Page haben, weil das wirklich etwas Eindeutiges ist, wonach gesucht wird. Und da haben wir vielleicht auch Erfahrung oder da haben wir die speziellen Produkte, die sonst niemand hat. Und diese Balance zwischen sehr speziell und eher allgemein, das ist manchmal ein bisschen schwierig zu finden. Und ich denke, jeder, der schon länger einen Online Shop hat, der hat da die Erfahrungen auch gemacht, dass man da vielleicht eher in die Richtung ein bisschen stark geht und dann wieder ein bisschen in die andere Richtung und irgendwo muss man da seine Balance erfinden. Und ich vermute, das verändert sich auch im Laufe der Zeit, wenn man dann wirklich merkt, das ist etwas Spezielles, das möchte ich jetzt speziell hervorheben und die anderen Sachen möchte ich eher ein bisschen wieder zusammenpacken und das kann sich ja verändern. Wir haben im URL Removal Tool in Search Console gerade 10 URLs entdeckt, die als Removed und Outdated Cash Removal klassifiziert werden. Wir sind uns keine manuellen Aktionen in der UI des Tools bewusst. Gibt es davon euch eine andere Erklärung, warum die URLs in Listing im Removal Tool auftauchen, zeigt ihr da eventuell Ergebnisse von internen Aktionen ein oder sind die URLs zwangsläufig durch das Removal Tool auf die Liste genommen. Die Sachen, die da aufgelistet werden, sind effektiv URLs, die über das URL Removal Tool eingereicht worden sind. Allerdings gibt es da zwei Varianten, wie man da hinkommen kann. Einerseits über Search Console, wenn man die Website verifiziert hat, dann kann natürlich jeder verifizierter Besitzer kann URLs dort einreichen und sagen, das möchte ich gelöscht haben oder da möchte ich den Cash aktualisiert haben. Das sind Sachen, die nehmen wir direkt so auf und denken, ja gut, du bist verifizierter Besitzer von der Website, du kannst uns sagen, wie du das haben möchtest, dann nehme das direkt an. Das können natürlich verschiedene Leute, können ja Besitzer sein der Website, das heißt es kann sein, dass ein Benutzer das gemacht hat und der andere sieht das und weiß nicht, warum. Das ist eine Variante. Das andere ist auch, es gibt ein öffentliches Removal Tool, wo man nicht der Besitzer sein muss und da ist es so, dass jeder für sich URLs dort einreichen kann, damit sie auch entfernt werden in der Suche oder damit der Cash aktualisiert wird und bei diesen URLs überprüfen wir das erst mal automatisch, ob das effektiv der Fall ist. Das heißt, wenn jemand sagt, diese URLs soll entfernt werden, dann warten wir erst mal eine Weile und kontrollieren dann ein paar Mal diese URL, ob sie effektiv auch entfernt worden von der Website, ob sie per Robots Text blockiert ist, ob sie No Index hat, ob sie 404 zurück gibt, all diese Standardsachen und wenn das der Fall ist, dann entfernen wir die ein bisschen schneller, als wenn wir sie einfach neu crawlen würden und das wäre bei euch dann auch sichtbar in Removal Tool. Ähnlich ist es mit dem Cash Update, da kann für sich jeder kommen und sagen, auf dieser Seite war einmal dieser Inhalt, der wird im Moment noch in den Suchergebnissen dargestellt, bitte aktualisiert das und dann würden wir das auch aufnehmen und entsprechend verarbeiten, entsprechend aus den Suchergebnissen herausholen oder aktualisieren und euch auch im In Search Console zeigen. In Search Console als Besitzer könnt ihr solche Sachen, die eingereicht worden und quasi überprüft worden, könnt ihr auch canceln, das heißt ihr könnt da effektiv sagen, das stimmt nicht oder das möchte ich rückgängig gemacht haben und dann nehmen wir das entsprechend auch wieder zurück. Normalerweise ist es allerdings so, dass die Sachen, die von externen Benutzern eingereicht wurden, die wurden ja sowieso schon überprüft, wo wir gesehen haben, die Seite gibt es effektiv nicht mehr, deswegen haben wir sie rausgenommen. Meistens macht das Sinn oder sie sehe ich das, wenn eine Website entweder, sag ich mal, Nachrichten über andere Firmen oder andere Leute veröffentlicht und die Nachrichten werden im Laufe der Zeit aktualisiert, dann könnte natürlich die betroffenen Personen kommen und sagen, ja, ich möchte, dass das aktualisiert wird in den Suchergebnissen. Die andere Variante ist, wenn man User-Generated Content dabei hat, wo jemand sagt, ja, ich habe jetzt irgendwie einen Kommentar auf dieser Seite hinterlassen, ich habe den Kommentar wieder gelöscht, ich möchte, dass Google das auch in der Suche entsprechend berücksichtigt. Sachen, die aus unserer Seite entfernt werden, sind dann eher in den manuellen Maßnahmen dabei, das heißt, das sind ja dann eher Webspam-Sachen, die so eingereicht wurden und die sind dann im Entfernungstool nicht separat aufgelistet. John, dazu eine Frage, im zweiten Fall, wenn tatsächlich von extern angestellt wird, dass Content entfernt wird, da wird man dann normalerweise als Webmaster dann über die Search-Konsule per Nachricht informiert, oder? Ich glaube nicht, bei solchen Entfernungssachen nicht, weil unter Umständen sind es ja viele Seiten und wenn wir das eh schon algorithmisch feststellen können, dass diese Seite effektiv blockiert ist oder entfernt wurde, dann ist es ja eigentlich der Zustand, der sich längerfristig eh einpendeln würde, einfach ein bisschen schneller. Okay, dann danke ich dir. Ich hatte vor 18 Jahren begonnen, viele Reiseberichte auf meiner Website zu veröffentlichen, nachdem die Seite vor einigen Jahren abgestürzt ist, habe ich daran fast nichts mehr gemacht und der Content wurde älter und älter. Nun habe ich die Alpenberichte alle entfernt und damit begonnen wieder komplett neu mit neuen Reiseberichten zu starten, da diese Domain auch noch einige alte Links hat. Siehst du da Probleme, die vielleicht aus negativen Signalen kommen könnten, zum Beispiel von den alten Links oder einer sonstigen Vorbelastung der Domain, würde es an meiner Stelle die Reiseberichte eher auf einer frischen Domain veröffentlichen oder macht es mehr Sinn, die Bestehende zu verwenden. Ich habe deine Website mal kurz angeschaut bei uns und sehe da eigentlich nichts, was da irgendwie klemmen würde, außer natürlich die Seiten, die du jetzt alle entfernt hast, weil die sind jetzt nicht mehr als ich bei den Suchergebnissen, aber ansonsten kann man die normal verwenden und wenn hier andere Inhalte dort aufnehmen möchtet, als das was vorher da war, das anfühle ich dir überlassen. Wie du mit den alten Reiseberichten umgehen möchtest, das ist dir natürlich auch überlassen. Normalerweise würde ich empfehlen, dass wenn man jetzt Inhalte mal erstellt hat mit Bildern, wie ich mir so Reiseberichte vorstelle, wenn man die selbst geschrieben hat, dann würde ich die eher irgendwo belassen im Internet. Ich denke, das sind interessante Seiten, die vielleicht nicht wahnsinnig viel Traffic erzeugen jeweils, aber die trotzdem einigermaßen interessant sein könnten für ein kleineres Publikum. Das heißt, ich würde da nicht einfach alles löschen, nur weil der Website nicht wahnsinnig gut geht, sondern wirklich einfach überlegen, sind das Inhalte, die an für sich okay sind oder sind das Inhalte, zu denen ich gar nicht mehr stehen kann, weil vielleicht habe ich da irgendetwas, wäre es zusammengeschrieben, das eigentlich doch nicht so interessant ist. Und wenn das Sachen sind, die du beibehalten möchtest, dann würde ich die weiterhin auf der Website lassen. Wenn du die verschieben möchtest, würde ich da mit einer Weiterleitung arbeiten, dass man die entweder in einem Archiv verschiebt oder auf einen anderen Domain verschiebt, wie du möchtest. Bezüglich den externen Links, die zu dieser Website führen, das ist natürlich dir überlassen, wie du damit arbeiten möchtest. Wenn das Links sind, die zu speziellen Seiten waren, innerhalb der Website und diese einzelnen Seiten jetzt nicht mehr existieren, das heißt 4.04 zurückgeben, dann wäre es so, dass wir diese Links fallen lassen würden. Das heißt, das würde ich vielleicht mal anschauen, überlegen, welche Seiten macht es Sinn, dass ich die beibehalte, weil da haben vielleicht sehr viele Leute schon irgendwie hingewiesen und gesagt, das sind eigentlich gute Inhalte dort und dass man die Seiten dann eher vielleicht beibehält. Oder wenn du sagst, ich möchte wirklich jetzt frisch anfangen mit diesem Domain, dann muss man sich damit eigentlich nicht groß auseinander setzen. Unterscheidet sich Deutsches von internationalen SEO aufgrund der Datenschutzbedingungen? Eigentlich nicht. Also aus unserer Sicht ist es nicht so, zumindest meines Wissens ist es nicht so, dass wir spezielle Algorithmen hätten, die besonders bezüglich Datenschutzbestimmungen anders arbeiten würden für Deutschland oder für Europa im Allgemeinen im Vergleich zu anderen Ländern. Sondern wir versuchen, die Seiten so zu indexieren, wie sie kommen. Und manchmal sind da halt spezielle Sachen vorhanden und manchmal sind da nicht. Die Sachen nicht vorhanden, aber es ist nicht so, dass wir da Deutschland irgendwie austiedern würden und sagen würden, für deutsche Websites müssen andere Bedingungen erfüllt werden. Sind mehrere H1 jetzt sinnvoll oder nicht? Im Video sagt ihr, dass man die verarbeiten, aber mehr nicht. Das heißt auch nicht, dass in Ordnung ist. Ja, meine Güte, das mit dem H1 Video habe ich nicht erwartet, dass das so kontrovers wird. Was wir einfach manchmal sehen, ist, dass Websites mit H1 arbeiten, als ob das irgendein Zaubermittel ist und dann versuchen möglichst viele Keywords hinein zu stopfen oder den ganzen Text der Seite in einem H1 einpacken. Und das macht natürlich nicht wahnsinnig viel Sinn, sondern es hilft uns effektiv, wenn wir saubere Headings erkennen können auf der Webseite. Wenn wir klar erkennen können, dass es jetzt ein Hauptüberschrift von diesem Teil und das sind dann Texte dabei und Bilder dabei, dann können wir wirklich klar erkennen, das ist ein sauberer Überschrift, dass dieser Text passt entsprechend dazu. Das können wir dann auch fürs Ranking entsprechend verwenden. Es ist aber nicht so, dass wenn ihr jetzt, sag ich mal, ein H1 und dann ein H3 und ein H2 und irgendwie vermischt habt, das ist nicht jetzt ein kritischer Fehler. Es ist auch nicht ein kritischer Fehler, wenn ihr keine H1 Headings habt auf den Seiten. Es ist einfach so, dass es uns hilft uns ein bisschen. Und wenn ihr kleine Sachen machen könnt, die uns helfen und wenn es euch daran liegt, dass eure Seite möglichst gut erkannt wird, dann würde ich mit diesen H1 Headings arbeiten. Aber es ist, wie gesagt, eben kein Saubermittel, dass man sagen muss, das müsst ihr machen, sonst wird eure Seite nie gefunden, sondern wir arbeiten mit dem Internet, wie es halt kommt. Uch, zeitlich sind wir ziemlich am Ende. Ich weiß nicht, ob ihr noch irgendwelche speziellen Fragen habt, die ich vielleicht noch kurz beantworten kann, bevor wir da einpacken. Ich hätte noch eine Frage. Wie viele Webseiten haben eigentlich, also ihr schaut euch ja echt viele Webseiten noch an als Google. Wie viele Webseiten haben eigentlich Relevanzprobleme? Also praktisch, dass für ein Keyword es Zehntausende von Seiten gibt oder sagen wir mal einfach 200 Seiten oder so. Ist das ein Extremesproblem, wenn ihr euch das Internet so anschaut? Schwierig zu sagen, weil wir finden natürlich Websites zu fast jedem Thema. Und dann, was wir einfach machen, ist, dass wir aufgrund von der Suchantrage versuchen, wir die Seiten erst mal zu finden, die einigermaßen Inhalte zu diesem Thema haben und dann versuchen, ein Ranking zu machen innerhalb diesen Seiten. Und wenn wir e-Seiten zu diesem Thema haben, dann ist ja eigentlich schon etwas vorhanden. Dann ist es nicht so, dass wir sagen würden, es gibt nur schlechte Seiten zu diesem Thema. Von dem her ist es schwierig zu sagen, wie viele Seiten Relevanzprobleme haben. Was wir auch einfach feststellen ist, dass es weiterhin so ist, dass wir, ich weiß nicht, 10% oder 20% der Suchanfragen jeden Tag sind vollkommen neu, die wir noch nie gesehen haben. Und da ist es natürlich immer so, dass wenn die Suchanfragen total neu sind, dann kann es sein, dass wir auf einmal neue Seiten suchen. Und manchmal ist es dann so, dass wir neue Suchanfragen haben zu einem Thema, wo vielleicht diese Seiten noch gar nicht indexiert wurden. Und das ist dann vielleicht eher etwas, wo wir sagen würden, gut, wir haben keine Ergebnisse, die wir euch zeigen können. Wir sehen aber, dass viele da ihr nach jetzt auf einmal gesucht haben. Aber normalerweise pendelt sich das auch automatisch ein, dass wenn viele Leute nach einem neuen Thema suchen, dann suchen sie ja, weil sie irgendwo Informationen gesehen haben. Und dann kommt der Nächste und stellt dann entsprechende Informationen im Internet dazu dann auch ein. Okay, danke. Ich hätte zwei Fragen. Also die erste Frage ist zu meiner Frage. Ich weiß nicht, ob ihr die beantwortet habt. Ich war gerade kurz nicht dabei. Ich wollte mal kurz weggehen hier. Das war mit diesen Link 1, Link 2, Link 3, Link A, Link B, Link C. Ja, das ist das Mikrofon, was du benutzt. Kannst du mir sagen, was das von Modell ist? Weil ich suche gerade so was in Richtung? Oh Gott. Ich weiß es nicht. Ich weiß, dass sie abschaut. Von klang her, was ein sehr gutes. Okay, danke. Es ist irgendeinactic Standardmodell. Nichts wahnsinnig spezielles. Fällt die Marke gerade nicht ein. Ich kann dir einen E-Mail schreiben dazu, und du kannst mir deine E-Mail nur antworten. Okay. Super, danke. Weil ich bin gerade Ich wollte noch so was suchen, weil ich habe ein Mikrofonier, aber mir war doch geholfen, wenn ich so ein Mikrofonier hatte, weil ich mache... Ach so, noch eine Antwort. Weil du meine Frage beantwortest, ich mache ein Video, ich wollte ein Video-Tutorial machen in meinem YouTube-Kanal über SEO und auch über den No-Index und so Sachen und No-Follow. Darf ich mir den Teil, wo du meine Frage beantwortest, ausschneiden und mein Video mit ein reinarbeiten als Zitat quasi? Ja, kein Problem. Kurze Frage noch von mir. Betreffend Google News. Dort werden ja oder mittlerweile werden ja die Icons angezeigt, also die Fafikons von den Zeiten. Wenn man sich aber die Google News zum Teil anschaut, die oberen aktuellen News, dann werden teilweise die Icons gar nicht angezeigt. Kommt das in Zukunft noch? Keine Ahnung. Weiß ich nicht. Also einerseits weiß ich von Google News nicht, wahnsinnig viel. Anderseits ist es meistens so, dass wir solche Sachen einfach testen und wenn wir sehen, dass sie funktionieren, dann machen wir das. Und da ist es schwierig im Voraus zu sagen, wir werden das irgendwann in Zukunft machen, wenn wir das noch gar nicht ausgetestet haben. Okay. Okay, dann machen wir hier... Ja. Der Krummbrowser unterstützt ja mittlerweile die Klasse Lesilot für Bilder und auch für iFrames. Versteht der Google Bot das auch schon? Ja. Ja. Oh Gott, wer ist das? Ja. Für Bilder ist ja sowieso kein Problem, weil wenn wir das nicht verstehen würden, sehen wir trotzdem diesen Image Tag, ist ja trotzdem dabei. Für iFrames ist es natürlich immer ein bisschen schwierig zu erkennen, was wird mit diesen iFrame Inhalt gemacht. Wir versuchen, wenn möglich, den iFrame Inhalt schon mit der Seite zu indexieren. Es kann aber auch sein, dass wenn ein Link auf diesen iFrame Inhalt irgendwo besteht, dass wir den iFrame Inhalt separat indexieren würden. Aber da ist es weniger eine Frage vom Lesiloting, sondern einfach allgemein iFrames ist ein bisschen unklar, was genau passiert. Und die Berechnung des Page Speeds wird das damit berücksichtigt? Also, dass man sagt, okay, dieses iFrame... Meine Frage bezieht sich vor allen Dingen auf YouTube, weil wenn man YouTube-Videos einbettet, das dauert halt immer mindestens anderthalb Sekunden. Und man sieht dadurch natürlich seine gesamte Page-Speed-Router. Auch wenn das Video halt unten irgendwann erst in einem Artikel oder so auftauchen würde. Läuft das bei uns rein bei euch als Page-Speed? Ich würde vermuten, ja, einfach weil wir gerade für die... Es gibt jetzt zwei Varianten über Page-Speed bestimmen. Einerseits quasi mit diesen statischen theoretischen Tests, die wir machen, wo wir das Rendering der Seite anschauen. Andererseits über die Benutzer-Daten, die über den Crux-Daten kommen, über Chrome. Und die Daten, die über Chrome kommen, kommen natürlich von Benutzern. Und wenn Benutzer das sehen, wenn dieses Lesiloting dort verwendet wird und die Seite schneller macht deswegen, dann ist das sowieso dabei. Und bei den ganzen Testing-Tools ist es so, dass wir versuchen, da möglichst auch mit den neueren Chrome-Versionen zu arbeiten. Das heißt mit dem sogenannten Evergreen Chrome. Und sobald das im normalen Chrome unterstützt wird, dann wird das auch für die Testing-Tools unterstützt. Manchmal ist da einfach ein bisschen ein Zeitdifferenz von dann, wenn es effektiv verfügbar ist und dann, wenn es in unseren Tools ist. Aber das sollte eigentlich nicht länger, das sage ich mal, ein Monat oder zwei gehen. Und ich glaube, dass mit dem Lesiloting, das ist ja, weiß ich nicht, gut, das ist jetzt auch erst ein paar Monate her. Das ist, glaube ich, im 74 oder 75 gelandet. Wir sind jetzt, wenn ich mich nicht täusche, auf 77 im Evergreen Chrome, also im Googlebot. Und demnächst 78, also es wird schon ein Zeit lang unterstützt. Super, okay, gut geraten. Okay, gut, dann machen wir vielleicht hier mal Pause. Und dann kann ich noch ein paar andere Sachen heute noch erledigen. Vielen Dank fürs Kommen. Vielen Dank für die vielen Fragen. Vielen Dank fürs Vorbeischauen, Martin auch. Und dann stelle ich noch die nächsten Hangouts ein. Und dann sehen wir vielleicht einen von den nächsten Mal. Im Dezember, vielleicht im Voraussage schon mal, haben wir ja auch die Webmaster Conference in Zürich. Martin organisiert da einen großen Teil. Und wenn ihr da in Person mal vielleicht vorbeikommt, das war natürlich auch dort. Ich glaube, die Registrierung ist allerdings schon voll, oder? Ja, ja. Vielleicht mache ich noch mal ein paar Plätze auf, aber wir sind jetzt schon recht heftig überbucht. Okay, danke. Optimalerweise wird es nächstes Jahr noch ein paar kleinere Events geben. Auch in Deutschland. Und dann hat man noch mal eine Chance. Super. Okay, dann wünsche ich euch allen schon mal einen schönen Nachmittag. Bis zum nächsten Mal. Danke gleichfalls. Danke schön. Tschö. Tschö, Mittel.