 Ja, ein Mikro ist extrem leise. Also erstmal herzlich willkommen bei im heutigen Google Webmaster Central Sprechstunden Hangout. Da muss man schauen, ob ich im Mikrofon noch mal da irgendwas umstellen kann. Geht das besser so? Vielleicht, okay. Probieren wir mal aus. Herzlich willkommen bei im heutigen Webmaster Central Sprechstunden Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Trends Analyst hier bei Google in der Schweiz. Und ein Teil von dem, was wir hier machen, sind solche Webmaster Hangouts, wo Webmaster hier hineinkommen können und Fragen stellen können, alles rund um die Websuche in erster Linie. Wie immer sind da schon einige Fragen eingereicht worden. Aber wenn einer von euch loslegen möchte mit einigen ersten Fragen, seid ihr gerne dazu eingeladen. Nicht? Kein Problem. Dann fangen wir mal oben an. Viele Kommentare können eine Seite schon mal extrem lang werden lassen. Sind typische LazyLoad Plugins ein Problem für Googlebot und scrollt dieser so lange hinunter bis alle Inhalte sichtbar werden. Vielleicht, vielleicht sind die ein Problem vielleicht auch nicht. Grundsätzlich ist es so, dass ich darauf achten würde, dass wenn Inhalte indexiert werden sollen, dass sie wirklich von Anfang an beim Laden der Seite sichtbar sind. Was Googlebot macht, wenn die Seiten gerendert werden, das heißt, wenn wir den JavaScript ausführen, wo dann in der Regel solche LazyLoad Inhalte auch aufgeladen werden, ist erstmal die Seite in einem ganz langen Fenster zu öffnen und dann zu schauen, wie groß wird die Seite etwa und dann wird es ein bisschen reduziert oder verlängert, je nachdem, wie die sichtbaren Inhalte dort vorhanden sind. Das heißt, Googlebot scrollt nicht herunter, sondern versucht ein großes Fenster quasi aufzumachen, um diese Inhalte alle zu lesen. Und je nachdem, wie ihr LazyLoading implementiert, kann das natürlich sein, dass die Inhalte entweder alle geladen werden, was ja dann eigentlich okay wäre oder dass die Inhalte nicht vollständig geladen werden und dann werden die Inhalte, die nicht geladen werden per JavaScript, die werden halt nicht indexiert. Und da ist es natürlich für euch vielleicht mal eine Frage, was müsst ihr da machen? Macht das für euch irgendwelche Probleme, ist das für euch okay? Es kann ja zum Beispiel auch sein, dass die Kommentare, dass ihr da irgendein System habt, dass die wichtigsten Kommentare nach oben getragen werden auf der Liste und dann deswegen her, dass sie eh immer sichtbar sind, dann ist das ja alles okay, wenn nicht bis runter zum hundertsten Kommentar alles auch wirklich indexiert ist. Es kann aber auch sein, dass für euch wichtig ist, dass wirklich alle Kommentare indexiert werden und dann müsst ihr halt dafür sorgen, dass Googlebot diese Inhalte auch irgendwie sehen kann. Am einfachsten lässt sich das testen, wenn man einfach ein Teil von den Inhalten, die da unten sind auf der Seite, die mit Lazy Loading geladen werden, wenn man gezielt nach denen sucht in den Suchergebnissen, dann sieht man sehr schnell, wer hat die Seite gefunden oder wer hat sie nicht gefunden. Wenn sie nicht gefunden wird, ist das für mich ein Problem oder nicht. Und wenn es ein Problem ist, dann kann man natürlich das angehen und versuchen eine Lösung zu finden. Im Englischen Hangout hast ihr erwähnt, dass zuerst ein Domainwechsel empfiehlt und später im zweiten Schritt ein Relanche. Betrachtet Google ein Wechsel von HDTP auf HDTPs wie ein Domainwechsel? Nein. Für uns ist das an und für sich einfach ein Wechsel von einem Art innerhalb vom gleichen Domain zu einem anderen Art, innerhalb vom gleichen Domain. Deshalb geht das in der Regel recht unproblematisch, wenn man da sauber redirects einrichtet, wenn die Seiten wirklich weitergeleitet werden, sollte das eher unproblematisch sein. Zweitens hat ein Serverumzug zu einem neuen Provider auch einen Einfluss auf die Reihenfolge. Nein. An und für sich ist das total getrennt auf unserer Seite. Das heißt, das einzige was ein Serverumzug bei uns verursacht, ist, dass wir uns neu überlegen müssen, wie viel dürfen wir von dieser Website täglich verursachen. Wenn wir den Server nicht kennen, dann gehen wir oft so auf die konservative Seite und sagen, wir crawlen vorsichtig im Moment. Wenn wir sehen im Laufe der Tage, dass das eigentlich alles perfekt geht, dann können wir die Crawl-Geschwindigkeit wieder ein bisschen hochstellen. Das geht vollständig automatisch. Das hat keinen Einfluss auf das Ranking. Das ist wirklich nur von der Crawl-Geschwindigkeit her, dass wir da im ersten Moment vorsichtig sind und dann später das ein bisschen vergrößern können, die Geschwindigkeit. Und das Gleiche passiert auch, wenn man zu einem Content Delivery Network wechselt oder wenn man zwischen verschiedenen Content Delivery Networks wechselt, dann ist es oft so, dass unsere Systeme erst ein bisschen vorsichtiger sind und dann wieder mit normalen Geschwindigkeit crawlen. Vom Indexing, vom Ranking her hat das eigentlich keinen Einfluss, weil sind ja die gleichen Inhalte die gleichen URLs. Im aktuellen Fall hat eine Website eine gute Struktur bis auf einzelne Ausreise. Genau genommen sind es ca. 100 URLs von 5.000, die nicht der Struktur folgen. Von diesen 100 URLs ranken 30% gut, 30% Mittel und 40% gar nicht. Ich frage mich, wenn ich alle auf einmal antasse, ob Google dies schnell verstehen wird oder ob ich das quasi lieber in Schritten machen sollte. Ich würde das einfach auf einmal antausen. Wenn das Größenordnung 100 URLs sind, dann ist es eigentlich schnell verarbeitet. Da sehe ich jetzt an und für sich kein Problem. Du kennst sicherlich viele Online-Shops, die Unterhalt von Produktlisten viele Texte platzieren. In erster Linie werden solche Texte nur für den Board kreiert. Auf der einen Seite wurde oft schon solche Texte von Google angezweifelt und gleichzeitig werden solche Texte im Index aufgenommen und durch den Board verwertet. Ich kenne auch Fälle, wo mit Texte bessere Rankings erzielt werden konnten, aber auch Fälle, wo das Entfernen der Texte zu Verlusten führt. Wie ist deine Empfehlung hierzu? Welchen Ansatz was kann man da quasi machen? Grundsätzlich ist es so, dass Texte uns natürlich um die Seite besser zu verstehen, aber in der Regel braucht es da nicht wahnsinnig viel, um da ein bisschen mehr Kontext zu den Inhalten auf der Seite zu bekommen. Das heißt, ihr müsst sicher keine Wikipedia-Artikel da zusammenstellen, aber wenn ihr im Moment ein e-Commerce-Shop habt, eine Kategorie, sind nur eins Produktlistings vorhanden und so gut wie keine weiterführende Information auf dieser Seite, das kann es natürlich schwierig für uns sein, da festzustellen, wofür diese Seite eigentlich in den Suchergebnissen vorhanden sein sollte. Und wenn man ein bisschen Informationen dazu nimmt, dann hilft das uns meistens schon. Manchmal sehen wir das, wenn wir eine Website vom Desktop-Index zum Mobile-Index wechseln, weil oft, auf welchen Gründen auch immer werden diese großen Hilfstexte nicht angezeigt auf Mobile. Manchmal sind sie gar nicht vorhanden auf der mobilen Version und dann sieht man da schon einen kleinen Unterschied und das ist etwas, wo ich sagen würde, man muss nicht quasi den Text ganz rausnehmen, das macht meistens auch keinen Sinn, aber man braucht sicherlich auch nicht eine halbe Wikipedia-Seite, die da unten noch angefügt wird. Von dem her würde ich mir eher überlegen, was macht Sinn für die Benutzer und ich würde mir vor allem auch überlegen, welche Seiten sind überhaupt relevant in der Suche, wo muss ich meine Energien ein bisschen konzentrieren und schauen, dass die wirklich gut platziert werden und wo baue ich eigentlich nur Texte ein, ohne dass ich da groß einen merkbaren Vorteil davon habe? Ich habe eine Frage dazu. Und zwar gibt es ja viele Online-Shops, die auch auf diesen paginierten Seiten die Texte unten einbinden. Empfiehlst du das grundsätzlich auch oder sollte man nur die erste Seite dann mit dem Text Grundsätzlich ist das auch überlassen. Ich vermute, dass man da kein Vorteil hat, wenn man da auf den paginierten Seiten die Texte noch dazu nimmt. Weil wir versuchen ja mit so einer paginierten Reihenfolge eher die erste Seite in den Suchergebnissen zu zeigen und die weiteren Seiten nehmen wir eher über den weiterführenden Produkten zu finden. Und wahrscheinlich ist es eher selten, dass wir dann eine zweite oder dritte Seite von einer paginierten Liste in den Suchergebnissen für wichtige Keywords zeigen würden. Okay, danke. Eine von mir betreute Website ist völlig aus dem Index verschwunden. Ich bekomme bei Abdeckung seit einigen Tagen alle gesendeten URLs als noindex gekennzeichnet. Die Seiten sind sicher nicht auf noindex gesetzt. Was kann der Grund sein? Ich habe das ein bisschen hier angeschaut und ich bin nicht ganz nachgekommen, wo diese noindex reinkommt. Aber auf unserer Seite sehe ich schon, dass wenn wir die Seiten gekrallt haben, dass wir da noindex kriegen. Was ich auch sehe, ist, dass für einige dieser Seiten, wenn ich sie getestet habe, hier konnten wir zum Teil gar nicht mehr auf die Seiten zugreifen. Also irgendwas scheint ein bisschen durcheinander zu gehen. Was da vielleicht wichtig ist, ist, dass diese Seite im Mobile First Index inzwischen ist. Das heißt, die ganzen Tests, die ihr macht, müsst ihr auf jeden Fall mit einem Googlebot-Smartphone-Useragent machen. Das heißt, nicht mit den normalen Fetchers Google machen, sondern wirklich mit der Smartphone-Version. Und ich würde auch mit dem Mobile Friendly Test das machen, wo ihr dann auch die HTML-Version von der gerenderten Seite anschauen könnt. Weil ihr habt zum Teil, ich glaube den Google Tank Manager auf diesen Seiten drauf, da kann es natürlich theoretisch sein, dass da auch eben ein noindex eingebunden wird. Ihr habt verschiedene andere Skrips dort auch eingebunden, die unter Umständen vielleicht auch ein noindex einbauen könnten. Was ich letztlich auch gesehen habe, sind App Interstitials, die manchmal verwendet werden. Und wenn ihr da zum Beispiel auf ein App Interstitial weiterleitet und dort auf dieser quasi dieser Zwischenseite ein noindex vorhanden ist, dann wird es auch gewertet als noindex für die Homepage. Das heißt, aus meiner Sicht irgendetwas ist da wahrscheinlich noch nicht ganz in Ordnung, aber es ist wahrscheinlich schwierig, das herauszufinden. Ich schaue mir das auf jeden Fall noch weiter an. Wenn du ein Thread im Hilfeforum hast, wäre es vielleicht hilfreich, wenn du den verlinken kannst, dann kann ich da das vielleicht hinein tun, was ich da noch finden werde. Dankeschön, ich werde es Ihnen einstellen. Danke. Super. Ich habe vor einigen Tagen ca. 200 Backlinks aus PDF-Dateien zu verschiedenen Urals werden recht schnell mit einem Verlust von Sichtbarkeit. Werden solche Backlinks als BAM betrachtet, weil sie unnatürlich sind. Die Backlinks habe ich vorerst wieder entfernt. Ich kann mir eigentlich nicht vorstellen, dass solche Links so schnell irgendein negativen Einfluss haben würden auf einer Website. Weil in der Regel ist es so, dass wir die Links in PDF-Dateien, dass wir da meines Wissens gar keine Signale weitergeben. Das heißt, wie verwenden die zum Entdecken von neuen Urals, aber es ist nicht so, dass wir da Patreon oder weitere Signale weitergeben würden. Deshalb wäre es eigentlich auch komisch, wenn da irgendein negativer Effekt von solchen Links vorhanden wäre. Das heißt, wenn du PDF-Dateien hast und die für eure Benutzer wichtig sind, hilfreich sind, dann würde ich da durchaus die Links auch hineinnehmen, damit Leute dann auch zu euren Seiten kommen können. Das finde ich eigentlich jetzt nicht irgendwie spammy oder problematisch. Ich denke, das sei nicht so weit. Ich könnte mir nicht vorstellen, dass da irgendein Zusammenhang mit diesen PDF-Dateien und den Links und irgendeine Veränderung auf der Website irgendwie wäre. Ich sehe in dem Weiterumverlauf gibt es da schon rechte Diskussion, bezüglich wie man das machen soll oder nicht, wie man quasi Links aufbauen kann oder halt nicht. Aber eben, gerade bei PDF-Dateien ist meines Wissens ist es so, dass diese Links eigentlich keine Signale weitergeben und von dem her auch total unproblematisch wären bezüglich euren Inhalten. Inwiefern nutzt Google News der Google Newsbot das Canonical Tag? Ist es wahr, dass diese komplett ignoriert wird oder ist es wie beim Googlebot, dass es als Empfehlung gesehen wird? Meines Wissens wird das alles gleich behandelt. Das heißt, Google News crawlt ja auch mit dem normalen Google News und auch das Rendering wird gleich gemacht und von dem her ist das wahrscheinlich von der Verarbeitung eigentlich auch genau gleich. Und da sehe ich eigentlich nicht irgendwie, dass wir das anders machen würden. Was natürlich immer ist mit dem Canonical auf einer Seite ist es natürlich für uns ein bisschen schwierig manchmal, dem 100 % zu folgen, weil mit dem Canonical sehen wir erst einmal, dass eine Verbindung zwischen zwei Seiten vorhanden ist und dass wir uns da vielleicht überlegen müssen, welches von diesen beiden Seiten wir im Index zeigen würden und diese Überlegung braucht verschiedene Faktoren, die zusammenkommen. Einerseits, dass die Inhalte etwa gleich sind erst einmal, dass ein Canonical Tag hilft uns dabei, redirects helfen uns, interne Verlinkung, externe Verlinkung hilft uns bei der Wahl von diesen URLs. Es ist also nicht so, dass nur weil ein Canonical Tag davorhanden ist, dass wir dann automatisch die andere Seite nehmen würden. Ich könnte mir vorstellen, dass die Inhalte im News-Bereich noch ein bisschen schwieriger ist, weil da ist es ja wichtig, dass die Inhalte relativ schnell indexiert werden für Google News und dementsprechend ist es wahrscheinlich noch schwieriger, dass wir da wirklich all diese Signale rechtzeitig zusammen haben. Johannes, wenn du erlaubst, hätte ich eine Frage? Ja. Zu diesem Thema Canonical, in der neuen Konsole gibt es ja seit neuestem die Information, die man dann weiter als Canonical eingesetzt hat, als wie man selbst definiert hat. Leider wird aber einem nicht mitgeteilt, welche Seite Google als Canon definiert hat. Hast du einen Tipp, wie man das herausfinden kann? Ich habe gedacht, es wird angezeigt. Aber wenn es nicht angezeigt wird, was man oft machen kann, ist einfach eine Infoabfrage. Das ist mal Info, Doppelpunkt in den Suchergebnissen sehr schnell, welche URL effektiv indexiert worden ist. Ah, Dankeschön. Ist ein bisschen mehr Handarbeit, aber es sollte eigentlich klappen. Zum Glück ist es nicht so viele. Ich habe dazu auch noch mal eine Frage. Ja. Was ist denn, wenn in der Search-Konsole angezeigt wird, dass das Canonical durchgelaufen ist, aber man in der Infoabfrage jetzt nicht, also eine leere Anzeige bekommt. Also gibt es das auch? Zum Beispiel bei mir sind sehr, also ich habe das Problem mit diesen Produktvarianten auf die Hauptprodukte. Ich habe sehr viele Links gesetzt per Canonical und in der Search-Konsole wird angezeigt, ist durchgelaufen, also hat funktioniert. Aber viele Links per Infoabfrage werden nicht angezeigt. Also es funktioniert irgendwie, aber die Abfrage ist einfach leer. Weiß ich nicht. Müsst ich wahrscheinlich mal einige Beispiel URLs anschauen, um da zu sehen, was da genau passiert. Die Infoabfrage ist nicht 100%ig sicher bezüglich Canonical, das heißt manchmal kommen solche Situationen ein bisschen vor, aber normalerweise sollte das eigentlich einigermaßen klappen. Und gibt es einen Unterschied in einem HTTP Header Canonical und einem HTML Header Canonical? Aus unserer Sicht wird nicht genau gleich verarbeitet. Und es ist auch nicht so, dass es dann stärker ist, wenn man beide angebt, sondern wir sehen einfach, da ist der Canonical und ist eigentlich egal, wo der dann platziert ist, ob er im Head-Bereich der Seite oder im HTTP Header vorhanden ist. Okay, ich dachte, das wäre vielleicht das Problem, dass die Infoabfrage dann nicht funktioniert, weil wir haben nur HTTP Header Canonicals gehabt. Ich probiere jetzt gerade mal die HTML-Version aus. Okay. Also die HTTP Header-Version ist vor allem dann praktisch, wenn man keine HTML-Seite hat. Also wenn man zum Beispiel ein PDF hat oder ein Word-Datei, da kann man natürlich mit dem HTTP Header kann man dann Canonical trotzdem setzen, hingegen mit dem HTML-Head kann man das natürlich nicht machen, in solchen Fällen. Okay, danke. Okay, dann eine Frage zum Disavow-Tool. Einige Domains erscheinen immer noch in Search Console, obwohl Dezember 2017 Domain Disavow ist von mir eingereicht worden. Kann der Prozess des Recallings beschleunigt werden, in dem ein Spam-Report über die betreffenden Domains eingereicht wird? Also was da an und für sich passiert mit dem Disavow, ist, dass wir intern diese Links ignorieren, aber die werden weiterhin in Search Console dargestellt. Weil wir zeigen eigentlich in Search Console, versuchen wir ein Gesamtbild der Links zu dieser Seite darzustellen. Und das beinhaltet Links, die mit No-Follow versehen sind, beinhaltet auch solche, die in der Disavow-Datei sind. An und für sich alle Links, die wir gesehen haben, zu dieser Website können da erscheinen. Von dem her ist es eigentlich total normal, dass Sachen, die in der Disavow-Datei sind, trotzdem noch dort dargestellt werden. Und es ist nicht irgendwie ein Zeichen, dass man da noch mehr machen muss oder noch mit dem Spam-Report auch helfen muss. Ihr könnt natürlich gerne mit dem Spam-Report etwas einreichen, wenn ihr das Gefühl habt, dass diese Seiten wirklich gegen die Webmaster-Richtlinien verstoßen. Aber grundsätzlich ist es nicht so, dass man da noch mehr machen muss, um Disavow-Datei-Links quasi ganz aus Google-Systemen herauszuruhen. Der Titletag bei der Eingabe von unserem Verlag, lautet falsch, macht so für den User eigentlich gar keinen Sinn. Ist das ein Burg, ein geeigneten Titletag haben wir eigentlich hinterlegt. Ich habe das hier kurz angeschaut und mal zum Team weitergeleitet, dass sie das anschauen können und mal überlegen können, was man da genauer machen kann. Grundsätzlich ist es so, dass wir versuchen, den Titletag zu nehmen von Seiten, wenn das einigermaßen mit der Seite übereinstimmt, mit der Suchernfrage, die da kommt, wenn das einigermaßen übereinstimmt, wenn das nicht allzu Spammy erscheint. Das heißt, wenn der vorgegebenen Titel zum Beispiel nur eine Reihe von Keywords ist, dann wird es eher so sein, dass unsere Algorithmen sagen, gut, dann erstelle ich lieber etwas Sinnvolles, was für den Benutzer auch klappt, als dass ich einfach diese Reihe von Keywords nehme und so Darstelle in den Suchergebnissen. Manchmal geht das allerdings falsch und das sind solche Berichte eigentlich sehr hilfreich für unser Team, damit wir da diese Algorithmen ein bisschen verbessern können. Wir haben unsere Website aufgeräumt und viele URLs auf Status 410 erst. Nun haben wir im Nachhinein gemerkt, dass einige erst von 301 auf 410 gesetzt werden, quasi durch HTTPS und HTTPS Weiterleitung und dann 4010. Außerdem stehen einige URLs auf 404. Uns ist klar, dass Google trotzdem alle aus dem Index schiebt. Allerdings haben wir in Search Console immer unterschiedliche Fehlerberichte und Fehlertypen, die durch die Räder sind. Nun müssen wir immer alle von Hand durchgehen und erst einmal alle URLs von den Aufräumaktionen filtern, bevor wir die eigentlichen Fehler kontrollieren können. Gibt es dafür eine bessere Lösung? Grundsätzlich vom Indexing her ist das kein Problem, wenn man das so hat. Das heißt, diese redirects auf einer Fehlerseite sind für uns okay. 404 Seiten sind eigentlich auch okay. Im Endeffekt sind 404 Seiten auf unserer Seite und werden einfach aus dem Index herausgenommen. Also ist nicht unbedingt etwas, was man da wirklich aufräumen muss. Bezüglich der Fehler-Listen in Search Console ist das natürlich ein bisschen ärgerlich, weil wenn man das so vermischt hat, dann findet man die wichtigen Fehler nicht unbedingt so schnell. Was allerdings zu bemerken ist, ist gerade in eigentlich im alten Search Console bei den Crawl Errors so, dass wir versuchen, die nach Priorität darzustellen. Das heißt, wir versuchen, solche oben in der Liste reinzunehmen, die zum Beispiel intern verlinkt werden, die in einer Sign-App vorhanden sind, so, dass man da ein bisschen schneller zu den wichtigsten Fehlern auch kommt. Und so findet man in der Regel dann auch wirklich die Sachen, die relevant sind. Und wenn an erster Stelle nur diese Sign-App vorhanden sind, dann kann man meistens davon ausgehen, dass eigentlich nichts Wichtigeres weiter unten kommt. Und von dem her hoffentlich macht es das ein bisschen einfacher. Was man natürlich machen kann, wenn man jetzt zum Beispiel noch keine Sign-App-Datei hat, dass man eine Sign-App-Datei hat erstellt für die Errors, die man gerne behalten möchte. Und dann kann Search Console das auch ein bisschen genauer anschauen und sie geben ein 404 zurück. Das heißt, da ist vielleicht eher etwas falsch, als mit all diesen anderen Fehlern, die 404 zurückgeben, aber irgendwie nie erwähnt werden innerhalb der Website. Eine Frage zum Mobile First. Gilt ein Tablet immer als Mobile oder kann es ab einer gewissen Größe auch zu Desktop zählen? Gibt es Unterschiede bei OS oder bei der Bildschirmgröße, bei extrem kleinen Laptops? Gute Frage. Weiß ich jetzt nicht genau, wie das gehandhabt wird. Grundsätzlich ist es so, dass wir für Mobile First das betrifft ja eigentlich nur die Indexierung. Das heißt, wir unterscheiden zwischen dem Crawling und Indexierung mit dem Googlebot Desktop User Agent, das eigentlich so dieser vereinfachte User Agent, der so gut wie nur Googlebot heißt, und dem Googlebot Mobile User Agent, der eher wie ein Android-Smartphone aussieht. Das sind so die zwei Gruppen, die wir nehmen für die Indexierung. Bei Mobile First nehmen wir dann eher den Smartphone Googlebot bei der traditionellen Indexierung, wie man das auch halt nennen möchte, nimmt man eher den Desktop Googlebot. Für das Crawling und Indexierung nehmen wir manchmal gar kein Tablet oder ein Mittelgrund Gerät für die Indexierung. Das heißt, die Frage, betrifft jetzt eigentlich nur, wie werden die Suchergebnisse dargestellt auf diesem Gerät, für verschiedene Benutzern. Das ist natürlich etwas, was ihr auch selber ausprobieren könnt. Da könnt ihr selber sehen, kommt da eher das Layout von der Desktop-Version von den Suchergebnissen. Aus unserer Sicht ist es nicht so, dass wir irgendwie ein Merkmal für Tablet oder ein Mittel, Mittelgroße Smartphones oder kleine Desktop, kleine Laptops haben, sondern wir unterscheiden wirklich nur zwischen Desktop und Smartphone. Und dann ist es eher eine Frage vom Gerät her, wie die Einstellungen da vielleicht sind, welche Art von Suchergebnissen dargestellt werden. Und die Indexierung, wie gesagt, betrifft das überhaupt nicht. Ein paar Fragen zu Penalties. Mal schauen, was da Gefährliches kommt. Wie entsteht eine algorithmische Penalties? Sammelt Google da negative Signale und wenn ein bestimmter Score erreicht wird, dann wird eine Domain abgeschraft. Grundsätzlich ist es eigentlich so, dass die meisten Sachen, die wir algorithmisch machen, die sehen wir nicht als Penalty an, also nicht unbedingt als etwas, was gegen eine Website zählt, sondern wir versuchen da eigentlich nur herauszufinden, wie relevant sind diese Seiten, wie gut können wir den vielleicht trauen. Und dann ist es nicht eine Frage vom Abstrafen oder dass diese Seiten dann irgendwie nur festzustellen, wie passt das zusammen? Wie relevant ist das? Wie gut sind diese Inhalte insgesamt? Und da schauen wir verschiedene Faktoren an. Natürlich Sachen, die auf der Website sind, alle möglichen anderen Signale, die wir da irgendwie sammeln können und versuchen aufgrund von dem etwas zusammenzuberechnen. Einerseits machen wir das auf einer Pro-Urall-Ebene, also pro Seite. Wenn wir das machen können, ist das ideal. Wir müssen sich wirklich gezielt auf diese einzelnen Seiten konzentrieren und die auch unterschiedlich innerhalb bei einer Website behandeln. Manche Sachen lassen sich nicht so gut zusammenfassen auf einer Pro-Urall-Ebene. Zum Beispiel, wenn eine Website sich sehr schnell verändert, wenn das eine Nachrichten-Website ist, wo die Inhalte sehr schnell kommen, dann macht es wenig Sinn zu warten, bis wir Signale haben für einzelne Seiten, da müssen wir das vielleicht ein bisschen gesamthaft anschauen. Wie dementsprechend kann es natürlich auch sein, dass es erst mal eine Weile braucht, bis wir die Signale aufgebaut haben, dass wir vielleicht erst einmal mit einer groben Schätzung anfangen und sagen, wir wissen noch nicht genau, wie wir das Eindruck stufen sollen hier, aber in der Vergangenheit hat sich das relativ gut bewährt. Also gehen wir erstmal von dem aus und in Laufe der Zeit, wenn wir die Signale gesammelt haben, können wir diese erste Einschätzung entsprechend wieder ein bisschen anschauen. Und das sind Sachen, die teilweise sehr schnell gehen, wenn wir die Seiten neu crawlen, dann können wir das vielleicht direkt sehen. Teilweise braucht es sehr lange, bis wir diese Signale gesammelt haben, manchmal mehrere Monate, bis wir das wirklich auch aktualisieren können. Von dem her gibt es da keine einfache Antwort, wo wir sagen können, ab fünf Tagen bei jeder Seite ist das so. Die Fragen gehen da weiter, wann wir diese wieder verschwinden, wenn Google das nächste Mal vorbeischaut oder später. Ja, eben das geht auch wieder zurück auf diese ganzen Signale, die wir sammeln. Manche Signale können wir sehr schnell aktualisieren. Wenn sich eine Website verändert, wenn eine Einzelne Seite sich verändert, dann können wir das beim Crawling sofort sehen. Wenn das Signale sind, die wir erstmal sammeln müssen, dann kann das wieder ein bisschen länger gehen. Das heißt meistens ist es so, dass wenn man jetzt auf einer Website größere Veränderungen macht, dann gibt es erstmal einen kleinen Schritt, wo wir sagen, gut, beim Crawling haben wir gesehen, dass es jetzt irgendwie so ein bisschen anders, dann verändert sich erstmal das Gesamtbild da in diese Richtung. Und dann im Laufe der Zeit, wenn wir sehen können, dass die Signale sich wirklich alle auch so bestätigen, dann wird sich das auch wieder ein bisschen anpassen. Ist Google nachtragend, was das angeht? Kann es zum Beispiel sein, dass sich beim Kauf einer alten Domain ohne Backlinks und ohne Content unter den Anschlasten des Vorbesitzers leide. Grundsätzlich ist Google nicht nachtragend. Das heißt, wenn Probleme wirklich aufgeräumt wurden, dann ist das für uns okay. Das Problem da ist einerseits, sind diese ganzen algorithmischen Sachen, die einfach eine Zeit brauchen, bis sie wieder aktualisiert werden. Wenn die Website jetzt längere Zeit leer war, dann ist das meistens vielleicht schon vorbei. Andererseits ist es natürlich gerade bei Links so, dass die ganzen alten Links sind, oft immer noch irgendwo vorhanden. Und dann wenn diese Links wirklich so problematisch waren, dass unsere Algorithmen gesagt haben, wir wissen nicht, wie wir diese Website trauen können, dann sind diese problematischen Links vielleicht nach einigen Jahren trotzdem noch vorhanden. Das heißt, wenn du ein Domain kaufst und da waren wirklich früher größere Probleme mit den Links, dann hast du unter Umständen erstmal die Aufgabe, das Ganze wieder aufzuräumen. Und das ist natürlich ein bisschen schwierig und vielleicht ein bisschen problematisch, wenn man jetzt nichts davon weiß vorher, aber ich denke gerade, wenn man ein Domain namen kauft, der für dich relevant sein soll, der für dich längerfristig vorhanden sein soll, muss man natürlich auch ein bisschen erstmal die Geschichte von diesen Domain- Namen recherchieren und überlegen, ist da etwas vorhanden, was ich erstmal wieder gut machen muss oder ist das eigentlich soweit nie gebraucht worden und soweit unproblematisch. Aber es ist auf jeden Fall so, dass man diese Sachen auch wieder aufräumen kann. Es ist natürlich immer nur eine Frage von Aufwand und Ertrag. Lohnt es sich da so viel Zeit zu investieren, diese ganzen alten Links wieder aufräumen oder sagt man vielleicht lieber gut, dann nehme ich einen anderen Domain-Namen, da kann ich schneller zum Ziel kommen. Ist Google-Nachtragend, was schlechten Content angeht oder sagt Google, dass der Content früher sehr dünn war, jetzt aber okay. Ja, bei Inhalten, bei Sachen auf der Website selber ist das viel weniger problematisch, weil da können wir wirklich sagen das ist jetzt der aktuelle Zustand. Wir konzentrieren uns auf diesen aktuellen Zustand. Da könnt ihr auch viel schneller hingehen und sagen, gut, die Website früher war problematisch, jetzt habe ich die Website ganz neu gemacht, dann können wir viel schneller das Ganze auch verarbeiten und weiter verwenden. Kann sich eine algorithmische Penalty auch nur auf einzelne Seiten einer Domain auswirken, zum Beispiel wenn die Startseite versehentlich überoptimiert wurde und auf Google wie ein SEO Text wirkt. Ja, das kann durchaus sein. Ich finde das immer als Idealfall, wenn wir das pro Seite anschauen können und das pro Seite, also pro einzelne Seite innerhalb einer Website, immer ein bisschen schwierig auf Deutsch, eine Seite oder eine Website, wenn man das so granular anschauen kann mit unseren Algorithmen, finde ich das optimal, weil dann kann man wirklich auch sagen, das sind jetzt wirklich Topseiten hier und das sind problematische Sachen hier, also zeigen wir die und die zeigen wir halt nicht. In vielen Fällen ist es aber nicht so einfach machbar, dass gerade wenn jetzt neue Inhalte dazukommen, wissen wir nicht, wo sollen wir da anfangen und da lohnt es sich natürlich schon, dass wenn man weiß dass einzelne Teile einer Website problematisch sind, dass man da vielleicht überlegt, wie kann ich das aufräumen wie kann ich diese Inhalte verbessern oder muss ich die Inhalte vielleicht zusammenklappen muss ich sie vielleicht ganz löschen weil sie überhaupt keinen Sinn mehr machen dass man sich da ein bisschen ganzheitlich das Ganze anschaut und überlegt wie kann man das Gesamtbild der Website auch verbessern. Eine Frage zu 301 Freedreads verlieren die im Laufe der Jahre an Wert, wenn ich zum Beispiel ein Domain von de nach.com umziehe werden die verbleibenden Backlinks dann nach drei oder fünf Jahren immer noch so gewertet wie unmittelbar nach dem Umzug ja, wird eigentlich weiterhin so behandelt das heißt es ist bei uns nicht so, dass wir da versuchen irgendwelche magischen Signale zu machen mit 301 Freedirect, sondern für uns ist das wirklich nur eine Frage von der Canonicalisierung das heißt, wir haben zwei Urals wir wissen, dass der eine zum anderen weiterleitet und wir müssen uns entscheiden, welches von diesen beiden ist jetzt der Canonical Ural und dann wählen wir dann halt ein von diesen beiden aus und der Canonical Ural erbt an und für sich alle Signale die die anderen vorher hatten und dann ist es nicht eine Frage von irgendwie Zeitfaktor der noch dazukommt sondern wirklich einfach, wir haben diese zwei welches von den beiden nehmen wir wir nehmen die hier, dann können wir so weitergehen was natürlich immer passiert ist, dass der Rest vom Web entwickelt sich halt weiter und wenn man eine Website nimmt und sie einfach fünf Jahre lang gleich stehen lässt ohne dass sich irgendwas verändert auf dieser Website, dann hat sich natürlich der Rest vom Web schon weiterentwickelt in dieser Zeit und kann es natürlich sein, dass relativ gesehen, dass die diese Website halt nicht mehr so konkurrenzfähig ist wie eine, die sich regelmäßig weiterentwickelt und das ist weniger eine Frage von diesen Links, die dann an Wert verlieren sondern einfach weil das ganze Internet entwickelt sich halt ständig weiter und da muss man halt schon schauen dass man irgendwie auch immer auf dem Ball bleibt haben wir ein Duplicate Content Problem wenn wir RT und CH Domains via Canonical jeweils auf sich selber verweisen lassen anstatt wie aktuell auf DE an und für sich nicht also müsste da die die Seiten mal genauer anschauen, aber an und für sich sollte das unproblematisch sein was natürlich ist, wenn ihr mit dem Canonical von der RT Version auf die DE Version zum Beispiel verweist dann ist es so dass wir die RT Version gar nicht für die Indexierung verwenden sondern wir verwenden nur die DE Version das heißt gerade bei Länder übergreifenden Websites wenn ihr Uninhalte für verschiedene Länder habt und sie sind in der gleichen Sprache würde ich auf jeden Fall die Inhalte separat indexieren lassen damit wir die auch separate darstellen können in den Suchergebnissen wenn ihr mit dem Canonical arbeitet dann versuchen wir den zu folgen wie vorhin gesagt ist das nicht immer so, dass wir den 1 zu 1 verfolgen, aber meistens versuchen wir den schon nachzugehen und wir versuchen dann nur die Canonical Seite zu indexieren und zum Beispiel wenn ich jetzt ein CH Domain und ein RT Domain habe und ich sage auf eine CH dass da die RT Version als Canonical ist dann wenn ich nach Preisen suche oder wenn ich nach Postleitzahl oder wonach halt man sucht wenn ich danach suche dann werden nur die Inhalte von der RT Seite dargestellt in den Suchergebnissen und das wäre wahrscheinlich ein bisschen suboptimal in einem solchen Fall Kann ich eine Frage dazu stellen? Ja Und wie sieht es denn aus wenn RT und DE wirklich komplett identisch sind wenn man das jetzt mit dem Canonical und dem H-Reflank zusammen kombiniert also ich sage mal von der RT Seite aus Canonical auf die DE Seite dann wird ja der Inhalt der DE Seite angezeigt aber der Link geht trotzdem auf die RT Seite Ja, das kann passieren Also das ist für mich aber wäre machbar, könnte man so machen Das kann man sicher so machen Was in solchen Fällen passiert wenn die Inhalte wirklich identisch sind dann sehen unsere Systeme das anderen denken, gut wir sparen uns die Arbeit und sparen dem Webmaster die Arbeit und indexieren nur eine Version Wir kennen aber die Verbindung mit dem H-Reflank dazwischen und können dann entsprechend die Urals einfach austauschen Das heißt indexiert wird dann eine Version und per H-Reflank werden dann die Links einfach ausgetauscht zwischen DE und RT zum Beispiel Würde die Seite dann auch dann stärker werden, die Deutsche? Wahrscheinlich ein klein bisschen schon ja weil dann hat man ja eine Seite die für sich stehen kann statt dass man da verschiedene Seiten hat die für sich separat stehen müssen und in der Regel empfiehle ich schon wenn möglich, dass man weniger Seiten hat und die dafür stärker macht als dass man die Inhalte dann eben aufkalt auf verschiedene Seiten weil dann hat man natürlich eine stärkere Seite die eher eine Chance hat auch ein bisschen kompetitiven Bereich besser dazustehen als wenn man verschiedene kleinere Seiten hat die eigentlich alle gegeneinander auch konkurrenzieren Ja und die CH-Seite unterscheidet sich bei uns nur am Schweizer Franken also am Preis könnte man dann auch einfach also wir haben jetzt die Rich Snippets die Produktpreise hat eingebunden könnte man die rausnehmen und dann auch per Canonical auf die DE-Seite umleiten und per H-Refleng auf die CH-Seite dann linken Das könnte man auch machen ja Die Preise würden dann halt nicht dastehen aber wenn das für euch okay ist dann kann man das schon machen Ja ich würde das mal gerne ausprobieren weil ich habe ja unheimliche Probleme ich habe ja auch eine E-Mail dazu geschickt es wird halt einmal Österreich angezeigt dann wieder Schweiz und alles durcheinander irgendwie aber ich werde das mal dann so ausprobieren Man kann das ja auch immer pro Seite ausprobieren, das heißt ihr müsst nicht die ganze Website auf einmal umstellen auf das eine oder andere sondern da kann man vielleicht eine Kategorie mal so einrichten wenn man das machen kann im Shop und dann dementsprechend mal schauen wie funktioniert es da im Vergleich zum Rest der Website besser so oder halt nicht und dann so eine Entscheidung treffen Okay, alles klar, Dankeschön Ich habe da gerade nochmal eine Frage zu und zwar ich wächt das denn umgekehrt die AT und CH Domains wenn man jetzt per Canonical auf die DE verweist aufgrund dieses Duplicate Content Problems sag ich mal Hab ich jetzt nicht ganz verstanden Wir holen Also wenn quasi AT bzw CH auf per Canonical auf DE verweisen und dadurch sozusagen die Signale sich auf DE bündeln also ob dann die AT und CH dann jeweils auch schlechter winken könnten für die sollte eigentlich dann eher nicht Okay Also man kann es auch so lassen dass wir auf DE verweisen und da wird es dann nicht so und wenn man es dann auf sich selber verweisen lässt also AT auf AT und CH auf CH dann gibt das aber auch kein Problem wenn der HWF-Lang jetzt trotzdem eingestellt ist also jetzt mit Duplicate Content Nein, das ist überhaupt kein Problem Duplicate Content würde ich mir da keine Sorgen machen aus unserer Sicht ist das eher ein technisches Problem in solchen Fällen, dass wir da versuchen quasi vom Indexieren her das richtig hinzukriegen und es ist auf jeden Fall nicht irgendwie ein Qualitätsproblem wo wir sagen, das sind die gleichen Inhalte deshalb ist das eine Spammy Website Duplicate Content ist bei uns eher dann ein Qualitätsproblem wenn die ganze Websites Inhalte aus verschiedenen anderen Websites einfach zusammen kopieren dann schauen wir das an es macht für uns keinen Sinn diese Website überhaupt zu indexieren die ist ja nur eine Kopie von verschiedenen anderen Websites also dann schmeißen wir die ganze raus aber für normale Websites die Inhalte einfach dupliciert haben aus technischen Gründen aus geografischen Gründen oder aus irgendeinem Marketinggründen ist das überhaupt kein Problem Alles klar Vielen Dank Okay dann eine Frage zu den Bildern soweit ich das verstanden habe werden wir unsere Bilder erkannt oder nicht und im Forum Thread was da verbunden ist ist es so, dass da quasi auf die gekaschte Seite verwiesen wird und dass man da nicht sieht grundsätzlich ist es so dass die gekaschte Seite versuchen die HTML Version darzustellen die wir gefunden haben und je nachdem wie da die Bilder eingebunden werden kann es natürlich sein dass da irgendwie diese Verknüpfung mit dem richtigen Fahrrad nicht ganz klappt und das heißt eigentlich nicht dass da die Bilder deshalb nicht indexiert werden das heißt ich würde die gekaschte Seite nicht als Diagnosetool sehen um die Bildersuche zu kontrollieren ob das geklappt hat oder nicht sondern bei der Bildersuche würde ich wirklich in der Bildersuche schauen und schauen ob da die Inhalte effektiv auch indexiert sind oder nicht was zudem noch dazu kommt ist gerade bei den gekaschten Seiten ist es im Moment immer noch so dass bei Mobile First Indexing haben wir keine gekaschte Version von diesen Seiten das heißt wenn man den Cache anschaut sieht man eine 404 Seite ich weiß unser Team sind der Moment immer noch dran das ein bisschen wieder in Gang zu kriegen ich denke das kommt wieder ich weiß nicht wie schnell scheint ein bisschen komplizierter zu sein aber auf jeden Fall heißt es nicht dass diese Inhalte nicht indexiert werden sondern es ist einfach die gekaschte Seite funktioniert dort im Moment nicht die Abruf für Googlebot und das Einfügen im Index ist es so dass man da Bilderdateien nicht so einfügen kann also mit Submit to Index in Search Console weil diese Tools gehen direkt in die Websuche die gehen nicht in die Bildersuche das heißt wenn ich ein Bildurale dort einreiche oder wenn ich das mit Inspecturale in Search Console kontrollieren lasse dann steht aber wahrscheinlich nicht klappt oder dass es nicht indexiert werden kann und das ist vollständig ok weil das bezieht sich ja nur auf die Websuche nicht auf die Bildersuche das heißt für die Bildersuche wenn man da sicher sein möchte dass die Bilder eingereicht werden würde ich schauen dass man da die Landing Page von diesen Bildern einreicht das heißt nicht die Bilddateien sondern die Seite wo diese Bilder eingebunden werden dass Submit to Rale einreicht so dass das eingeschickt werden kann gerade für die Bildersuche was vielleicht noch relevant ist ist gerade mit der Mobile First Indexing eine Sache die wir gesehen haben die in manchen Fällen passiert ist dass auf der mobilen Version kein Alttext vorhanden ist und das macht es für uns in der Bildersuche viel schwieriger das heißt wenn ihr gerade eine mobile Version habt würde ich auf jeden Fall sicherstellen dass da auch die Alttexte vorhanden sind von allen Bildern wir haben einen online Shop und müssen von unserem Hoster zu einem anderen umziehen ich meine mal gelesen zu haben dass ein Serverwechsel ein Ranking Faktor ist müssen wir etwas beachten wenn wir umziehen oder sollte das ohne Problem ohne Sichtbarkeitsverlust vonstatten gehen das haben wir am Anfang kurz besprochen wenn ihr eine Infrastruktur Änderung macht und die ganze Webseite an und für sich gleich bleibt ist das aus unserer Sicht vom Indexing und vom Ranking her total egal das heißt ihr könnt das problemlos machen was einfach passieren wird ist beim Crawling dass wir da im ersten Moment vielleicht ein bisschen vorsichtiger sind ein bisschen langsamer crawlen als bisher und das macht soweit eigentlich auch Sinn weil wir möchten ja nicht extra Probleme für Ursachen bei euch und möchten sicherstellen vom Crawling her dass da keine Probleme noch verursacht werden und im Laufe der Zeit normalerweise nach einer Woche oder zwei wird da die Geschwindigkeit dann auch wieder ein bisschen schneller wenn wir sehen können dass der Server das eigentlich gut verträgt und den einzigen Einfluss den ich mir da vorstellen könnte wo es vielleicht sichtbar wäre für Benutzer in den Suchergebnissen ist wenn man eine Webseite hat die wirklich sehr oft neue Inhalte herausbringt wo eine Verzögerung beim Crawling an für sich für Besucher auch sichtbar wäre und dann ist es natürlich schon so dass wir wenn wir weniger crawlen dann können wir vielleicht diese neuen Inhalte nicht ganz so schnell sehen wie vorher und dann hat man vielleicht diesen Zeitrahmen bis wir damit kommen wo man halt eine leichte Verzögerung bei der Indexierung sieht was man da machen kann wenn man wirklich sicher ist dass der Server das soweit verträgt ist dass man ich glaube im Hilfesenter im Weitmeister Hilfesenter bei der Hilfeseite für die Crawl Rate Einstellung gibt es ein Formular wo man Probleme mit Googlebot Crawling melden kann da kann man die IP-Adressen von Googlebot reinnehmen wo man Probleme gesehen hat und man kann auch dann gezielt sagen ich bin umgezogen auf ein neues CDN oder auf ein neues Server-Infrastruktur und das langsame Crawling verursacht im Moment Probleme ich wäre froh wenn ihr mit dieser neuen Geschwindigkeit crawlen könnt und da kann man dann auch gezielt sagen ich möchte dass ihr weiß ich nicht mit 10 Seiten pro Sekunde meine Webseite crawlt das verträgt mein Server schon und dann können die Engineers auf der Googlebot Seite das anschauen und dann entsprechend den Hebel manuell erstmal ein bisschen einstellen und dann im Laufe der Zeit pendelt sich das schon wieder automatisch ein aber so kann man das vielleicht ein bisschen verbessern wichtig ist da vielleicht auch zu sagen, dass nur weil Googlebot mehr Crawl kann heißt nicht, dass wir dann auch effektiv mehr Crawl wollen die Crawl Geschwindigkeit ja an dem anzupassen was wir denken was für die Indexierung auch sinnvoll ist und da ist es in den meisten Fällen eigentlich so dass wir problemlos mit der Indexierung nachkommen und dass wir nicht mehr Crawl müssen das heißt bei einem Serverwechsel würde ich mir erstmal anschauen ist es wirklich problematisch mit der neuen Crawl Geschwindigkeit und wenn ja dann vielleicht eine Meldung schicken das ist nicht einfach so vorsorglich schon mal Googlebot eine Meldung schicken hey ihr müsst jetzt mit 100 Abfragen pro Sekunde meine Website Crawl weil vielleicht ist das gar nicht nötig ok und da haben wir gleich noch eine wir haben eine Website mit über 2 160.000 Produktzeiten es wäre man aber nur 52.000 indiziert wenn wir die Suche mit SideMap dann werden nur 11.000 dargestellt in SideMaps liefern wir 500.000 mit hreflang tags die links in SideMaps sind in unterschiedliche Dateien verteilt werden täglich aktualisiert wenn die SideMaps links von eine Datei auf eine andere Datei springt wird es schlecht vom Bot bewertet an und für sich nicht wichtig ist einfach dass die Informationen in der SideMap Datei konsistent sind das heißt wenn eine Jurel von einer SideMap Datei zu anderen wechselt, dass da zum Beispiel Änderungsdatum an und für sich gleich ist solche Sachen, dass wir dem so auch weiter vertrauen können grundsätzlich ist es nicht für uns kritisch in welcher Datei eine Jurel vorhanden ist aber es macht es meistens ein bisschen einfacher für die Diagnose wenn die Jurels in gleichbleibenden SideMap Dateien bleiben dann kann man nämlich gezielt diese SideMap Datei anschauen und überlegen von diesen Jurels in dieser SideMap Datei wird vielleicht nur ein Viertel indexiert dann kann man diese auch gezielt anschauen und überlegen woran mag das da liegen warum gibt es so viel Unterschiede bei der Indexierung also ich denke erste mal die SideAbfrage ist etwas was ich da ganz ausschließen würde das würde ich auf jeden Fall nicht als Diagnosetool verwenden da die Zahl die da dargestellt wird ist wirklich ja nur eine ganz ganz ganz grobe Schätzung und die kann manchmal weit unter dem effektiven Wert liegen die kann manchmal auch irgendwie ums hundertfache über dem effektiven Wert liegen ich würde mich auf das nicht konzentrieren sondern wirklich auf die SideMap Datei selber halt achten und da wenn man das aufgeteilt hat in verschiedenen SideMap Dateien und wenn das einigermaßen leicht bleiben da drin ist dann kann man den ein bisschen auch nachgehen und überlegen sind diese Jurels in dieser SideMap Datei effektiv nicht indexiert oder sind die Inhalte vielleicht indexiert und einfach unter einer anderen Jurel indexiert wenn eine andere Jurel verwendet worden ist nicht problematisch oder nicht oder ist das vielleicht ganz okay und warum wurde vielleicht eine andere Jurel gewählt ist da vielleicht von der internen Verlinkung her etwas nicht konsistent mit der SideMap Datei all solche Sachen können da ein bisschen zusammenkommen und je eher ihr das mal eingrenzen könnt durch SideMap Dateien wo ihr die Beispiele genauer untersuchen könnt umso eher kann man dem auch ein bisschen nachgehen wichtig ist aber auch die oder in den seltensten Fällen alle Seiten indexieren also es ist eher selten dass wir 100% von allen Jurels von einer SideMap Datei indexieren ich denke das kann auch nicht unbedingt als Ziel sein für die meisten Websites okay ich sehe du hast ein paar Beispiele rein kopiert Christian ich kopiert mir die mal raus dann kann ich das in Ruhe nachher noch anschauen gibt es vielleicht noch eine weitere Frage bevor wir da Pause machen für heute ich hätte noch eine schnelle Frage also auch zu Canonical und H-Ref-Length ich habe so eine Doro-Kombination also ich habe eine Markenseite die ich gerne auf die Homepage per Canonical verweisen möchte allerdings haben wir diese Version in AT, CH und DE jetzt ist es so du hattest irgendwann mal ausgeschrieben dass man also dass der H-Ref-Length ignoriert wird wenn die Canonical URL nicht als H-Ref-Length definiert ist weißt du was ich meine? ja okay, jetzt habe ich das so geregelt dass ich nur das Canonical gesetzt habe und keine H-Ref-Lengths jetzt wird das Canonical aber nicht angenommen was passiert wenn ich jetzt das ist wieder kompliziert was passiert wenn ich jetzt die H-Ref-Lengths trotzdem setze auf die AT, CH und DE URL und den Canonical auf die Homepage gibt es da irgendwelche Probleme das sind ja eigentlich andere Signale also die sind ja nicht eindeutig die Signale ja ich wüsste nicht was da übertrümpfen würde ich würde es an deiner Stelle mal ausprobieren aber auch mit dem Hintergedanken dass sich das unter Umständen im Laufe der Zeit verändern kann das heißt wenn es für dich kritisch ist dass es in eine Richtung oder ein anderer geht würde ich eher versuchen das gezielt so zu machen und wenn es nicht so kritisch ist würde ich auch mal ausprobieren und schauen was passiert also einfach mal testen und gucken alles klar ok cool, ich habe auf Twitter auch mal aufgerufen nach Fragen bezüglich AT-Ref-Length weil wir treffen uns mit dem Team welches an diesen Tools arbeitet bald und wenn ich da Vorschläge und Ideen von euch habe oder Probleme die ihr nicht lösen könnt dann hilft mir das auf jeden Fall weiter cool, ok machen wir hier mal Pause für heute wenn ihr weitere Fragen habt seid ihr gerne zu eingeladen im Webmaster Forum zu posten da sind unsere Top Contributors eigentlich sehr aktiv und können euch gut weiterhelfen und ansonsten sehen wir uns vielleicht in einer der nächsten Hangouts wieder tschüss allerseits tschüss