 Okay, herzlich willkommen beim heutigen Webmaster Central Sprechstunden Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Trends Analyst hier bei Google in der Schweiz. Teil von dem, was wir machen, sind solche Webmaster Hangouts für Webmaster Publisher, jeder, der so Websearch-ähnliche Fragen halt. Sieht es auch so, ob da ein paar neue Gesichter dabei sind? Wenn irgendeiner von euch eine Frage hat zum Anfang, dann könnt ihr gerne schon mal loslegen. Servus, hier ist der Alex. Ich hätte schon die erste Frage. Hallo. Ja, ganz leise. Ist es so besser? Perfekt. Okay, perfekt. Und zwar, wir haben gerade ein Problem, dass wir, also es ist eher ein programmatisches Problem, dass wir die Metatechs im Hetz nur Asynchron ändern können. Da wollten wir fragen, ist das was, was Google berücksichtigt, wenn es über JavaScript geändert wird oder ist das wirklich nur beim initialen Laden der Fall? Welche Metatechs denn? Der Robots. Also Index Follow. Oder No Index No Follow. Also normalerweise ist es auf No Index und dann per JavaScript auf Index umgestellt? Also wir haben so, es handelt sich um eine Paginierung. Also wir haben, es ist ein Shop, da werden mehrere Produkte dargestellt und die Seite 234 etc. da werden nur die Produkte Asynchron nachgeladen und dann per JavaScript wird auch nur die URL geändert. Das heißt, eigentlich ist es erst auf Index Follow und dann würden wir ab Seite 234 gern auf No Index Follow setzen. Und dann per JavaScript wird quasi der Index auf No Index umgestellt? Genau. Ja, das wird eigentlich schon klappen. Was man bedenken muss, ist, dass wir im ersten Moment crawlen wir die Seite trotzdem normal und indexieren die normal und nehmen erstmal die normalen statischen HTML-Inhalte dort und dann im zweiten Schritt, wenn wir das Rendering durchführen, sehen wir dann diesen Wechsel vom Metatag und sehen dann, dass es auf No Index gesetzt wird und können die Seite dann rausfahren lassen aus dem Index. Umgekehrt geht das weniger gut, wenn man zum Beispiel No Index Metatech per JavaScript auf Index umstellt, weil normalerweise, was da im ersten Schritt passiert ist, wir sehen diesen No Index Metatech, erst einmal in der statischen Version und denken, gut, da müssen wir jetzt nichts machen, kein Rendering durchführen. Das merken wir gar nicht, wenn per JavaScript das auf Index gestellt wird. Aber so wie ihr das habt, dass es von Index auf No Index gestellt wird, das sollte eigentlich schon klappen. Okay, perfekt. Das macht Sinn. Vielen Dank für die Erklärung. Ja, bitte. Okay, irgendwelche weiteren Fragen vor wir loslegen? Nichts. Okay, dann kommen vielleicht welche unterwegs. Schauen wir mal. Es sind einige relativ lange Fragen angereicht worden. Ich versuche die Teilweise ein bisschen zusammenzufassen, wenn ich irgendwas verpasse oder vergesse und das eure Frage ist, dann einfach zwischendurch kommentieren. Eine Frage bezüglich älteren Domains, älteren Websites, wenn man da Änderungen macht, dass man da auf einmal für eine gewisse Zeit im Ranking auch mal Veränderungen sieht. Aus meiner Sicht ist es eigentlich normal, auch bei neuen und bei älteren Websites, wenn man Änderungen auf der Website macht, dann müssen wir das natürlich irgendwie verarbeiten und berücksichtigen beim Ranking. Und dann kann es schon sein, dass es da auch kurzfristige Spanen kommen gibt, egal, ob das jetzt ein älteres Domain ist oder ein neuer Domain. Eigentlich ist es so normal. Und man würde ja auch erwarten, dass zumindest auch längerfristig, wenn man eine Website verändert, dass sich da irgendwelche Veränderungen gibt, dass man da etwas verbessern kann und dann sieht man das auch bei seinen Suchergebnissen. Und ebenfalls, wenn man etwas ein bisschen schlechter macht, schlussendlich, dann wird das im Endeffekt auch in den Suchergebnissen so zurückgegeben. Dann eine Frage zu alternativen Seiten mit dem Canonical Test und Tag und No-Index bezüglich den Datum, welches angezeigt wird. Ich weiß nicht, Christian, du bist glaube ich hier, oder? Ja, bin da. Kannst du das ein bisschen genau erklären, wie du das gemeint hast? Ja, ich vermute, dass wenn ich jetzt zum Beispiel vom 11.11. aus eine Änderung durchführe, also von No-Index auf ein Canonical-Stelle und dieses Canonical halt früher schon mal verarbeitet wurde im September, dass diese September bei so einem angezeigt wird und nicht die aktuelle Änderung zum 11.11. hin. Also ich sage mal, da No-Index läuft durch, Canonical fährt weg, ich ändere es wieder, ich drehe es noch einmal um und dann sehe ich, dass es im September angezeigt wird. Wo siehst du das Datum? In der Search-Konsole habe ich das jetzt bemerkt. Kann das sein, oder weißt du etwas darüber, oder ihr neust du sich? Das kann schon sein. Was wahrscheinlich da passiert, ist, dass wir diese Änderung sehen mit dem REL Canonical und wir kennen diese andere URL schon, und dann nehmen wir einfach das Datum von der anderen URL, weil du sagst ja quasi, dann kann man das so übernehmen. Okay, also das bedeutet dann auch, dass eigentlich eine URL nochmal von April aus, also nochmal von April aus angenommen werden, könnte theoretisch, dass man das überhaupt gar nicht mal sieht in den aktuellen Listen. Ja, kurzfristig, mittelfristig kann das schon passieren. Es ist ja immer so, dass wir die URLs in unterschiedlichen Geschwindigkeiten crawlen, und manche crawlen wir neu relativ häufig, also ein paar Tage, und manche brauchen Wochen oder auch Monate, bis sie neu gecrawled und indexiert werden. Und ein Teil, was da mit zusammenhängt, ist auch ein bisschen das Gefühl für, wie wichtig ist diese Seite innerhalb der Website. Das heißt, die Seiten, die wir denken, sind wichtiger sind, versuchen wir auch ein bisschen häufiger anzuschauen. Und wenn jetzt mit dem Canonical Tag auf eine bestehende Seite verweist, dann gibt es ja auch ein bisschen ein Signal, das eigentlich ist diese bestehende Seite ein bisschen wichtiger. Und was dann eher passiert ist, dass wir die bestehende Seite halten, ein bisschen schneller crawlen. Das heißt, im ersten Moment kann es schon sein, dass wir dann die Inhalte vom April nehmen, weil das haben wir jetzt indexiert von dieser bestehenden Seite. Dann wird die Seite dann ein bisschen häufiger gecrawled, und dann werden die Inhalte ein bisschen eher aktualisiert. Okay. Okay. Dann die andere Frage mit Cross Promotion, mit den riesigen Cross Promotion Blöcken. Aus meiner Sicht ist es an und für sich okay. Wichtig ist einfach, dass wenn man so derart, Cross Promotion auf den einzelnen Seiten hat, muss man halt bedenken, dass das auch als Teil von den Inhalten von diesen Seiten gesehen wird. Und dass es unter Umständen schwieriger ist, für uns zu erkennen, worum es sich eigentlich handelt bei dieser Seite. In der Regel innerhalb von einer, normalen Website oder ein Shop, wo die Produkte aus Cross Promotion verwendet werden, eher wie, wie die Kunden kaufen auch Produkten. Das heißt, die sind irgendwie verwandt zu den bestehenden Produkten. Das sehe ich eigentlich kein Problem, dass man das jeweils auch sieht für die Indexierung, weil das hilft uns schon fast eher ein bisschen, die Seite ein bisschen besser einzustufen. Wenn hingegen dieses Cross Promotion für ganz Themenfremde Produkten da ist, dann ist es natürlich schwieriger für uns. Das Cross Promotion sehe ich, ich weiß nicht, Ferienreisen oder so etwas, was man vielleicht auch anbietet. Dann ist es schwieriger für unsere Systeme zu erkennen, worum handelt es sich eigentlich bei dieser Seite, für was sollen wir die zeigen. Und die Lösung da per Ajax und robots Text zu arbeiten, finde ich ein bisschen eher problematisch, weil es da immer eingebaut wird, die dann irgendwie auch kopiert gehen kann, ohne dass man das vorne weg merkt. Gerade wenn man mit robots Text arbeitet, mit Ajax, mit diesen verschiedenen Kombinationen, dann kann es schon sein, dass unsere Systeme das irgendwie verarbeiten können. Die sehen danach, wir dürfen das jetzt nicht lesen. Es kann aber auch sein, dass es irgendwie schief geht auf unserer Seite oder irgendwie, so wie das halt eingebaut ist auf der Website. Das sieht man dann aus. Für Googlebot sieht es dann nicht normal aus, nicht sehr brauchbar. Von dem her würde ich das eher vermeiden, wenn sich das irgendwie machen lässt. Noch eine Frage dazu. Ich habe im Forum nachgefragt und ich weiß nicht ob du Sven kennst, auch von Google. Der hat halt bestätigt, dass das so machbar ist. Wie kann man das so machen? Ja, also es würden die Inhalte fehlen. Ich probiere das jetzt auch gerade in diesem Moment jetzt auch aus. Priorität wird hoch angezeigt in Fetch as Google, in dem Tool. Also das ist was fehlt. Es fehlt ja fast eine halbe Bildschirm ungefähr. Nur ich habe das Gefühl, dass durch diese Crosspromotion tatsächlich diese Themen vermischt werden. Also man sucht irgendwas und dann kommt irgendein komisches Produkt, was den Inhalt hat in der Crosspromotion und wird dann angezeigt. Also denkst du, dass das überhaupt gar nicht funktioniert jetzt über die Robotspongtext? Das wird schon funktionieren. Wenn man das sauber einrichtet, wird das schon funktionieren. Ich zweifle einfach ob die zusätzliche Komplexität, die man dadurch einbaut, sich wirklich lohnt, so weit ein Problem auch da ist. Weil normalerweise, wenn das für unsere Suchmaschinen problematisch ist, das Thema der Seite zu erkennen, dann benutzt er auch problematisch. Und dann hat man schlussendlich einfach vom Conversion Rate her eher das Problem, das ähnlich hat es wie von der SEO Seite her. Aber Google geht jetzt nicht so und sagt, dass was fehlt, das ist eventuell ein kritischer Inhalt, weil man könnte ja auch theoretisch ein Virus einspielen, darüber? Oder ist das sicher unproblematisch? Also es ist total normal, dass auf vielen Seiten Inhalte blockiert werden per Robotstext. Oft werden zum Beispiel Werberelemente so blockiert. Das ist halt sonst was ich eigentlich okay. Nicht unbedingt ein Zeichen, dass die Seite ist bösartig oder vielleicht problematisch, sondern das ist eigentlich ein normaler Konstrukt. Also ich werde es ausprobieren und dann kann ich dann mal berichten, ob es geklappt hat oder Ja, cool. Okay, super. Vielen Dank. Okay, dann eine Frage zu identischen Content auf zwei Domains, einmal DE und einmal CH und dann mit der Landausrichtung natürlich und hreflang damit sollte man keine Probleme haben, oder? Grundsätzlich ist es eigentlich so, dass mit Duplicate Content braucht man sich da eigentlich keine Probleme auch, wenn wir das als Duplicate Content sehen. Was einfach da passieren würde, ist, dass wir eine dieser Version als Hauptversion nehmen würden und die andere als Kopie unter Umständen würden wir eine Version indexieren und einfach wissen, dass die andere Version auch existiert mit einer URL und so für die normalen Suchen, wenn ich jetzt normal nach diesen Inhalten suche, dann zeigen wir einmal die deutsche Version oder einmal die Schweizer Version an. Indexiert ist zwar nur eine Version, aber angezeigt wird man jeweils die eine oder andere Version. In den meisten Fällen ist das unproblematisch. Schwieriger ist es vielleicht, wenn man auch leicht unterschiedliche Inhalte auf diesen beiden Seiten hat. Wenn zum Beispiel den Titel einmal Deutschland und einmal Schweiz steht, dann kann es schon vorkommen, dass wenn wir eine Version indexieren, dass der Titel dann auch diese Länderkennzeichnung auch in den Suchergebnissen sichtbar ist. Und wenn das für euch problematisch ist, dann würde ich einfach schauen, dass die Seiten entweder ganz identisch sind, dass wir sie wieder normal zusammenklappen können oder dass sie halt klar auch unterschiedlich sind, dass es für unsere Systeme klar ist, dass wir sie nicht zusammenklappen können. Aber problematisch bezüglich Ranking sind beide Varianten eigentlich nicht. Man kann das so machen oder so machen. Einige Shops machen das eher in eine Richtung, andere machen das eher in eine andere Richtung. Wenn ich ein Artikel, eine ganz neue Seite einen neuen Subfolder hineinschiebe, den Redirect-Macher und alle internen externen Links anpasse, kann ich den Redirect dann irgendwann entfernen. Ja, kann man machen. Grundsätzlich würde ich einfach warten, bis wir wirklich diesen URL, der weitergeleitet wird, nicht mehr crawlen. Das heißt, praktisch gesehen würde ich da vielleicht schauen, dass man in größten Ordnungen halbe bis man da die Redacts dann entfernt. Und dann sollte das eigentlich soweit okay sein. Wichtig ist wirklich, dass man alle Elemente anpasst, die internen, externe Verlinkung, auch die Sachen, die nicht direkt sichtbar sind auf der Seite. Das heißt, mit dem Well-canonical, wenn ihr mit Structure Data irgendwie arbeitet und die URL dort verwendet, mit Well-next, Well-previous, mit hreflang, all diese quasi versteckten Links die vorhanden sind, würde ich auch anpassen. Hand für sich kann man die Redacts dann, würde ich vielleicht nach einem Jahr oder so entfernen. Grunde genommen, bei den meisten Websites macht es auch nichts aus, wenn man die Redacts länger behält. Ich habe ein Redirect von der HTTPS und WBW Version meiner Website auf die HTTPS Version eingerichtet. Muss ich trotzdem alle Version in Search Console eintragen. Hand für sich, wenn wir ein Side-Move gesehen haben auf eine Version, die ihr aus Hauptversion jetzt nimmst, ist vor allem die Version dann auch relevant für die Daten, die dargestellt werden in Search Console. Das heißt, die ganzen Crawlingfehler, die Informationen über die Sichtbarkeit, all das wird in Search Console auf die Version werden. Ich würde aber trotzdem versuchen, die anderen Version irgendwie verifiziert zu lassen, damit falls irgendetwas mit dem Redirect schief geht, dass ihr diese Information irgendwo bekommen könnt. Und was man da machen kann, ist zum Beispiel ein Konto einrichten, wo man einfach alle Version darin verifiziert hat und dann von dort aus per Delegation wie das auf Deutsch genannt wird in Search Console, dass man dann andere Besitzer auch angibt, dass man da einfach die Hauptversion weiter freigibt für die normalen Benutzer in Search Console. Das heißt, als normaler Benutzer hat man einfach die Hauptversion in Search Console und man hat dann trotzdem alle anderen Versionen in einer Art Archivverzeichnis oder Archivkonto oder so etwas eingerichtet. Einfach damit man diese Informationen hat, falls man sie irgendwann brauchen wird. Kann Google in einem Blog den Hauptinhalt von User-Kommentaren auseinanderhalten oder wird das ausgesammtes betrachtet? Könnt Kommentar auf schlechter Qualität das Ranking des eigentlichen Artikels beschädigen? Wir können in vielen Fällen schon einzelne Bereiche einer Seite auseinanderhalten und das so wenn. Trotzdem für das Ranking nehmen wir aber trotzdem eigentlich die ganzen Inhalte zusammen. Das heißt, wenn ihr einen guten Artikel habt und alle Kommentare sind unbrauchbar, dann schauen wir das als gesamthafte Seite an und sehen, dass da ist irgendwie so ein Mix aus verschiedenen Inhalten und dann müssen wir halt eine gesamte Wertung der Seite irgendwie machen. Das heißt, wenn ihr seht dass die Kommentare auf eure Blog wirklich sehr problematisch sind und so vielleicht sind das ein normaler Benutzer wenn man auf diese Seite geht, dann denkt ja wie soll ich das einstufen? Dann würde ich mir überlegen wie man da vielleicht diese Kommentare besser moderieren kann oder wie man die Kommentare vielleicht eher verstecken kann und nur die hochwertigen Kommentare sich benachen kann damit man da trotzdem noch beide Varianten hat. Dann nochmal mit redirects Zusammenführung mit Domain A und B auf Domain C. Die Domain A, welche die größere Domain dargestellt hat eine Adress-Änderung mitgeteilt bei B kann man das nicht machen wie man das am besten beschleunigen. Ich weiß nicht ob da die Adress-Änderung wirklich so sinnvoll ist in so einer Situation weil normalerweise wenn ich 2 Domains zusammenführe in einen dritten hinein dann ist es nicht das gleiche wie wenn ich 1 Domain weiterleite auf ein anderer Domain weil dann hat man ja eine Mischung von Inhalten, dann sind es nicht 21 die gleichen wie von vorher. Von dem her denke ich, dass ein Adress-Änderung in Search Console wahrscheinlich nicht ganz das richtige hier ist. Ich vermute, dass es da keine Probleme verursacht, aber das ist jetzt auch nicht etwas wo ich sagen würde das muss man auf jeden Fall machen. Wichtig, gerade bei solchen Situationen wo man verschiedene Domains zusammenführt in ein oder wenn man ein Domain aufteilt in verschiedene Domains ist einfach zu wissen, dass solche Änderungen brauchen einfach viel länger als normale Domainwechsel. Das heißt, wir müssen da wirklich den neuen Domain sauber neu beurteilen wir müssen die ganzen Inhalte dort erst mal sauber finden und dann einschätzen für die einzelnen Seiten innerhalb vom Domain wie können wir die quasi bewerten wo sollen sie zeigen, wo sind sie relevant für Besucher und das sind Sachen die uns nur aufgrund von den bestehenden Seiten irgendwie ableiten. Das heißt, bei einem normalen Domainwechsel von A nach B können wir sagen, all die bestehenden Signale können wir 1 zu 1 weitergeben an neuen Domain, das geht relativ schnell und schmerzlos wenn wir alles neu beurteilen müssen, weil es jetzt auf einmal eine Mischung ist von verschiedenen Inhalten, dann braucht es einfach seine Zeit. Was man da machen kann ist per Seitenabdatei natürlich die neuen URLs uns mitteilen, per Seitenabdatei kann man auch die alten URLs uns mitteilen die jetzt per Redirect weitergeleitet werden dass man da sagt diese URLs haben sich geändert mit dem Datum, wenn wir angefangen haben den Redirect zu machen damit wir die alten URLs neu crown können den Redirect sehen können und dann entsprechend alles weitergeben können an die neuen URLs Das sind zeigen nicht so die Hauptvarianten die man da machen kann wichtig ist natürlich auch, dass wir die Redirects alle sehen können dass sie nicht per robots Text blockiert werden weder auf der alten Seite noch auf der neuen Seite dass man diese Sachen möglichst schnell übernehmen kann was vielleicht auch relevant ist ist wenn man eine Side-Up Frage macht in der normalen Google Suche wird es wahrscheinlich auch längerfristig so sein, dass man da die alten Domains auch noch sieht und das heißt nicht dass wir die alten Domains nicht gearbeitet haben, sondern einfach dass wir erkannt haben du suchst gezielt nach diesen alten Domains, wir kennen die, wir wissen dass sie zwar weitergeleitet sind, woanders aber wir kennen die noch und möchten sie euch zeigen weil du halt gerade so direkt danach suchst das heißt wir versuchen da hilfreicher zu sein, da erfüllen normalen Benutzern was natürlich nicht gerade hilfreich ist wenn man da ähnliche Probleme diagnostizieren möchte mit der Side-Up Datei und mit dem Index Covered Report in Search Console sieht man das aber relativ schnell, wie sich das bei den alten sollte das dann nach unten gehen und bei den neuen Domain geht das halt entsprechend hoch dann da ein Shop mit mehreren Ländershops und verschiedenen Sprachen innerhalb der einzelnen Ländern in den ersten Wochen nahm die Indexierung zu und nun ist es wieder ein bisschen sinkend oder flach Laut Search Console wurden die meisten Seiten, die crawled nur indexiert werden die nicht was kann man da sagen allen für sich ist das nicht unbedingt ein Zeichen, dass ihr etwas falsch macht es ist ganz normal dass wir bei einer größeren Website dass wir da einfach nicht alles indexieren und wir crawlen die Seiten vielleicht schauen sie uns an und denken das ist einigermaßen okay versuchen wir dann aufzunehmen die Inhalte andere Inhalte crawlen wir vielleicht denken wir wissen noch nicht wie wir die behandeln müssen und möchten erst mal längerfristig ein bisschen abwarten dass wir das so einpendelt und normalerweise wenn die Website einigermaßen okay ist wenn die so weit sauber aufgebaut ist mit der URL Struktur dass wir da nicht viel Duplikate finden dann wird im Laufe der Zeit die Indexierung auch ein bisschen zunehmen wichtig ist da vielleicht auch wie gesagt die URL Struktur dass wir wirklich wenn wir die Website crawlen mit halt so viel Duplikate Content hineinkommen weil jedes mal wenn wir weitere URLs finden die eigentlich zu den gleichen Inhalten führen bedeutet das dass wir da Seiten angeschaut haben wir crawled haben die wir nicht indexiert haben schlussendlich und das hält uns dann vielleicht ein bisschen zurück die anderen Seiten schneller anzuschauen das heißt bei den meisten Websites ist es so dass wir in eine gewisse Anzahl Seiten crawlen pro Tag in dieser gewissen Anzahl Seiten viele Duplikate finden dann finden wir nicht halt so viele neue Seiten wie wenn wir uns nur auf die wirklich relevanten URLs beschränken müssen von dem her würde ich da in Richtung vielleicht gehen dass man da wirklich die URL Struktur mal sauber kontrolliert dass man da sich nicht allzu fest verlaufen kann gerade bei einem Shop ist das manchmal sehr einfach dass es da Schwierigkeiten gibt und dann einfach auch längerfristig das ganze Beobachten statt zu erwarten dass da wirklich alles von Anfang an sehr schnell indexiert wird wenn durch unsere Angular Seite ein kurzer Link beim Laden der URL im Browser zu einem langen expandiert wird in der fertige geladenen Seite der Canonical aber weiterhin auf dem kurzen Link zeigt was was können wir da machen grundsätzlich ist das bei der Wahl von einem Canonical immer eine Frage von verschiedenen Signalen wie wir da zusammennehmen und aufgrund von diesen Signalen versuchen wir den Canonical URL auswendig zu machen und da kommen so Sachen wie Redirect dazu da kommt der REL Canonical dazu die internen Verlinkung kommt ein bisschen dazu Sidemap Datei, hreflang also hier Sachen kommen ein bisschen da zusammen und wenn wir zum Beispiel eine Seite Cron die hat ein Redirect dabei ob das per Javascript ist oder serverseitig auf eine andere Seite und von dort aus ist der Canonical wieder auf die ursprüngliche Seite dann ist das für uns ein bisschen schwierig zu erahnen dass ihr als Canonical wirklich haben wollt einerseits leitet ihr auf die andere Seite weiter auf der anderen Seite habt ihr auch den Canonical zurück und da schauen wir dann einfach möglichst alle Signale zusammen an und überlegen uns wo kommt das ganze ein bisschen zusammen und dann wählen wir halt entsprechend die Seite wenn man wirklich starke Wünsche hat bezüglich der Wahl vom Canonical dann muss man wirklich dafür achten dass das konsistent ist innerhalb der Website, dass man die interne Linkung sauber hat auf die richtigen Urals dass die richtigen Urals keine Weiterleitung auf andere Seiten da sind das per Sidemap Datei die relevanten Urals dabei sind also gesagt, dass es halt ein bisschen konsistenter ist grundsätzlich ist vielleicht aber auch zu sagen dass wenn wir die falsche Urals aus Canonical wählen, ist das nicht das Ende der Welt weil vom Ranking verändert sich da eigentlich nichts es ist wirklich eigentlich nur eine Frage von der Urals die wir in den Suchergebnissen zeigen und manchmal möchte man halt eine kurze Urall haben in den Suchergebnissen manchmal ist das nicht so wichtig gerade wenn man mit Breadcrumbs arbeitet dann sieht der Benutzer ja eigentlich auch nicht welche Urall da direkt verlinkt ist ich hätte da nochmal eine schnelle Frage zu okay wie verhält es sich mit Canonical Ketten also wenn du jetzt von Seite 1 nach Seite 2 und dann von 2 auf 3 verlinkst das kommt natürlich ähnlich zusammen also wir können grundsätzlich solchen Ketten schon folgen und quasi von Seite den Canonical auf die andere schieben und von dort aus entsprechend weiter und das so entsprechend verknüpfen aber eben wie gesagt wenn der Canonical unklar ist, wenn von einer Seite der Canonical auf eine andere gesetzt wird und von dort aus der Canonical nochmal woanders dann ist es manchmal für uns schwierig zu erahnen was du damit magst und es ist nicht eine Frage von quasi ob man das richtig macht oder falsch macht oder unseres Systemes halt schauen das an und überlegen sich ja da ist einmal der Canonical da und dann von dort aus ist der Canonical woanders ist ein von diesen links vielleicht ein Fehler ist vielleicht gemeint dass man den Canonical direkt auf die Ziele auf die letzte Canonical Seite nimmt oder ist der zweite Canonical Tag vielleicht falsch und aufgrund von denen versuchen wir dann einfach einen Canonical ausfindig zu machen und manchmal ist das ein bisschen schwierig auch zurück zu verfolgen weil Sachen wie interne und externe Verlinkungen kommen ein bisschen dazu und weiß man natürlich nicht so 100%ig welche Links werden jetzt dafür gezählt für diese Seite die einmal verlinkt wird und welche Links gehen quasi auf die end Canonical Seite das ist manchmal ein bisschen schwierig zurück zu verfolgen eine Frage mit hreflang wenn man sagen die Seite irgendwas.ch aufruft gelangt man in der Schweiz auf die Version irgendwas.ch wenn man nun Battlings auf diese Seite setzen möchte soll man die Links mit oder ohne DE Language Parameter machen was ist aus deiner Sicht sinnvoller was was ich da auf jeden Fall machen würde ist dass man die Homepage als X default Version einrichtet so dass unsere Systeme wissen dass einerseits besteht da eine deutsch-schweizer Variante vielleicht eine französisch-schweizer Variante oder andere Ländervarianten auch aber es gibt auch eine Hauptzeit die wenn redirect macht je nachdem wie der benutzerhalt die Einstellungen hat im Browser und das sie zusammengehören und wenn wir mit dem X default das selber erfassen können dann ist es weniger relevant wo der Link hingesetzt wird weil wenn auf die X default Variante gesetzt wird wissen wir das gehört zu diesem Cluster von verschiedenen URLs also inklusiv der ch-de Version und dann können wir das irgendwie eine Gruppe zusammen behandeln und normalerweise ist das so ziemlich die beste Variante da da muss man sich dann auch nicht überlegen ja auf welche Seite verlinke ich jetzt intern wie muss ich das mit den Side Maps machen wenn wir klar erkennen können dass diese Seite ein redirect macht aufgrund von vielleicht Browser oder benutzer Einstellungen und die gehört zu dieser Gruppe da und Sprachversion dann können wir das als eine Gruppe behandeln dann eine Frage zum Mobile First Mobile First Indexing wir haben bei der Expansion ein CZ Domain gekauft und ein Single Page App eingerichtet und mit einem Endpunkt Subdomain für die mobile Version Prerendering gibt es für die Desktop bei der Mobile Version ist es noch nicht international ausgerollt ja und da verschiedene Sachen kommen da zusammen was vielleicht im Moment ein bisschen schwierig ist mit Mobile First Indexing ist dass wir Meldungen verschicken an die Besitzer von diesen Websites in Search Console wenn wir auf Mobile First Indexing stellen man sieht die aber glaube ich nicht nachträglich das heißt wenn man erst später ein Domain übernimmt der schon in Mobile First Indexing umgeschaltet ist dann sieht man das nicht umgedeckt in diesem Fall dieses Domain habe ich bei uns mal kurz nachgeschaut ist wirklich in Mobile First Indexing das heißt wir indexieren für alle Versionen der Inhalte von diesem Domain nehmen wir jeweils die Mobile Version und wenn das vielleicht mal ein JavaScript App ist und das Rendering von Googlebot funktioniert dort nicht 100%ig aus irgendeinem Grund und man macht nicht Prerendering dann kann es sein dass wir für die Indexierung von diesem Domain insgesamt gleich eher Probleme haben was man da machen kann ist entweder das Rendering so weit anpassen dass es auch klappt wenn man auf Googlebot die Inhalte jeweils sieht ich denke das macht auf jeden Fall Sinn oder zumindest dass man per Prerendering oder per Dynamic Rendering arbeitet und dass man da wirklich die mobile Version auch mit Dynamic Rendering für Suchmaschinen freigibt so dass Suchmaschinen dann eine normale statische Version haben die sie sauber indexieren kann dann sind so die Varianten die ich da vorschlagen würde im Moment ist es nicht vorgesehen dass man eine Website von mobile indexing zurück auf euch mal desktop oder weiß nicht wie ich das auch nennen würde dass alte indexing zurück schalten würde sondern wenn sie einmal umgeschaltet sind auf mobile first indexing dann sind sie auf mobile first indexing umgeschaltet dann nehmen wir jeweils die mobile Version dazu in Search Console wird es in Zukunft so sein dass wir das auch ein bisschen darstellen dass man da ein bisschen klarer sieht diese URL wurde per mobile Googlebot quasi indexiert dass man da ein bisschen auch nachträglich besser erkennen kann auf welche Version man sich konzentrieren müsste ich denke insgesamt mit einem m.subdomain ist es immer ein bisschen schwieriger weil man da die beiden Versionen hat wenn man da irgendwie auf eine responsive Version umschalten könnte hat man natürlich diese ganzen Probleme weniger aber klar eine Umstellung vom Design vom größeren Website ist auch nicht gerade einfach schauen wir mal die anderen Fragen da an wie kann man erkennen ob eine Website im mobile first indexing ist oder nicht ich denke die Variante die Cache-Seite anschaut und dass man da die mobile Version sieht das ist ziemlich klar das sollte aber auch besser werden in Zukunft in Search Console wenn ein Domain umgestellt wird betrifft das auch alles subdomains ja, das betrifft auch alle subdomains wie ist das bei neuen Domains ich weiß es nicht ich vermute wenn wir neue Domains haben die wir noch nie gesehen haben dann werden wir als desktop indexing quasi gestartet und dann sobald unsere Systeme erkennen können dass da die mobile Version so weit bereit ist für mobile first indexing dann schalten wir die Augen aber standardmäßig wird das wahrscheinlich so sein dass es erst noch mit desktop anfängt ich denke das müssen wir vielleicht neu überlegen irgendwann nächstes Jahr dass man da vielleicht sagt gut, jetzt ist es soweit dass auch die neuen Domains mit mobile first indexing starten müssen wir mal schauen ok dann mit mobile first indexing wir haben ein slider auf einer unserer Seiten wie a client-side rendering integriert in der alten Search Console haben wir den slider mit abruf wie google rendering beziehungsweise sehen können wir mussten nun aber feststellen dass google scheinbar die dahinterstehenden links nicht lesen kann getestet für kibana und screaming frog ich weiß nicht wie kibana und screaming frog das testen von dem her weiß ich nicht ob sie genau das gleiche sehen würden wie wir wie man das am besten untersuchen kann sind da zwei Varianten was man machen kann je nachdem ob das schon mit mobile first indexing gemacht wird auf der Webseite oder ob das responsive ist, da kann man mit dem model friendly test arbeiten und dort kann man die gerenderte html Version anschauen und in der gerenderten html Version müsste man sehen können ob da ein link vorhanden ist bei diesen Elementen oder nicht das ist nicht hundertprozentig einfach das sieht man ja auf Anhieb nicht in der html Version aber wenn man zum Beispiel nach einen von diesen Textbereichen sucht der als anchor text im slider verwendet wird dann müsste man eigentlich noch sehen ob da ein link vorhanden ist oder nicht wichtig ist, dass wir links nur dann erkennen können wenn das wirklich auch ein a Element ist mit einem a trap und einer euro das heisst wenn man per javascript onclick arbeitet und irgendein div link weiterverwendet dann werden wir das unter Umständen nicht als link erkennen können die andere Variante wie man das auch machen kann ist mit dem rich results testing tool dort wird es meineswissens mit dem desktop googlebot gekraucht und auch gerendert und da kann man ebenfalls die gerenderte html Version anschauen und da kontrollieren wie man das auch finden kann so wie ich das gesehen habe auf Anhieb mal kurz reingeschaut sieht es so aus, ob diese Inhalte per lazy loading nachgeladen werden und da könnte ich mir vorstellen dass da unter Umständen dann auch zeitlich je nachdem wie schnell das geladen wird dass es da leichte Verschiebungen geben kann oder dass da nicht alle tools das direkt auch erkennen können weitere Inhalte und Links auch vorhanden sind von dem her könnte ich nachvollziehen wenn, sag ich mal Screaming Frog das nicht auf Anhieb sieht vielleicht kann man da einen Timeout ein bisschen erhöhen dass das ein bisschen besser klappt zu kontrollieren grundsätzlich ist es aber auch so dass wenn man das per javascript und per lazy loading nachlädt und dass ich meine gewisse Zeit brauche bis es geladen ist dann könnte ich mir vorstellen dass es auch für die Indexierung mal klappt und mal weniger gut klappt unter Umständen ist das etwas wo was für euch wichtig ist oder vielleicht ist das nicht so kritisch wenn wir die Inhalte trotzdem irgendwie verlinkt sehen innerhalb der Seite wenn die zum Beispiel im Text dabei sind dann ist es ja egal ob wir sie auch im Slider sehen diese Links wenn wir die Inhalte irgendwie verlinkt haben normal innerhalb der Website ist es auch weniger kritisch ob die im Slider aus Link gesehen werden das müsst ihr da ein bisschen selber irgendwie einschätzen ok, da in Chat ist noch eine Frage in wiefern wurde im html5 Markup nun die Artikelstruktur endgültig geklärt wie geht Google damit um? meines Wissens machen wir nicht speziell für html5 dass wir da sagen würden diese Elemente oder Blöcke innerhalb einer Seite müssen irgendwie anders behandelt werden als mit einer älteren html-Version wenn man einfach mit Diff oder mit PTAX aber dann mit Diff oder mit PTAX arbeitet von dem her würde ich da natürlich die neue Möglichkeiten in html5 würde ich normal benutzen ich würde einfach nicht erwarten dass man dadurch irgendwie SEO-Vorteile hat wenn wir jetzt mit sourmet Artikelstruktur wenn wir das irgendwie in html5 anders deklariert werden würde sollte aber auf jeden Fall auch keine Probleme verursachen von dem her und wenn man da schon mit den neuen Strukturen arbeiten möchte inzwischen sind sie auch nicht mehr allzu neu dann sehe ich da keine Probleme damit ok, schauen wir mal was sonst noch gekommen ist haben wir noch was wir haben für unsere Produkte viele Produktbewertungen und Google zeigt dann auch die Bewertungen an durch die massaren Bewertungen wird allerdings unsere Seite immer langsamer wie können wir das Spagat zwischen schneller Seite und vielen Produktbewertungen realisieren was das einige Seiten machen ist dass man einfach einen Link hat auf die vollständige Liste der Bewertung, dass man da ein Teil vielleicht vorlädt in der Seite und dann einfach eine separate URL hat wo die westlichen Bewertungen dabei sind das ist wahrscheinlich am einfachsten so man kann natürlich auch per JavaScript wie eine Paar Genierung machen innerhalb von gewissen HTML Elementen, das man sagt quasi nächste Seite mit Bewertungen nachraten und dann ist es auf der gleichen URL, das werden einfach vom Server her die nächsten Blöcke von Bewertungen nachgeladen und dargestellt ein von diesen beiden Varianten kann man eigentlich da problemlos machen Wichtig ist für uns einfach aus policy Gründen dass man da die vollständige Liste irgendwie anschauen kann das ist für uns vom webspam Team her, wenn sie das anschauen dass sie wirklich auch sehen können diese Bewertungen sind vorhanden das ist nicht einfach eine Zufallszahl die irgendwie erfunden worden ist sondern man kann die auch effektiv anschauen man kann auch erkennen dass das Hauptthema dieser Seite betreffen und dass normale Benutzer weitere Bewertungen auch da lassen können und wenn das gegeben ist, dann sollte das eigentlich problemlos klappen Könnte ich noch eine Frage stellen? Ja es geht um Folgendes und zwar habe ich vor unsere Katalogsuche zum Teil indexieren zu lassen ich habe gemerkt, dass es häufig Suchtreffer gibt zum Beispiel Italienflagge Klein und wir haben sehr viele kleine Flaggen halt und da würde ich jetzt zum Beispiel für Italienflagge Klein weil ich habe die Suche so aufbereitet dass nur die kleinen schön angezeigt werden hättest du das für kritisch wenn jetzt die Katalogsuche indexiert wird also jetzt nicht alles, sondern nur ein kleiner Minital das kann man problemlos machen also das ist wie eine normale Internetseite dann auch schlussendlich es geht dann eigentlich in Richtung wie Kategorienseite dann fast gerade wenn du die Themen oder die Stichwörter gezielt auch aussuchst dann sind das eigentlich Kategorienseiten die erstellt werden und die können wir normal indexieren und wenn jemand gezielt nach etwas sucht wo so eine Seite relevant wäre dann versuchen wir die auch darzustellen und ist es denn kritisch, wenn man ein exact match keyword nimmt also dieses Suchwort was oben man auch in der Suche vorgeschlagen wird von Google oder ist das dann zu extrem für SEO also sollte man das vielleicht noch Italienflagge Klein günstig kaufen irgendwie noch so aufbereiten oder man sagt exakt diese Kombination aus Suchwörtern wie man wählt aus unserer Sicht ist das eigentlich unproblematisch worauf ich einfach achten würde ist dass man nicht einfach alle möglichen Keywords so kombiniert weil das laies natürlich die Gesamtveranzahl von URLs von der Website extrem auf und das kann schnell dazu führen dass man dann auch so low quality Content quasi automatisch erstellen lässt das sieht man ab und zu wenn zum Beispiel Leute nach total Themenfremden Seiten suchen und dann auf einmal sind die indexiert dann macht das für euch eigentlich auch nicht so wahnsinnig viel Sinn wichtig ist auch dass man gerade bei solchen Suchseiten schaut dass man auf die ganzen XSS Sachen achtet das heißt wenn jemand zum Beispiel nach einem html tag sucht dass ihr nicht das das html tag klarstellt weil sonst könnt ihr jemand zum Beispiel tag suchen und auf einmal hat eure Seite dann ein link auf eine andere Webseite dabei das wollt ihr natürlich auch nicht haben das heißt wenn du gezielt wirklich die Stichwörter aussuchst die für euch relevant sind dann sehe ich da überhaupt kein Problem ja und die Produkte die dann dort hinter stehen da habe ich mir überlegt die auf nur index zu nehmen weil es kommt halt hin und wieder vor dass google ein falsches Produkt anzeigt italienflagge klein dann zeigt er mal das an mal ein Aufnäher an mal eine Tischflagge an also ich würde das einfach umgehen dass jetzt diese Kategorie Seite also die Katalog-Suche gezeigt wird und das was dahinter steht dann praktisch raus aus dem index ist würdest du das empfehlen oder sollte man das dann trotzdem drinnen lassen ich würde die er drinnen lassen ich denke gerade so gezielte Produkte können schon sehr relevant sein ich denke dass die falsche Seite dargestellt wird da hilfst du natürlich ein bisschen nach in dem dass du eher gezielte Seiten hast also für italienflagge klein zum Beispiel und da sollten eigentlich die einzelnen Produkte weniger erscheinen was man natürlich das Vorteil hat bei den einzelnen Produkte Seiten ist dass man da zum Beispiel Informationen wie Preise oder Bewertungen herauslesen kann bei Kategorien-Zeiten hat man das natürlich nicht so 1 zu 1 dabei oder dann sind ja die Preise sehr unterschiedlich ja ok eine letzte Frage dazu noch muss auf dieser Katalog-Suche Seite dann noch irgendwie Text untergebracht werden oder reichen wirklich nur vier Bilder mit den Produkten also eine ganz einfache Übersicht also muss ich noch dabei schreiben sagen wir mal zwei, drei Sätze was hier zu finden ist habe ich sie selbst erklärt ein bisschen Text würde ich schon dabei haben zumindest eben Italienflagge klein und dann die verschiedenen Varianten dass die aufgelistet sind damit wenn wir die Seite anschauen dass es nicht nur eine Sammlung von Bildern und Links auf Produktzeiten ist sondern dass man da ein bisschen erkennen kann worum es geht oft wenn da einzelne Produkte verlinkt sind und im Link ist auch die Produktbezeichnung dabei hat man natürlich schon einzelne Inhalte dabei wenn man das anders macht dass da die Produktebezeichnung vielleicht nicht direkt als Text dabei ist dann würde ich schon schauen dass irgendwas als Text schon auf dieser Seite vorhanden ist also die Produktbezeichnung sind vorhanden das Bild ist vorhanden in dem Warenkorb ist auch vorhanden, Preis ist auch vorhanden also muss nicht noch zusätzlich ein kleiner Satz oder sonst dem was dabei stehen H1 ist halt auch wie das Suchwort und es erscheint ja auch wahrscheinlich testet Google gerade die Qualität weiß ich nicht also ich sehe halt hin und wieder einen Treffer und okay alles klar, vielen Dank bitte okay weitere Fragen von irgendjemand der vielleicht hier noch gerade dabei ist ich hatte eine Frage schon sagt es dann am Anfang dass bei Haare-Fleng-Auszeichnungen die Seite nur einmal indexiert wird ihr aber die anderen Versionen kennt die Haare-Fleng-Aus, die in Haare-Fleng-Aus gezeichnet sind wie sieht das dann in der Google Search-Konsole aus ich sehe quasi die Haare-Fleng-Aus gezeichneten Seiten nicht sondern nur die eine indexierte weiß ich nicht müsste ich ausprobieren also man müsste auf jeden Fall wenn man die Seite dem Inspect-URL-Tool anschaut sieht man wahrscheinlich, dass wir als Canonical ein von diesen Sprach- oder Länder-Versionen nehmen das heißt, wenn ich die CH-Version anschaue, sehe ich wahrscheinlich dort, dass da die DE-Version als Canonical ausgewählt wird und kontrollieren kann man das meistens in dem, dass man einfach nach diesen Hauptinhalten suche und dann einmal auf CH und einmal auf DE also Google DE, Google CH und schaut ob da trotzdem der Canonical-Wahl auf einer Version dann die beiden Versionen separat dargestellt werden okay, gut, danke ist ein bisschen komplizierter ich hätte noch was, wenn keiner möchte ja und zwar geht es halt um diese Qualität und Kompensierung der einer schlechten Qualität und zwar wird oft geraten dass man durch neuen High Quality Content den schlechten Content irgendwie kompensieren kann jetzt in unserem Fall werden es eventuell die Artikel, die wir jetzt hinzufügen würden, also ich probiere jetzt gerade nur Index aus weiß nicht, ob es ganz so richtig funktioniert dann läuft noch nicht so ganz lange was hältst du denn grundsätzlich davon also, weil hin und wieder wird ja auch geraten, dass man den schlechten Content verbessern sollte, aber dadurch dass man diesen neuen Content High Quality Content hinzufügt also ganz was Neues klappt das da noch mit der Kompensation? ja also, wir versuchen die Webseite insgesamt anzuschauen und da kommen die Sachen, die indexiert sind in Frage und einerseits kann man natürlich die bestehenden indexierten Sachen verbessern man kann auch bestehende Seiten die schlecht sind und man sagt, die kann ich jetzt nicht verbessern oder ich habe keine Zeit, um das irgendwie alles anzuschauen, man kann aber auch helfen in dem, dass man mehrere neue gute Inhalte noch dazu nehmen neue gute Inhalte sind die Inhalte, die viel gesucht werden und auch also für den Nutzer gut sind also ja, okay alles klar, vielen Dank und da noch eine Frage, was würde passieren wenn ich eine Seite auf Neuindex stelle dann aber auf einer anderen Seite bei Canonical verweise und die nicht auf Neuindex gestellt ist das ist für uns immer ein bisschen schwierig also, was wahrscheinlich passieren würde ist, wir würden in Canonical folgen und das so weiter verwenden aber es ist ein bisschen kompliziert weil mit dem Neuindex sagt man natürlich auch, dass die Seite nicht indexiert werden soll wenn sie nicht indexiert wird dann fallen die ganzen Signale irgendwann raus aus unserem System das heißt, wir sehen dann diesen Canonical längerfristig, vielleicht nicht mehr kurzfristig denke ich, würden wir auf jeden Fall diesen Canonical sehen und dann eher die andere Version als Canonical wählen und die dann sauber normal indexieren aber es ist natürlich immer ein bisschen schwierig wenn man ganz unterschiedliche Seiten hat mit dem Canonical arbeitet, dann müssen unsere Algorithmen da irgendwie interpretieren und überlegen du sagst, die Seiten sind identisch oder equivalent, aber eine dürfen wir indexieren die anderen dürfen wir gar nicht indexieren das ist ja ziemlich unterschiedlich und dann ist es eine Frage wie müssen wir das einstufen, müssen wir sagen sie sind equivalent das heißt, wir können die zusammenklappen oder müssen wir sagen, die sind vielleicht nicht equivalent wir lassen dann die eine Seite einfach weg und die Signale, die dorthin gehen die verschwinden halt einfach und konzentrieren uns eher auf die neue Seite von dem her würde ich eher empfehlen, diese Kombination zu vermeiden ich denke es ist aber auch nicht kritisch wenn man das irgendwie nicht vermeiden kann wenn man mit einem CMS halt arbeiten muss und das so irgendwie halt machen muss aus irgendeinem Grund ok, gut, dann machen wir vielleicht hier eine Pause vielen Dank für eure Fragen in den nächsten Kommentaren war wieder sehr hilfreich und interessant auch für mich, ich hoffe es war auch für euch interessant ich richte auf jeden Fall die nächsten Hangouts mal wieder ein vielleicht schaffe ich es auch, dass wir in Zürich, in Dezember nochmal irgendwie ein Hangout vor Ort machen das ist auch immer wieder spannend ansonsten sehen wir uns vielleicht nächstes Mal wieder Tschüss allerseits Tschüss