 OK, herzlich willkommen beim heutigen Webmaster Essentials Sprechstunden Hangout. Wie immer, ich bin Johannes Müller, Webmaster Trends Analyst bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Hangouts mit Webmaster Publisher SEOs, alles rund um die Web-Suche halt. Einige Fragen sind eingereicht worden, nicht wahnsinnig viel. Aber wir können mit denen mal anfangen. Oder falls von eurer Seite der Arbeit Christian irgendetwas gibt, womit wir anfangen können, seid ihr gerne eingeladen, Muslim? Ja, ich hätte direkt was. OK. Ja, also es geht immer um die Paginierung. Wir haben ja in dem Hangout auch darüber gesprochen. Du hattest irgendwann mal gesagt, dass, wenn man jetzt von Seite 2 zum Beispiel auf die Seite zurück in Canonica geschaltet, dass ihr dann den Weg zurückfindet. Also wie funktioniert das denn genau mit der Paginierung und dem Canonica, weil es scheint zu funktionieren? Die Seiten sind jetzt nicht unbedingt gleich bei uns. Ist das so, dass wenn Google ein Parameter oben in der URL erkennt, dass er den Weg dann zurückfindet oder grundsätzlich dann diese URLs auch annimmt? Oder es steckt einfach an. Wie meinst du das mit dem Weg zurückfinden? Ja, also du gehst bei mir, geht man in einen Kategorie rein, zum Beispiel Tischflagen und dann auf Seite 2 kommst du ja nur von Tischflagen aus. Und der Weg zurück wäre ja dann nur möglich über die Seite 2 praktisch. Wenn ich dann Canonica setze, dann funktioniert das komischerweise, obwohl die Seiten ja nicht gleich sind. Also erkennt ihr da den Parameter oben in der URL oder den Weg zurück? Also es gibt ja nur diese zwei Möglichkeiten ein. Ich weiß immer noch nicht genau, was du meinst mit dem Weg zurück. Aber grundsätzlich, was da passiert, ist einerseits sehen wir den Canonical und versuchen den zu folgen. Andererseits sehen wir vielleicht auch, dass die Seiten ein bisschen unterschiedlich sind. Und dann ist es immer bei uns eine Frage, ob sie ähnlich genug sind oder nicht. Es kann aber gut sein, dass wir da den Canonical einfach weiter verwenden. Und wenn wir den Canonical verwenden, dann nehmen wir für die Indexierung effektiv nur die erste Seite von der Paginierung. Also wenn du den Canonical immer auf die erste Seite der Papelierung zurücksetzt, dann nehmen wir die erste Seite als Canonical, wenn wir diesen Canonical annehmen. Und das heißt, dass die Links, die auf den zweiten Seiten, dritten Seite, vierten Seite und so weiter sind, die werden unter Umständen dann nicht gefunden oder nicht weiter beibehalten. Das heißt, in Grunde genommen müsste man in so einem Fall sicherstellen, dass zumindest die Produkte irgendwie aufhindbar sind, auch wenn man nur die erste Seite der Paginierung anschaut. Man kann das machen entweder, dass man einfach Produkte hat in unterschiedlichen Kategorien sind, dass sie überall wenigstens auf einer Seite sind oder dass man dafür sorgt, dass sie untereinander irgendwie als verwandte Produkte zum Beispiel verlinkt sind. Das heißt, wenn ich bei dir zum Beispiel in einer Flagge hineingehe, dass man da die anderen Fragen vom gleichen Land oder die anderen Fragen von der gleichen Art findet oder anders ähnlich andere verwandte Produkte so finden kann. Ja, also das gibt dann Probleme, weil dann wenn ich jetzt vom gleichen Land aus die verschiedene Varianten aufliste, dann wird leider hin und wieder mal das falsche Produkt angezeigt, für eine bestimmte Gruppe. Also mit dem Weg zurück meinte ich eigentlich, also die Seite 2 ist ja nur in der Kategorietischflagen vorhanden von dieser Seite 2. Ich habe mir überlegt, dass ich vielleicht um diese Produkte mal stärker zu machen, habe ich mir überlegt, die Produkte, die verlinkt sind, aus der Kategorie wieder zurück über ein Canonical zu leiten zu der Tischflagenkategorie, sodass das einzelne Produkt gar nicht in Index auftaucht, weil es ja eigentlich auf der Kategorie Seite gelistet ist. Da frage ich mich, ob das funktionieren wird, weil mit dem Paginierungsleiten funktioniert es ja. Mit dem Produktseiten bin ich gerade dabei, das nochmal auszuprobieren. Könnte sein, dass wir das so weiter verwenden. Ich denke für dich ist einfach die Frage, welche Seiten möchtest du indexiert haben. Und wenn du effektiv die Produktseiten nicht indexiert haben möchtest, dann kann man das sicher mal so ausprobieren. Das würde einfach auch bedeuten, dass wenn jemand nach einer länderspezifischen Flagge sucht, dass die Suchergebnisse dann halt sind, quasi alle Flachen von dieser Art und alle Flachen von diesem Land. Genau, in der Technologie. Ja, aber das ist eigentlich gut, weil es gibt so viele komische kleine Provinzenregionen und so weiter, da braucht man keine einzelne Seite für. Aber grundsätzlich mit dem Weg zurück, weißt du, wie ich das jetzt meine, wenn du dir den Linkrafen anguckst, dann gehst du in die Kategorie rein und von da aus verteilt sich das auf diese einzelnen Produkte. Und dann ist der Weg zurück über das Canonical dann praktisch gesetzt. Also es gibt nur diesen Einweg halt. Und ja, also wenn das klacken würde, das wäre natürlich klasse auf jeden Fall. Weil die sagt das ja nicht gleich eigentlich, ne? Ich würde in so einem Fall würde ich da einfach vorsichtig vorgehen, weil unter Umständen, was dann passieren kann, ist das, dass Leute speziell, oder besonders eine bestimmte Art von Flagge suchen, zum Beispiel in deinem Fall und dass sie dieses Produkt dann das Gefühl haben, dass das nicht in den Suchergebnissen da ist. Und da würde ich vielleicht einfach mal in klein Rahmen das austesten, schauen, ob das wirklich so funktioniert, ob sich da vom Gesamtverkehr von der Google Suche nichts negativ irgendwie verändert. Einfach damit du sicher bist, dass diese Konstellation in deinem Fall dann auch richtig funktioniert. Ich denke, das ist nicht etwas, was bei jedem E-Commerce-Site zum Beispiel nachbar ist. Ja, ja, da hast du recht, ja. Und kann man denn irgendwas kaputt machen, wenn man diese Canonicals falsch setzt? Also kann man eben die Qualität runterziehen oder kann irgendwas passieren? Oder ist es einfach nur so, dass es aus der Indexierung rausfällt und nicht irgendwie vertrauen? Also, dass Google dann auf einmal sagt, nee, wir vertrauen der Seite nicht, weil die setzen komische Canonicals. Nein, Canonical ist für uns eher einfach ein technisches Signal. Okay. Das heißt, wir sehen dann, dass du diese Seite zusammengefaltet haben möchtest und dementsprechend versuchen, dem zu folgen. Es ist nicht ein Zeichen, dass wir sagen, die Qualität der Webseite ist besonders gut oder schlecht, nur weil ein Canonical gesetzt ist. Okay, alles klar. Super, danke schön. Okay, dann schauen wir mal da die eingereichten Fragen nochmal an. In der Search Console werden uns zahlreiche Spam Links angezeigt, die laut Search Console als abweichende Ziel URL ein seriöses lokales Nachrichten portal verweisen. Schauen wir mal die lange Frage. Was kann man da im Westen machen? Das überhaupt benutzen wir bereits. Was könnte man da grundsätzlich machen? Grundsätzlich, wenn ihr seht, dass da Spam Links auf eure Webseite verweisen in der Regel ignorieren wird, ist es nicht unbedingt etwas, wo man besonders etwas machen muss. Wenn man es gefühlt hat, dass es in größerem Rahmen ist, man wirklich sicher sein möchte, dass diese Links keinen Einfluss auf eure Webseite haben, dann kann man mit dem Disservow-Tool arbeiten. Beim Disservow-Tool würde ich in solchen Fällen einfach auf der Domain-Ebene arbeiten. Alles von diesem Domain soll ignoriert werden. Weil in vielen Fällen sind Spam Links mit verschiedenen Paramentaren, verschiedenen URLs verzeichnet. Dann müsste man sonst die einzelnen aufführen. Das macht eigentlich wenig Sinn. Da würde ich den ganzen Domain in die Disservow-Datei hineinsetzen. Wenn die per Disservow eingereicht werden, dann werden die nächsten Crawling von diesen Seiten diese Links dann für sich ignoriert. Die Links werden trotzdem in Search Console dargestellt. Das heißt, in Search Console, wenn man bei einem Links-Report reingeht, dann sieht man die weiterhin. Das heißt, es ist kein Zeichen, dass sie problematisch sind oder dass die Disservow-Datei nicht verarbeitet ist, wenn sie dort aufgeführt werden. In Search Console ist einfach die Philosophie da, dass wenn diese Links vorhanden sind, dann versuchen wir sie darzustellen. Egal, ob die No-Follows sind oder ob die in der Disservow-Datei sind. Manchmal ist das ein bisschen verwirrend. Da kriegen wir ab und zu Fragen, die in diese Richtung gehen. Aber grundsätzlich, wenn die per Disservow eingereicht worden sind, kann man sie dort ignorieren. Wie gesagt, in den meisten Fällen ignorieren wir diese Links sowieso automatisch. Es ist auf jeden Fall nicht notwendig, dass man da höchentlich hineingeht in Search Console und alle Links kontrolliert und überlegt, ist das jetzt ein guter Link oder ein schlechter Link, sondern einfach in solchen Fällen, man weiß, dass man früher etwas problematisches mit Links gemacht hat und das wirklich aufräumen möchte. Oder wenn man hineingeht und ein größeres Muster sieht, wo man sagen will, dann möchte ich wirklich sicher sein, dass Google das nicht negativ sieht. In solchen Fällen würde ich mit dem Disservow-Tool arbeiten. Es gibt schon seit Längerem ein Cache-Statumsfehler. Kannst du dazu ein Update geben? Wir haben das mal neulich wieder angeschaut mit dem Team. Und soweit ich da Bescheid weiß, sollte das eigentlich in den nächsten paar Tagen sich wieder ein bisschen erholen. Ich weiß, was ich gesehen habe, ist einfach, dass bei vielen Websites ist irgendwie Anfang Mitte April quasi erst Cache-Statum drehen. Und ist da nicht aktualisiert worden. Und ist das ein bisschen verwirrend. Aber andererseits ist es so, dass dieses Cache-Statum entspricht einfach nicht der normalen Indexierung. Das entspricht nicht immer der Indexierung, auch sonst. Das heißt, mit dem Datum bei den Cache-Staten würde ich mir da nicht allzu viel Sorgen machen. Das kann manchmal ein falsches Datum sein. Oder ein anderes Datum zumindest das, was für die Indexierung verwendet worden ist. In vielen Fällen sieht man das sehr schnell, wenn man zum Beispiel nach einem Datum sucht, wo man weiß, dass dieses Datum auf der Webseite ist. Dann sieht man sehr schnell, dass im Snippet wird das Datum angezeigt. In der Cache-Staten-Version ist zum Beispiel das Datum nicht vorhanden. Das an und für sich einfach nur ein Zeichen, dass die Cache-Staten-Version ein bisschen veraltet ist. Aber wie gesagt, sollte eigentlich jetzt auch wieder besser werden. Dann von David habe ich da noch eine ganze Liste von medizinischen Suchbegriffen bekommen. Vielen Dank. Ich schaue das mit dem Team hier mal an und guck mal, ob wir da irgendwie etwas überdenken müssen, anders anschauen müssen. Auf jeden Fall ist das sehr hilfreich. Danke. Danke, bitte. Das ist übrigens sehr knifflig. Man muss ja erst mal gucken, was wir überhaupt heute. Dann muss man bei jedem der Treffer gucken, wenn man es nicht kennt, selber, was steckt dahinter. Wenn es nicht ganz klar ist, dass ein Farmer viel mal vorne drauf steht oder ein Verband, den man kennt. Ich muss selbst als Mensch da reingucken und manchmal ins Impressen gucken und manchmal auch in die Sponsorenliste gucken, weil die guten Verbände und Vereine, also sind ja viele EVs dabei und auch viele Stiftungen, haben wir trotzdem Sponsoren. Ich dachte, das ist eine Stiftung oder ein Krankenhaus oder ein Forschungsinstitut und natürlich ist die Liste der Sponsoren und der Supporter so lang und es sind alle Farmerfirmen drin. Das heißt, es ist tatsächlich sehr, sehr knifflig zu beurteilen. Ist das wirklich eine neutrale Information oder nicht? Ich wüsste nicht, wie ein Crawler oder wie der Googlebot das hinkriegen sollte und wie das Ranking da, also wie ein neutrales Ranking entstehen könnte. Es ist wirklich eine sehr knifflige Kiste. Ich denke, gerade bei medizinischen Begriffen ist es manchmal auch so, dass es einfach Fachinformationen gibt, die halt auf verschiedenen Webseiten vorhanden ist. Aber auf jeden Fall ist es mal interessant, das Ganze mit dem Team anzuschauen. Teil vom Quality Team ist auch hier in Zürich. Da können wir das gleich mit Ihnen mal anschauen. Übrigens, was auch noch interessant ist dazu, ich habe gleichzeitig, ich habe ja so 120, 150 Seiten angeguckt, diesbezüglich, und habe da gleichzeitig ein Lighthouse-Speech-Check durchgezogen. Es korreliert extrem stark, die auf den ersten 10 sind, haben meistens sehr guten Lighthouse-Speed-Status, Mobile und auch Desktop. Alle, die Werbung drauf haben, fallen wahnsinnig nach unten ab, weil natürlich jede Art von Werbung, die auf der Seite platziert wird und die Werbung auf der Seite platziert. Ich meine selbst einen AdSense auf der Seite, das macht ja die Geschwindigkeit richtig runter. Das ist tatsächlich, das korreliert leider leider sehr, sehr hart. Und dann so, dass ich da tatsächlich überlege, ob das allein schon, ob die nicht Werbung platzieren, allein schon deswegen belohnt wird, weil man dann einem sehr viel schneller werden kann. Und die Usability ist natürlich sehr viel besser, wenn die Werbung schalten müssen, weil sich so finanzieren, sind da auch da, aber scheinlich benachteiligt. Was ich übrigens als Nutzer kann ich das verstehen. Es sind zum Teil gute Seiten. Robert Koch-Institut ist gut für Lungenentzündungen. Das würde ich nicht anzweifeln. Trotzdem ist das eine sehr fitte, schnelle Seite, die sehr schön das darstellt auf einer Seite. Und wenn ich jetzt mit ich arbeite, wenn mir das kein Geheimnis komme, wir müssen aber Werbung machen, weil wir Geld verdienen müssen, das ist ja kaum ein Chance fürchtig zur Zeit. Meine Auftrag überfragen mich, was sollen wir denn tun, um wieder in die Top 10 zu kommen, wo wir früher waren. Und ich sage denen, guck mal diese Liste an, das sind nur Farmerfirmen und Verbände und Vereine und Stiftungen drauf. Also 8 von 10 sind so. Ich weiß gar nicht, was ich da sagen soll, ob wir eine Chance haben, wieder reinzukommen. Ja. Gut mit Werbung ist, ich denke mit der Geschwindigkeit ist es sicher eine Sache, aber es ist nicht so, dass wir die Geschwindigkeit alleine nehmen in Rankings. Und es gibt natürlich auch verschiedene Arten, wie man die Werbung einbinden kann und manche Arten sind einfach sehr viel langsamer. Auch manchmal, wenn man die von Google einbindet, ist es manchmal auch so, dass es dann sehr viel langsamer ist oder wenn man es anders einbaut, dass es ein bisschen besser geht. Aber das nehme ich sicher mal auch mit zum Team um das Ganze mal anzuschauen. Okay, super finde ich. Ich finde schon, dass man da zumindest eine Chance haben sollte, auch wenn man da per Werbung finanziert werden muss. Es sollte schon irgendwie gerade sein. Es ist tatsächlich moralisch ethisch sehr schwierig zu beurteilen, was ist ein guter Antwort und was ist vielleicht eine Antwort mit dem Geschmack von der Pharma-Firma. Und wie gesagt, selbst ich als Mensch, ich kenne mich in dem Gebiet gut aus, habe Schwierigkeiten gehabt, immer klar zu sagen, und wenn es eine Stiftung ist, der steckt dahinter. Sehr, sehr schwer. Ich wüsste nicht, wie die Maschine das können sollte. Tja, mal schauen. Okay, cool. Dann haben wir eine andere. Unsere Seite wurde durch das März-Update getroffen. Wir haben in den letzten Wochen mehrere Hundertzeiten komplett überarbeitet und viele Seiten mit den Content-of-No-Index gesetzt. Wir haben auch einige technische Verbesserungen durchgeführt. Wir denken, dass unsere Internetseite inhaltlich, wie auch technisch, um einiges besser geworden ist. Wie lange braucht Google um die überarbeiteten Seiten beziehungsweise die ganzen Webseiten neu zu bewerten? Müssen wir im Zweifel auf das nächste größere Update warten oder sollten wir, wenn wir alles richtig gemacht haben, bereits Veränderungen in den Suchergebnissen feststellen? Ja, ich denke, das ist eine Seite. Ich weiß nicht genau, was sich da verändert hat oder was ihr gemacht habt, was auf unserer Seite passiert ist. Grundsätzlich ist es so, dass da verschiedene Algorithmen, verschiedene Faktoren immer eine Rolle spielen. Einige Sachen sind so, dass wir die relativ schnell wieder aktualisieren können. Die wir durch das Crawling von einzelnen Seiten schon sehen. Wenn man sich etwas verändert in diese Richtung, da können wir vielleicht besser feststellen, worum es geht bei den Inhalten. Das sind besserer Titel vorhanden, besserer Überschriften. Das ist alles ein bisschen klarer. Das kann man dann direkt beim ersten Crawling oder beim ersten Neuindexierung kann man das berücksichtigen. Das heißt, da sieht man schon quasi ein Trend, denke ich mal, der da passiert. Andere Sachen brauchen einfach länger. Gerade wenn man die Gesamtqualität der Webseite beurteilen müssen, dann ist es eine Frage, dass man das Gesamtbild der Webseite wieder neu hat. Das ist eine Sache, die kann eine gewisse Zeit dauern, bis wir mehr von der Webseite gecrawleden und indexiert haben. Anderseits, dass wir alle Signale rund um die Webseite ein bisschen aktualisieren können. Da würde ich meinen, wenn das jetzt eine größere Veränderung ist, dann ist man wahrscheinlich schon im Rahmen von mehreren Monaten rechnen. Manchmal kann das schon relativ lange geben. Das ist ein, halt mit der Gesamtqualität einmal. Dann bezüglich solchen vielleicht mal Core Updates, die wir auch ab und zu machen. In der Regel ist es so, dass bei diesen Core Updates werden die Algorithmen aktualisiert. Das heißt, es ist nicht eine Frage davon, dass man warten muss, bis das Core Updates die neue Webseite neu bewertet, sondern es sind einfach die neuen Algorithmen, die im Laufe der Zeit diese Webseite neu anschauen. Das heißt, normalerweise müsste das so sein, dass man für einzelne Seiten mit diesen quasi seitenspezifischen Faktoren sieht man da schon leichte Veränderungen im Laufe der Zeit, während dem all diese Seiten neue Crowden indexiert werden. Wenn wir die Qualität gesamt neu beurteilen, dann sieht man das wahrscheinlich sobald da die Signale ein bisschen besser gebündelt sind. Also, ich denke so nach, weiß ich mal, Monat, mehreren Monaten diesem Rahmen. Wenn wirklich unsere Algorithmen sich angepasst werden müssen, dafür, dass sie für diese Webseite das Ganze irgendwie sauber neu beurteilen müssen, dann ist wahrscheinlich eher eine Frage vom nächsten Core Update. Ich würde meinen, dass bei den meisten Webseiten, wenn man jetzt größere Veränderungen gemacht hat, dann ist es eher eine Frage davon, dass die Gesamtbeurteilung aktualisiert werden muss und dass es dann halt eine Frage von, sag ich mal, ein paar Monaten bis man da größere Veränderungen sehen würde. Dazu gleich noch eine Frage. Forum User Generated Content das ist jetzt beim Kunden von mir auch vom Verzeichnis, also sehr nah am Rest des Contents und verlinkt auch sehr, sehr eng in den guten Content, in den handgeschrieben Content, in den medizinischen Content. Kannst du sagen, du hast deutlich dich dazu schon mal geäußert, aber sollte man dieses Verzeichnis jetzt nehmen und das ganze Auslagern, zum Beispiel in das Subdomain oder ein ganz separate Domain würde das vielleicht der Hauptdomain und dem Content auf der Hauptdomain helfen? Je nachdem, wie die Qualität von diesem Forum halt ist. Es ist halt ein Forum, gibt es da Verschiedenes, ich meine, es ist einfach zum Beispiel zu medizinischen Begriffen, da gibt es einfach 50 Fragen, hab ich Lungenzündung, es gibt aber 50, 60 Threats dazu, das kann man nicht verhindern, die kommen ja jeden Tag und die Leute gucken ja nicht genauer nach, steht dazu schon von irgendwas, die Fragen einfach los und das ist natürlich schlecht. Es ist zum Beispiel ein bernisches Forum, da arbeiten wir auf Fragen und es ist also moderiert, aber trotzdem ist es natürlich schlecht. Und du gekauft. Natürlich schlecht. Ja, also im Sinne von aus reiner SEO-Sicht, ich habe 50 Threats zu Lungenzündung und 100 Threats zu Blasenzündung zusätzlich zu dem medizinischen Content. Das ist aus SEO-Sicht, aus SEO-Brille, ist es nicht gut. Weiß ich, aber wir können es auch nicht abschalten. Und lohnt sich der Aufwand, kannst du das relativ konkret beantworten? Lohnt sich der Aufwand, das auch eine Subdomain zu bringen? Subdomain. Schwierig zu sagen. Ich denke, es hängt schon stark davon ab, wie gut das moderiert wird, was da gemacht wird. Ob zum Beispiel da wirklich jeder beliebige Threat indexiert ist, ob das so, dass da vielleicht auch noch Spammer noch darunter sind, die irgendwelche wilden Links setzen. Dass er nicht. Ich denke, es ist durchaus möglich, dass man bei einer gehobenen Webseite auch ein Forum dabei hat und dass es keinen Schaden macht bei einer Webseite. Wenn man jetzt sauber ein Forum führt, wenn man wirklich mit Modervatoren arbeitet, wenn man das so einrichtet, dass wirklich den Threat sind, dass man die vielleicht auf einen Index setzt, dann sehe ich das schon machbar. Es ist auf jeden Fall nicht so, dass man sagen würde, überall wo ein Forum dabei ist, ist automatisch schlecht. Das war ja eben die Frage auch nach dem Thin Content, dass du eben warst oder ist niemand anders. Das ist ja, indem du sie in Thin Content oder Weed Content und natürlich, wenn jemand da drauf kommt, dann stößt jetzt hier bei um jeder zum Beispiel zuerst auf den Forum Content und er kommt da hin. Ich habe eben die Befürchtung, dass das eben mit der Webseite so sehr assoziiert wird und dass dieser Mensch oder eure Maschine den guten Content, der dazu passt, gar nicht mehr findet, weil es einfach zu viel Ablenkung ist. Ist das eine reale Befürchtung? Das kann schon sein. Was ich einfach schauen würde, ist, dass wirklich auch der geprüfte Content irgendwie sauber verlinkt ist und dass man erkennen kann, das sind jetzt bestimmte Stichwörter im Forum Thread vorhanden, Lungenentzündung, was man zumindest im Sidebar oder sonst irgendwo Verlinkung machen kann. Das sind jetzt die effektiven geprüften Inhalte, die wir haben und dass man so diesen user-generated Content mit dem Referenz-Teil irgendwie sauber verlinken kann. Das tun wir und zwar in Text. Es ist ein automatische Linkalgorithmen, wo wir durchgehen und gucken, wann wird das Wort Lungenentzündung benutzt und dann liegt es automatisch in die guten Teile rüber. Aber genau das wird zum Teil auch hinterfragt, ob das sinnvoll ist, den schlechten Content mit dem guten Content zu verblüpfen. Das ist eben, das stellen viele Kollegen von mir in Frage, ob man das sollte oder man sagen würde, da ist ein scharfer Brücke dazwischen, es ist ein Fluss dazwischen und es ist unmoderierter, die die Forum-Bereiche sind, umso eher würde ich sie abkennen, dass man die wirklich separat hat. Also ein Subdomain? Subdomain oder vielleicht sogar ein ganzes separates Domain. Das man einfach wirklich klar sagen kann, das sind jetzt wirklich unsere Referenz-Inhalte. Da kann Google's Algorithmen hinkommen und sagen, alles was auf diesem Domain ist, können wir so indexieren. Und die anderen Sachen sind auf die Website und dann so entsprechend auch weiter auf die Referenz-Inhalte. Aber dann sind sie einfach wirklich sauber getrennt. Dann hat man wirklich nicht das Problem, dass man dafür sorgen muss, dass die Forum-Inhalte wirklich hundertprozentig sauber sind, dass da von Informationen her, dass das wirklich auch zusammenpasst, dass es sauber verlinkt ist immer. Wenn man schon sehr sicher ist, dass das eigentlich gut ist, dann sehe ich da keine Probleme. Es ist nicht so, dass man sagen kann, überall wo ein Forum dabei ist, ist automatisch die Website nachteil. Das kann ja auch gut zusammenpassen. Aber ich denke, gerade bei größeren Formen, wo man nicht hundertprozentig von der Qualität her alles überwachen kann, da würde ich eher dazu tendieren, dass man das separiert. Könnte ich dazu auch nochmal was fragen? Ja. Das hört sich ja für mich genauso an, wie mein Problem eigentlich mit meinen Produktvarianten. Da ich jetzt auch dann 30 verschiedene Produkte für eine Flagge habe. Dazu würdest du eigentlich sagen, dass wenn man jetzt für Italien Flagge zum Beispiel nur noch eine einzige Seite hat, dass das definitiv besser ist als wenn man dann noch verschiedene Produktvarianten im Index hat. Ich sehe halt immer mehr, dass die Online-Shops, das sind dann Standard-Insternationen mit Shopwear oder sowas, dass die auf einmal ranken mit einer einzigen Seite. Die haben dann eine Seite für eine Flagge und sind einfach über mir. Ich kann es so eigentlich gar nicht verstehen. Aber würdest du sagen, eine Seite für ein Thema, oder? Würde ich jetzt nicht unbedingt so sagen, dass es von der Qualität her ein Thema ist, sondern einfach von den Signalen, die relevant sind. Du hast glaube ich die Relevanz da auch mal reingebracht, dass die Seite einfach stärker ist, wenn man eine einzige Seite hat, wo alles drauf ist. Ja. Unter Umständen, ja. Und äh, kritisch, könnte man das ja auch so anschauen, dass man überlegt, wenn jemand nach Italien Flaggen sucht, dann macht es Sinn, dass man eine Liste von Flaggen hat. Wie man nach Tischflaggen sucht, dann möchten wir ihm wahrscheinlich eher direkt auf eine Tischflaggen Seite schicken. So könnte ich mir vorstellen, dass es schon unter Umständen problematisch ist, dass wir einfach alles zusammenpacken, so wie nur die Kategorien-Seiten werden indexiert. Von den Signalen her macht das manchmal schon sicher. Gerade bezüglich PageRank. Zum Beispiel ist es ja so, wenn man verschiedene Seiten hat, dann verteilt sich der PageRank auf diese Seiten. Wenn man weniger Seiten hat, dann kann man das ein bisschen konzentrierter haben. Dann ist einfach wirklich die Frage, wie relevant diese Seiten dann halt sind. Das heißt, diese vielleicht mal die Kategorien-Seite hat vielleicht mehr PageRank, aber ist sie genauso relevant für eine Suche, wenn jemand nach einer speziellen Flagge sucht und das ist eine Kategorien-Seite, wo alle möglichen Flaggen sind und umständen auch die eine spezielle Flagge, wo nachgesucht wird. Ist die immer noch so relevant, wie eine Landing Page, die nur speziell für diese Flagge ist. Aber gehen wir davon aus, dass jetzt die Leute keine spezielle Variante suchen, wenn die jetzt wirklich im Idealfall immer nur Italien Flagge suchen, Italien Flagge kaufen. Ist es dann so, dass es wirklich besser ist, eine einzige Seite zu haben, also im Index jetzt. Und was sich jetzt da hinten noch hinten dran hängt, mit, keine Ahnung, Stockflagge, Tischflagge oder sonst irgendwas. Wie ging es davon aus, dass keiner Tischflagge Italien sucht? Wurde das besser? Ja, und unter Umständen schon. Was man einfach da balanciert, ist einerseits Sachen wie PageRank und die ganzen Signale, die wir sammeln, die wir konzentrieren können auf eine Seite, die machen diese Seite natürlich ein bisschen stärker und auf der anderen Seite die Relevanz. Wie relevant ist diese Einzelseite zu dieser Suchanfrage, die jetzt da ankommt? Und man kann natürlich eine sehr starke Seite haben, aber wenn die überhaupt nicht relevant ist, dann zeigen wir sie auch nicht an für solche Suchanfragen. Und ähnlich kann es auch sein, dass sie auch von Signal her ist, aber sie ist sehr relevant. Und in solchen Fallen zeigen wir sie vielleicht dann trotzdem. Also ich sehe wirklich, wenn ich mir die anderen ansehe, dann haben die 1200 Seiten im Index drin. Und wir haben jetzt 8000 ungefähr und man sieht schon irgendwie, dass die einfach besser ranken. Christian, guck dir dazu mal an, bitte, das Beispiel home2go.de gegen Airbnb. Das ist so das Lieblingsbeispiel der Zeit in der Szene, wo man sieht, dass home2go.de nur 10.000 UL seid insgesamt. Und Airbnb hat ein paar Millionen und trotzdem hat home2go.de eine bessere Sichtbarkeit. Das ist schon interessant, das ist genau das, was du sagst. Ja, okay. Guck dir das mal an. Alles klar, danke. Okay. Dann haben wir da im Chat noch eine Frage. Wie oft verleitet man effektiv Suchmaschine Spam? Ein Mitbewerber hat auf seiner Startseite einfach in der H100 Keywords eingebaut, ohne Zusammenhang und dann auch ausgeblendet und rankt, soweit ich das sehe auf Platz 1. Immer ein bisschen schwierig, solche Fälle. Also einerseits kann man Spam natürlich melden über den Spam Report Formular, das sind Einträge, die schauen wir regelmäßig auch durch, um zu sehen, dass da wirklich auch diese Sachen sauber verarbeitet werden, dass da effektiv auch der Spam, den wir von unseren Algorithmen her nicht erfassen können, dass wir das irgendwie auch manuell halt angehen können. Ich vermute in so einem Fall wie hier ist es so, dass der Mitbewerber wahrscheinlich nicht wahnsinnig viel Wert hat von diesen Hunderten von Keywords, die in H1-Teile versteckt sind, weil unsere Algorithmen haben natürlich Übung, gerade mit solchen Situationen, wo einerseits mit versteckten Content gearbeitet wird, mit Keyword-Stuffing, mit Headings, das sind alles Techniken, die sind recht alt und damit haben wir eigentlich relativ viel Übung und was normalerweise da passiert ist, dass unsere Algorithmen das erkennen und sagen, gut, wir ignorieren das jetzt einfach. Das heißt, die Webseiten, die mit solchen Techniken arbeiten, die haben eigentlich kein Vorteil davon. Wir ranken sie dann unter Umständen einfach aufgrund von den anderen Signalen, die wir haben, die sonst noch da sind. Das heißt, wenn man das als Externe anschaut, dann denkt man vielleicht schnell, die ranken wegen diesen quasi altmodischen Spam-Techniken, aber aus praktischen Gründen ist es allgemein andere Sachen, die dahinter stecken. Was auch passiert, wenn das manuell angegangen wäre, ist es so, dass wir in meisten Fällen das einfach raushalten, dass diese Funktion da quasi helfen bei dieser Webseite und da kann es trotzdem halt sein, dass die Webseite weiterhin rankt. Es ist relativ selten, dass wir die Seiten ganz aus dem Index nehmen wegen Spamming-Techniken. Normalerweise nehmen sie nur ganz aus dem Index heraus, wenn das wirklich Techniken sind, die aus unserer Sicht so problematisch sind, dass wir sie gar nicht erst indexieren wollen, wenn das zum Beispiel direkt der Scraper-Seite sind, dann macht das aus unserer Sicht gar keinen Sinn, dass wir die überhaupt verarbeiten, dann indexieren wir die entsprechend auch gar nicht. Und von dem her, was sich da einfach überlegen würde, ist einerseits würde ich das sicher mal einreichen mit dem Spam-Reportfond, damit das jemand mal anschauen kann, andererseits würde ich mir da nicht allzu sehr den Kopf damit zerbrechen und quasi erwarten, dass sich da auf Google-Seite das verändert mit diesen Rankings. Ich würde einfach schauen, dass man stattdessen an den eigenen Webseiten arbeitet und da sauber quasi vorwärts macht und nicht nur sich, so ich sage mal, drauf konzentrieren, dass da der Mitbewerber jetzt irgendwie mit H1 Spam quasi arbeitet und deswegen so rankt. Es kann durchaus sein, dass das seites auch aufgrund vom spammigen Techniken rankt. Das gibt es immer wieder und das sehen wir ja auch in den Spam-Reports Formularen. Manchmal dauert das auch nur, weil wir das sauber in den Griff kriegen, aber ich denke gerade bei H1 Spam, wenn da wirklich hundert von Keywords dabei sind, dann sind das Sachen, die sind so offensichtlich für unsere Algorithmen, dass wir die einfach ignorieren können. Okay, dann von David noch die Frage wegen den verschiedenen News-Editionen und Discover. Da habe ich jetzt noch nichts genaueres, aber das schaue ich noch einmal mit dem Team an. Das ist auch sehr, sehr spezifisch, wahrscheinlich schwenkt es auch diesen Rahmen, aber es wäre super, wenn ich einen Ansprechpartner haben könnte. Ich schreibe immer Fragen an das Help-Team und die antworten was und dann schreibe ich wieder hin, weil die haben halt ihre Standardantworten und sind auch nicht so tief drin. Und gerade, was die nicht wissen, die sind ja meistens in einem Team, z.B. die einen sind nur ein Discover-Team und die anderen sind nur in dem Team, welches Google.com-Producer. Also das ist ja so eine neue, ich weiß nicht, für mich war es relativ neu, diese Editionen aufzustellen und die sagen dann, sorry bei dem und dem kennt mich gar nicht aus. Das heißt, ich beschäftige da viele Googler gerade und es wäre vielleicht mal gut, wenn man ein hätte, der, mit dem man tatsächlich mal eine Stunde drüber reden könnte. Das würde sehr helfen. Ich bin auch sehr gern bereit, das dann aufzuschreiben und dokumentieren, dass es viel nahe fällt, erhalten bleibt. Ich glaube, ich werde viel beschäftigen, denn es ist ja gerade diese zwischen Android-App und Discover und News auf Desktop und so. Das ist, das hängt ja alles sehr eng zusammen, aber auf eine Art und Weise, die ich tatsächlich, ob ich jetzt ein paar Tage mich damit beschäftige, nicht kapiere. Ja. Und dazu übrigens, ich habe, das ist eine andere Frage von mir, Analytics. Ich sehe den Ausschlag in Discover, in der Search-Konsol. Ich sehe ein Peak für eine Sache und die Kollegin hat dann gesagt, hey, wir sind bei Discover drin gewesen und wir haben die gleichzeitig in Google Analytics real-time geguckt und da ist es unter Direct Traffic. Es hat keine Referenz Google, das heißt also totaler Quatsch, weil es ist ja, es kann nicht direkt sein, es war ein Artikel auf Google Manure war das jetzt. Es kann nicht direkter Traffic sein, das ist unmöglich und trotzdem ist er so ausgezeichnet. Das heißt, da ist, das ist auch buggy, das System für dich. Und, sorry, noch ein, was auch buggy ist, dieses Google.com-Producer arbeitet da mit RSS-Feeds, nicht mit XML-Site-Maps, was ich nicht kapiere, warum das so ist, weil wir haben jahrelang alles auf XML-Site-Maps gemacht und jetzt aber mehr RSS-Feeds, also ich verstehe das auch nicht und das ist merkwürdig einfach sehr vieles und die Frage ist, ob es sich auch lohnt, sich damit zu beschäftigen. Ich habe gar keinen Einblick in die Producer-Seite und die Nimmenseite, aber das erstaunt mich auch ein bisschen, dass das mit RSS-Feeds arbeitet. Ach so, das wusste du gar nicht? Nein. Guck da rein, Google.com-Producer, das ist alles auf RSS-Feeds und wir haben die kaum noch und ich will die auch nicht jetzt umbauen irgendwie oder wir haben das falsche Format und dann sind nicht die ganzen Artikel da drin, sondern nur die Description und dann sagen die Kollegen von dir, sorry, da ist nur die Description drin, darum zeigen wir es nicht an, das ist nicht konform. Dann ist da eine ganz schräge Anweisung, das Logo muss tausendmal tausend Pixel groß sein. Weiß ich nicht, kapiere, weil es ist doch hauptsächlich für mobile und warum muss es tausendmal tausend Pixel groß sein? Ich habe keine tausendmal tausend Pixel Logo von meinen Kunden, das gibt es nicht, das ist ja wie ein Groß. Also so ganz viele schräge Sachen sind da drin, die ich gerne verstehen würde. Aber es ist ja sehr speziell, das werde ich sehen haben, ne? Ja, muss ich mal schauen. Wegen Refer und Analytics, da weiß ich, dass bei Discover ist es im Moment noch so, dass sie noch nicht alles gleichmäßig haben. Das heißt je nachdem wie man Discover verwendet, sieht man dann auch einen anderen Refer und da ist effektiv das Ziel, dass man das vereinheitlicht und dass es wirklich ganz alles zusammenpasst, was man dann auch sieht in Analytics als normalen Traffic von Google. Aber das, ich weiß nicht, wie lange das noch braucht, weil da ist es auch ein bisschen die Schwierigkeit, weil der Discover Feed in verschiedenen Orten verwendet wird und jeder dieser Orte ist dann wie seine eigene Gruppe und die müssen dann wieder koordinieren und manchmal ist das schwierig, in größeren Jahren. Wir haben denn die Leute von der Search-Konsolidation, der eurer israelischen Kollegen wahrscheinlich, wir haben die es denn geschafft in Discover Feed so direkt in die Search-Konsole reinzukriegen, aber die Analytics-Leute nicht. Man, das muss doch irgendwie getaggt sein, das ist, das muss doch ein Refer-Tag intern bei euch haben, das sonst könnten ja die GSC-Kollegen es auch nicht finden. Ja, Search-Konsole arbeitet ja nicht mit den Hard-to-to-be Refer, das ist ja bei der Analytics-Seite, wird das so verwendet, Search-Konsole nimmt effektiv die normalen Logs, damit wir auch die Impressionen und die Clicks separatisieren können. Da kommt es ein bisschen anders zusammen, aber gerade bei Analytics wäre es schon gut, wenn da zumindest der gleiche Refer für die unterschiedlichen Discover-Teile irgendwie verwendet werden würde. Und die, also wenn ihr ja noch bei Spiele braucht, ich habe einen Tachs- und Discover-Ausschlag und Analytics war gar nichts, das ist einfach eine sehr große Disco-Panne zu dem Fall, das sehr interessant sein kann. Ja, müssen wir mal schauen. Ein bisschen mehr Koordination, wäre praktisch. Ich muss auch mal schauen, ob wir von der Google News-Seite vielleicht mal wieder ein Hangout direkt mit denen machen können, dass wir da jemanden von der technischen Seite von Google News mal einladen können und direkt mal etwas zusammen machen können, weil das sind Fragen, die geht es ab und zu und ich habe da wirklich kein wirklich qualifier Fall, das so speziell ist auf der News-Seite, aber das wäre effektiv mal was, dass man wieder anpeilen müsste. Kann auch gerne auf Englisch schreiben. Okay, cool. Glauben, mal schauen. Ah, da sind ein paar Neun noch. Wir haben auf unserer Website ein Glosser erstellt, in dem Fachbegriffe erklärt werden, jeweils ein Satz, alphabetisch sortiert, also auf einer Seite, von dort werden viele Artikel verlinkt. Würde es Sinn machen, das Glosser im Futter zu verlinken, wenn es Mehrwert bringt oder könnte es als Spammy wahrgenommen werden. Also wenn man auf ein Glosser so verlinken könnte, sehe ich, dass sicher machbar, was ich weniger machen würde, ist das ganze Glosser auf allen Seiten einbauen, weil dann sieht das wirklich nach Keyboard-Surfing aus und das macht es dann schwieriger für uns, den Kontext der einzelnen Seiten herauszufinden. Das heißt, im Futter auf eine Seite verlinken mit einem Glosser drauf, das klingt dann für sich gut, das ist ähnlich wie eine HTML-Seitmap. Alle Sachen innerhalb allen Seiten verlinken würde ich aus meiner Sicht weniger machen. Da noch andere Sachen da sind. Seit letzter Woche werden alle zwei Stunden einige AdWords-Anzeigen von uns deaktiviert. Wir sind ein Datenrettungsunternehmen. Laut Google werden die Anzeigen deaktiviert, da wir Drittanbieter sind. Keine Ahnung, wie das bei AdWords gemacht wird mit den Anzeigen, weil das sind hieran für sich ganz separate Policies dort. Ich würde da schauen, ich glaube, es gibt ein AdWords-Forum auch auf Deutsch und das vielleicht dort mal hinein pausen, dass es jemand da mal anschauen kann. Okay, ich glaube, das sind soweit alle Fragen. Mal schauen, wenn noch mehr kommt. Gibt es aus eurer Sicht noch etwas, was wir besprechen sollten? Ich habe tatsächlich noch eine Frage. Und zwar Google Search Console. Ich habe große Kunden, die da sehr viele Einträge haben und bei Abdeckungen habe ich da sehr oft den Fehlermeldungen erstens gefunden, zurzeit nicht indexiert. Da habe ich jetzt mal wie gucke, gerade auf dem Search Console habe ich 40.000 davon und wenn ich da drauf klicke, sind die grundsätzlich indiziert. Das habe ich auch schon von anderen Kollegen gehört, dass diese gefunden, zurzeit nicht indiziert, sehr, sehr häufig, sehr, sehr falsch ist. Hast du dazu schon mal was gehört? Das wäre mir eigentlich neu. Ich könnte mir das höchstens vorstellen, wenn das zeitlich eine Verzögerung ist, wenn das Sachen sind, die jetzt ganz neu indexiert worden sind. Aber es klingt, weil es allgemein so ist, dass die meisten der Beispiele dort einfach indexiert sind. Ich kann es ja nur draufklicken und gucken und testen und so. Ich habe es noch nicht über die AP gemacht. Ich weiß gar nicht, wie das ging. Und tatsächlich bei Stichproben, bei sehr großen Stichproben, bei vielen verschiedenen Kunden, Websites habe ich tatsächlich da immer gesehen, die sind alle indiziert. Das ist also wie der Punkt war, sehr, sehr sinnlos bisher. Habe ich auch zurzeit schon von anderen gehört. Übrigens das andere, was sehr, sehr verwirrend ist, die Canonical Tax. Google hat einen anderen Canonical gewählt als den Nutzer. Wieso macht ihr das? Ich meine, ich zeichne doch eine Seite als kanonische Seite aus, weil ich mir was dabei denke. Und dann sagt Google, ich habe hier tatsächlich eine große Seite, die hat 150.000 Seiten, wo Google einen anderen Canonical wählt als ich. Lass mich doch bitte. Das ist nicht so einfach, ja. Und es ist auch nicht so, dass diese, ich verstehe es ja, wenn die Seite die Google wählt, gut verlinkt wäre oder sowas, oder wenn die externe Links bekäme oder sowas. Aber das ist nicht der Fall. Die Seite, die ich als kanonische Auszeichnung ist, die die wir benutzen und das sind auch die, die die Links haben und die auch intern benutzt wird, dass ich habe keine Ahnung, warum Google was anderes wählen sollte als ich. Gut, gerade bei der Canonicalisierung ist es so schon so, dass wir da verschiedene Faktoren zusammennehmen. Aber vielleicht müsste man das irgendwie ein bisschen auch sichtbarer machen, warum das jetzt so ausgefallen ist. Man kann zum Beispiel sagen, welche Faktoren ihr da zunimmt, welches als kanonisch gewählt wird, besonders wenn dich eine Seite als kanonisch auszeichnet. Zum Beispiel redirects, der Real Canonical natürlich, interne Verlinkung, externe Verlinkung, Sightmaps, HF Lang, HDTPS, eher die sauberen URLs als die etwas längeren URLs. Das sind alles solche Faktoren, die kommen da zusammen. Und normalerweise, was da passiert, ist, dass wir da ein Score, also erst mal herausfinden, welche Seiten zusammengehören könnten. Und dann wird ein Score erstellt aufgrund von all diesen verschiedenen Faktoren, wo wir sagen, das sind quasi 7 Punkte für diese Variante und 10 Punkte für die andere Variante, also nehmen wir eher diese Variante als Canonical. Und bei Spielen, die ich analysiert habe, ist das alles, was du sagst, alle Faktoren sind eindeutig in die Richtung des zum Mehrgewählten Canonicals und trotzdem sagt Google, wir nehmen was anderes. Und zwar viele davon. Ist es tatsächlich ein Score wäre gut oder wenn das aufgedröse, ich meine, das geht sehr komplex dann, aber tatsächlich ignoriert ja einfach meine technische Aussage. Also, da ist ein Canonical, der ist da und Pool sagt, nehm aber den. Das ist für mich, macht das sehr wenig Sinn. Gut, wir sehen einfach in vielen Fällen, dass das eher Sinn macht, dass man da, sag ich mal, einen sauberen Canonical nehmt als der, was in welchem Canonical angezeigt wird. Vielleicht in deinem Fall jetzt nicht. Vielleicht müsste man das irgendwie anders gestalten, dass man da überlegt, quasi, da sind eher gute Canonicals gesetzt, also müssen wir dem eher Mehrgewichtung geben als in anderen Fällen. Das ist schwierig zu sagen, ohne die einzelnen URLs anzuschauen. Man könnte dann auch einfach den Canonical weglassen, wenn ihr sowieso ein eigenes nehmt, dann können wir ja auch, das geht so, das Ding geht so oft kaputt, dann können wir es auch weglassen, oder? Das ist natürlich ein Faktor, der dazuhilft. Und aus unserer Sicht ist es ja so, dass wir mit dem Canonical wird ja einfach der URL ausgewählt, der sichtbar ist in Suchergebnissen. Das heißt, vom Ranking her hat das meistens kein Einfluss. Manchmal hilft es einfach mit dem hreflang, dass es wirklich zusammen klappt, oder mit Geo-Targeting. Das ist nicht super, bitte, sagen wir mal, eine große Zeitung, eine große deutsche Münchner Zeitung, und da gibt es kein Geocard im Targeting, kein hreflang oder so was, das gibt es alles nicht. Das ist ein eigentlich sehr sauberer URL, so manche haben eben Parameter hinten dran, oder manche sind von Bildern irgendwie noch oder so. Das heißt, eigentlich ist die Struktur da, ich meine, ich gucke mir das erständig an, ist die sauber, nur Google wills nicht. Ich kann ja noch mal ein bisschen... Kannst du mir gerne ein paar Beispiele schicken, dann schau ich das Ding mal an. Du hast gerade gesagt, dass das kein Einfluss auf das Ranking hat. Also, damit komme ich jetzt gerade auch gar nicht so richtig klar, weil wenn ich jetzt eine Seite rausnehme und dann die... Also, durch die Canonisierung rausnehme, und dann sammeln wir einfach von der Stoffflagge Italien auf die Italienflagge jetzt eine Canonike-Sätze, dann müsste es doch eigentlich eine Ranking-Auswirkung geben, oder nicht? Das ist ein bisschen was anderes, das ist bei mir dann mehrere Seiten zusammen klappt, aber wenn wir effektiv sehen, dass diese Seiten unentfülllich equivalent wären, dann ist aus unserer Sicht, ist das quasi wie ein Inhaltsstück. Alles klar. Dann ist es egal, welche URL wir darstellen vom Ranking her, sind die Signale eigentlich gleich, ist entweder hier oder halt hier. Und dann spielt das keine Rolle. Aber wenn man wirklich zu dieser Situation erst mal kommen muss, dass man verschiedene Seiten als equivalent sieht, dann hat das natürlich schon einen Einfluss. Ja, okay. Und noch kurz externe Verlinkung und interne Verlinkung, was ist damit gemeint? Weil ich sage mal, ich setze jetzt aus unserer AT-Domain auf die DE-Domain ein Link. Und auf der DE-Seite kanonisiere ich ja wiederum um. Also ist das nicht eigentlich dann ein Signal eher, dass das Produkt dann drin bleiben soll, wenn ein externer Link auf dieses Produkt verweist und dann ein Canonike rüber geht auf eine andere Seite? Oder kannst du kurz erklären, was diese externen Links zu bedeuten haben oder wie ihr die analysiert und die internen Links? Wir, also erst mal schauen wir ja nach, welches dieser URLs quasi in dieser Gruppe sind für ein Canonical. Und dann gucken wir nach intern, wie diese verlinkt sind. Das heißt, ob intern eher auf diese URL verlinkt wird oder eher auf die andere URL verlinkt wird. Und dann können wir aufgrund von dem sagen, zumindest von der internen Verlinkung her, ist es eher diese Seite. Wenn du mal auf Stockflagge verlinkt und 100 mal auf Italienflagge, dann würde die Italienflagge nehmen. Wenn wir denken, dass die Stockflagge und Italienflagge quasi equivalent sind und als Canonical geeignet werden. Okay, und externe Verlinkung noch? Das ist einfach wie externe andere auf deine Seiten verlinken. Wenn du zum Beispiel sagst mal in Tischflagge Italien und Wandflagge Italien hast und du sagst, das sind eigentlich die gleichen Seiten. Und extern verlinkt jeder auf den Wandflagge und du sagst, der Canonical ist die Tischflagge, dann sind ja auch quasi in dieser Situation, dass wir einerseits sehen, der Canonical zeigt auf die Tischflagge, aber extern denken alle, dass die Wandflagge eigentlich das Relevante ist. Und dementsprechend müssen wir dann halt entscheiden, welches von dieser Signale hat mehr Gewichtung. Also sollte ich doch meine Querverweise dann in den Shops dann eigentlich doch rausnehmen, besser. Weil es kommen fünf externe Links, immer oder vier externe Links. Ich kann das natürlich dann auch so einrichten, dass sie eher auf die Seite verlinken, die du als Canonical haben möchtest. Okay, also ja. Okay, danke schön. Okay. Cool, okay. Zeitlich sind wir, glaube ich, ziemlich am Ende. Ich richte auf jeden Fall noch mal die nächsten Hangouts ein. Dann können wir die Sachen, die noch pendent sind, weiterhin besprechen. Auf jeden Fall erstmal vielen Dank für die vielen Fragen und Kommentare. Und dann sehen wir uns vielleicht eines zum nächsten Mal wieder. Tschüss, all the lights. Tschüss.