 OK. Herzlich willkommen beim heutigen Google Webmaster Central Sprechstunden-Hangout. Mein Name ist Johannes Miller. Ich bin Webmaster Trends Analyst hier bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster-Hangouts, wo Webmaster und Publisher kommen können und uns Fragen stellen können, wo man bestimmte Webmaster-Websearch-Themen auch besprechen kann. Wie immer, falls einer von euch loslegen möchte mit den ersten Fragen, seid ihr herzlich dazu eingeladen. Sonst geben wir einfach mal die Fragen durch, die so eingereicht worden sind. Wenn zwischen euch von eurer Seite noch etwas aufkommt, einfach loslegen zwischen euch. Oder wenn ihr Fragen oder Kommentare zu den anderen Fragen habt, seid ihr gerne zu eingeladen. Also, fangen wir mal an. Ich habe gelesen, dass am 19. September die 360-Street Home deaktiviert wird. Ich glaube, das bezieht sich auf Google Analytics. Und dazu habe ich eigentlich keine Informationen. Kann ich nicht genau sagen, was man da machen kann oder wie man das genau in Analytics sehen kann? Ich würde da vielleicht im Google Analytics-Hilfe-Forum mal nachfragen und mal schauen, was die anderen dazu meinen. Wenn das am 19. September passiert, dann ist das wahrscheinlich inzwischen schon passiert. Leider keine Informationen dazu. Dann geht es da weiter. Am 9.09. hat Google 10- bis 20-mal so viele Seiten gecrawled wie sonst. Seit einem Jahr hat jede Domain circa 10.000 Seiten im Index. Auf einmal sind es 30% bis 50% mehr Seiten. Gehendet wurde nichts. Was mir auffällt, ist, dass bei einer Suche nach unserer Marke wieder die nicht-canonical-seitige zeigt wird. Das scheint, als ob den canonical tag irgendwie vergessen hat. Hat das Ganze eventuell mit Mobile First Index zu tun? Wahrscheinlich. Ich weiß jetzt nicht genau, welche Webseiten das bei dir war. Aber grundsätzlich ist es so, dass wenn wir eine Webseite auf Mobile First Indexing umschalten, dann versuchen wir die Webseiten möglichst komplett neu zu crawlen, neu zu indexieren, einfach in der mobilen Version. Wir machen das möglichst in einem kurzen Zeitraum, einfach damit wir die ganzen Informationen möglichst schnell auf die mobile Version schalten können, dass es da keine Konflikte gibt, dass teilweise Desktop Index und teilweise Mobile Index für eine Webseite vorhanden ist. Sondern dass da wirklich möglichst alles auf der mobilen Version umgeschaltet wird. Und das sieht man, wenn man die Log-Files anschaut, sieht man dann in einigen Fällen, dass das direkt so unbekannt mehr gecrawlt wird in dieser Zeit. Meistens beschränkt sich das auf wenige Tage, vielleicht eine Woche, maximal vielleicht etwa zwei Wochen. Und danach wird das dann wieder ein bisschen aufs normale Crawling zurückgehen. Mit dem normalen Crawling ist es so, dass wir natürlich die mobile Version hauptsächlich crawlen, also mit dem Smartphone Googlebot hauptsächlich crawlen. Wir crawlen aber trotzdem noch ab und zu mit der Desktop Version. Bezüglich den Canonical Text sollte da eigentlich sich nichts ändern. Ich nehme an, wenn das jetzt responsive Seiten sind, dann sind die Seiten auch gleich auf Desktop und Canonical. Ich vermute, dass da vielleicht einfach aus anderen Gründen irgendetwas mit dem Canonical sich vielleicht ein bisschen verändert hat. Vielleicht auch kurzfristig nur. Die Seite, die da verlinkt ist, hat so weit kein Canonical dabei. Von dem her, je sauberer ihr die Signale setzen könnt, bezüglich dem Canonical, umso eher können wir den nachfolgen. Und wir nehmen dazu den Canonical. Wir nehmen dazu redirects, internal links, external links, Sitemaps, all die Sachen versuchen wir zusammenzunehmen. Und aufgrund von denen entscheiden wir dann, welches von diesen URLs die eigentlich gleich sind, würden wir als Canonical für die Indexierung nehmen. Unser e-Commerce-Website bedient einen Nische mit Fiwettbewerb. Technisch sind wir ganz weit vorne. Unsere Produkteauswahl ist jedoch eher mittelmäßig. Würdest du sagen, dass mit Create Great and Unique Content in e-Commerce die Produkteauswahl gemeint ist und die Qualität verbessern könnte? Wir haben vor drei Tagen 180 neue Autofahren hinzugefügt, die sonst niemand verkauft. Kommt es, unsere Seite für Autofahren auf den Platz 4 hochgerutscht. Das klingt ja schon mal gut. Grundsätzlich würde ich sagen, dass bezüglich Great und Unique Content die Website insgesamt anschauen. Und das bei e-Commerce betrifft das natürlich auch die Produkteauswahl, aber auch das ganze Layout, die ganze Aufbereitung, wie man diese Produkte finden kann, die Informationen, die ihr zu diesen Produkten gibt. All das kommt ein bisschen da zusammen. Es ist nicht nur quasi die Anzahl Produkte, die ihr habt, sondern wirklich auch das Gesamtbild von der Website. Wie steht der aktuelle Stand von Google bezüglich Dateinahmen aus? Sollen einzelne Wörter mit Bindestrich oder Unterstrich getrennt werden? Und auf welche Punkte bei den Dateinahmen achtet Google sonst noch speziell? Grundsätzlich sind Dateinahmen ein sehr, sehr kleiner Punkt in unseren Faktoren, die wir nehmen, um eine Website zu beurteilen. Von dem her würde ich, gerade bei normalen Webseiten, würde ich mir nicht all so viel zuordnen machen, wenn die Dateinahmen nicht 100% perfekt sind. Man kann auch problemlos mit Parameter arbeiten, dass man einen Skript und dann Fragezeichen, Idee, gleich 1, 2, 3, 4, so kann man auch arbeiten. Das geht für unsere Systeme problemlos auch. Bezüglich Keywords in Dateinahmen ist es für uns ein bisschen einfacher mit einem Bindestrich, also Minuszeichen, die Wörter einzeln zu erkennen aus mit einem Unterstrich. Der Unterschied da ist aber auch sehr servin. Das heißt, es lohnt sich eigentlich nicht, eine Website umzustellen von einer Form auf die andere. Aber wenn ihr jetzt eine neue Website erstellt, würde ich vielleicht eher mit Bindestrich arbeiten, statt mit Unterstrich. Welche Punkte sonst noch? Ich denke, Dateinahmen sind wichtiger oder ein bisschen praktischer für uns, gerade bei Bildern. Aber wenn ihr Bilder einbaut auf einer Seite, dann helfen uns die Dateinahmen ein bisschen mehr zu erkennen, worum handelt es sich bei diesem Bild. Bei normalen Webseiten ist es aber wirklich weniger problematisch oder weniger kritisch. Wichtig ist natürlich auch, dass diese Dateinahmen als Teil von der URL dargestellt werden. Wobei gerade auf mobilen Geräten sieht man ja, die URL fasst nicht mehr. Und wenn man Breadcrumbs auf einer Seite einbindet, dann sieht man die URL auch in den Suchergebnissen nicht mehr. Von dem her ist es nicht mehr so relevant, dass Benutzer irgendwie ein Match mit einem komplizierten Dateinahmen konfrontiert werden und dann nicht genau wissen, was das bedeutet. Sondern die sehen ja häufig, die URL ist gar nicht mehr so. Dann eine ganze Reihe von Fragen. Bezüglich der Bilddarstellung und Auswahl von Bildern in der mobilen Suche, wie man das optimieren kann, dass da die richtigen Bilder angezeigt werden. Marketing hat, glaube ich, weiter hinten relativ ausführlich noch etwas geschrieben, was man für die Bildersuche machen kann. Wir haben auch eine Hilfeseite im Hilfezentrum für die Bildersuche, worauf man achten kann, die verschiedenen Sachen, die man machen kann für die Bildersuche, damit wir die Bilder ein bisschen besser erkennen können. Ein richtig großer Punkt, der für uns sehr hilfreich ist, ist, dass man einen Alttext hat. Das heißt, dass es ein Text dargestellt wird, wenn das Bild nicht geladen werden kann. Das ist sehr wichtig für uns in der Bildersuche. So können wir sehr gut erkennen, worum es sich handelt mit diesem Bild. Und das ist auch eine Sache, die wir ab und zu sehen bei mobilen Websites, was da vielleicht weggelassen wird. Und das kann dann für Mobile First Indexing vielleicht auch das Ganze ein bisschen schwieriger machen, bezüglich der Bildersuche. Es gibt aber auch ganze Reihe anderer Elemente, auf die man achten kann, von Unterschriften auf den Seiten, Überschriften auf den Seiten, wie das zusammengehalten wird, der Text um die Seite herum. Martin hat da ganze Reihe Punkte aufgeschrieben. Er hat auch ein sehr gutes E-Book dazu geschrieben zur Bildersuche. Ich würde das auf jeden Fall mal anschauen, wenn man sich intensiver mit der Bildersuche beschäftigen will. Er kennt da, ich weiß nicht, alle Tricks und hat da eine gute Frage. Der gute alte PageRank, wir hatten mal 4, dann 3, dann 2 und da klebt er seit Jahren. Was ist eigentlich los mit der PageRank? Wir verwenden PageRank so eigentlich überhaupt nicht mehr. Das ist etwas, was früher in Google Toolbar dargestellt wurde, aber ich glaube seit fast 5 oder mehreren Jahren schon wird das gar nicht mehr von Google zur Verfügung gestellt. Von dem her können die verschiedenen SEO Tools gar kein PageRank abrufen, weil es eigentlich gar nicht mehr so gibt. Intern verwenden wir schon noch eine Version von PageRank, um festzustellen, wie da die verschiedenen Links und die Qualität von diesen Links zusammenarbeiten. Aber extern gibt es eigentlich keinen PageRank-Score, wie das früher mal gab. Das heißt, wenn du irgendein SEO-Tool verwendest, welches PageRank darstellt, würde ich vielleicht davon ausgehen, dass dieses Tool sehr alt ist und vielleicht nicht mehr Zeit gibt. Ich muss mal nachfragen wegen dem Ranking von unserem Hauptkeywords. Für unsere Website keine Top 100-Plätze für eine ganze Reihe von größeren Keywords. Wegen deiner Einregung Keywords-Suffin habe ich mal die erst platzierten Seiten mit Tools mit unserer Seite verglichen. Und bei uns werden nicht Unmengen mehr davon eingesetzt. Hast du noch eine Idee, woran es liegen könnte? Ich würde nicht nur vergleichen, was die anderen im Moment haben, sondern wirklich auf eure Seiten sich mal ein bisschen konzentrieren und schauen, was man da verbessern kann. Und gerade bezüglich Keywords-Suffin, soweit ich das da gesehen habe bei diesen Seiten, ich habe das jetzt nicht noch mal neu angeschaut, war das wirklich so, dass teilweise diese Wörter extrem häufig verwendet wurden auf diesen Seiten. Und das macht es für unsere Systeme schon recht schwierig zu erkennen, ist das jetzt, sag ich mal, natürliche Vorkommen von diesen Wörtern, denen man trauen kann, die man verwenden kann für die Relevanz. Oder ist das einfach eine Reihe von Keywords, die auf dieser Seite platziert wurden, die so häufig vorkommen, dass man davon ausgehen muss, dass sie eigentlich nicht natürlich auf diesen Seiten verwendet wurden. Und da würde ich das vielleicht schon ein bisschen noch mal genauer anschauen. Und zwar nicht nur den direkt sichtbaren Keywords, die auf diesen Seiten sehen, sondern auch den Alltext, die Titles, die ihr vielleicht auf den Seiten verwendet, die Texte, die für die Indexierung verwendet werden, aber vielleicht nicht direkt im Browser sichtbar sind. Wir haben viele interne Links, die sie auch aus H1 Keyword enthalten. Sind Keywords in Linktexten, die den Link aber genau beschreiben, aber auch schon Keywords dafür. Also, wenn man mit H1 Überschriften arbeitet und da eine gute Überschrift für die Seite hat, ist das total okay. Wenn man Links in diesen H1 Überschriften hat, ist das auch total okay. Ist nicht unbedingt etwas, worauf ich achten würde, bezüglich Keyword-Stuffing würde ich eher das Gesamtbild der Seite anschauen. Und da sind zwei, drei Vorkommnisse mehr oder weniger nicht maßgebend, aber wenn man jetzt, sag ich mal, zwei, drei, hundert Mal diese Keywords auf einer Seite verwendet, dann ist einfach die Gesamtmenge schon relativ hoch. Mir ist nicht wirklich klar, welche Kriterien herangetogen werden, um zu entscheiden, welche URL-Reihenfolge auf der ersten Google-Seite gewählt wird. Da kann ich leider nicht wahnsinnig viel weiterhelfen, die genauen Ranking-Kriterien hätten, glaube ich, gerne alle. Aus unserer Sicht, was da vielleicht relevant ist, ist einerseits, wir verwenden sehr, sehr viele Faktoren und es ist nicht so, dass alle Faktoren genau gleich erfüllen müssen oder quasi gleich sein müssen, wie die anderen Webseiten. Es kann durchaus sein, dass eine Webseite sehr gut in diesem Teil ist und eine andere Webseite sehr gut in diesen Teil von den Faktoren und gesamt gesehen, wenn jemand nach einem Keyword fragt, welches auf beiden dieser Seiten ist, können diese Seiten eigentlich sehr nah beieinander sein im Ranking. Es ist nicht unbedingt so, dass diese Webseite auch noch all das dazu machen muss oder die andere all das andere dazu machen muss, sondern wirklich durch die Menge von Faktoren, die wir verwenden, kann da jede Webseite auf seine Weise sich behaupten und eigentlich gut dastehen. Was das Ganze vielleicht auch ein bisschen komplizierter macht, ist, dass diese Faktoren sich verändern können, einerseits im Laufe der Zeit, dass da unsere Algorithmen angepasst werden, andererseits natürlich auch je nach Art von Suche, die gemacht werden, nach Art von Inhalten und nach der aktuellen Situation. Man kann sich zum Beispiel vorstellen, dass vielleicht jetzt mal bei dieser Webseite, wo verschiedene, vielleicht auch Nachrichtensprecher vorhanden sind, wenn eine von diesen Sprechern auf einmal in den Nachrichten erscheint, wegen eben etwas, was ich weiß nicht überall besprochen wird, dann kann es durchaus sein, dass solche Inhalte auf einmal sehr relevant sein können, weil jeder möchte vielleicht mal die Geschichte nachschauen oder die weiteren Informationen zu dieser Person haben. Und auf einmal sind solche Seiten sehr relevant. Und beim Spätern, wenn das wieder abgeflaut ist, sind diese Informationen vielleicht weniger. Also solche Sachen können sich sehr gut verändern im Laufe der Zeit. Das macht es einerseits... Jetzt schon mal wieder Zwischenfragen? Ja, klar. Du hast jetzt Danke, dass du dir für Zeit genommen hast, meine Fragen zu beantworten. Aber die erste Frage, die ich gestellt hatte, wegen der Bildersuche, da ging es ja um die mobile Darstellung des Bildes und nicht generell in der Bildersuche im Google Index. Sondern das war ja, wo du letztes Mal gesagt hast, auch wusste es gar nicht, dass auf dem Handy da Bilder angezeigt werden in den Serbs. Na? Ah, okay. Da wollte ich nochmal nachfragen, weil jetzt ist es so, ich werde letztes Mal über diese Preisegeschichte, das ist eine Grafik, die ja komplett eine Tabelle beinhaltet. Und wenn ich jetzt gucke, wurde ein Bild genommen, was eigentlich überhaupt nicht dazu mehr passt, obwohl diese eigentliche Bild in den Alltexten, in den Titeltexten, so als Preise halt benannt ist, es wurde auf einmal ein ganz anderes Foto genommen. Und das versteht man dann nicht. Beziehungsweise es sind auch keine Fotos, die es woanders gibt, dass man jetzt sagen könnte, das Bild ist woanders kopiert. Und da heißt das schon so. Dann hat es extra kreiert dafür, sieht doch so aus und hat auch eine Tabelle. Aber für die Serbsanzeige wurde jetzt einfach ein Foto genommen von irgendwas. Okay. Ich könnte mir vorstellen, dass das vielleicht schwierig ist für unsere Algorithmen, da herauszufinden, welches Bild genau das Optimalste ist. Was ich da einfach machen würde, ist dann in solchen Fällen jeweils Feedback einreichen. Man kann ja unten über die Suchergebnisse das angeben und sagen, das Bild macht überhaupt keinen Sinn. Und dann geht das auch an das Team weiter, damit sie das ein bisschen genauer anschauen können. Aber meines Wissens kann man nicht direkt angeben und sagen, nur dieses Bild nehmen und keine anderen, wenn die anderen Bilder auch eingebunden sind, dann haben wir quasi eine Sammlung von diesen Bildern, die zu dieser Seite gehören und müssen dann irgendwie entscheiden, welches von diesen Bildern das Relevanteste ist für diese Sucherfrage gerade. Aber bei Facebook, wenn man einen Post macht, dann kann man mit oge Grafs arbeiten und dann Bild wählen. Ist das nicht eine Sache, die man nutzen kann, damit das auch für die mobile Sinn macht? Oder wird das nicht gelesen? Ich glaube, das wird nicht gelesen, die oge Graf. Ich glaube, für Videos übernehmen wir das, aber ich glaube, für Bilder nehmen das nicht. Das ist aber bei uns in der Entwickler-Dokumentation dabei sein. Johnny, ich habe noch eine Frage dazu. Es geht es halt auch um diese Bilder. Bei uns erscheinen hin und wieder auch Bilderlisten, also praktisch ein Slider mit mehreren Bildern. Kennst du das auch schon? Weiß ich jetzt nicht genau, wie du meinst. Das ist dann praktisch wie bei den Ads, also du hast die Google Ads und bei uns im Suchresultat erscheint praktisch mehrere Produkte, Produktbilder, in Listen. Nicht nur ein Bild, sondern auch Listen. Ich sollte das mal zeigen, vielleicht. Wenn du ein Screenshot hast, schaue ich mir das gerne mal an. Ja, alles klar. Es geht halt auch darum, manchmal kommt nur ein Produktbild oder eine gesamte Listung. Es wäre wirklich schön, wenn man das irgendwie dann auch sagen könnte, okay, bitte da eine Liste oder vielleicht da nur ein Bild. Ja, ich glaube, solche Sachen kann man grundsätzlich nicht steuern, außer dass man einfach mit dem Carousel-Markup noch genauer angeben kann, dass man jetzt ein Carousel hätte. Aber ansonsten kann man das in der Regel nicht einzeln steuern. Das sind Sachen, die unsere Algorithmen versuchen, herauszuholen. Aber ich weiß nicht gerade, wie das aussieht bei dir. Von dem her ist das vielleicht ein bisschen speziell da. Ja, ich erpose das gleich einfach. Ihr findet immer die wildesten neuen Sachen. Komme ich gar nicht nach. Ich schaue mal nach wegen diesem Open Graph-Markup, ob es da irgendetwas wie die Bildersuche auch gibt. Aber meines Wissens war das wirklich nur für Videos, wo wir das verwendet haben. Gehen wir mal kurz die anderen Fragen durch. Führt der Wechsel zum Mobile First Index zu einer Neubewertung der gesamten Website? In welche Situation kann ein Canonical von Google verworfen werden, wenn es monatelang von Google angenommen wurde? Mobile First Indexing führt schon dazu da, dass wir die Seite Neuindexieren. Das heißt, wir versuchen ja die gesamte Website möglichst zu crawlen und neu zu indexieren. Und dadurch werden die Inhalte schon neu indexiert. Aber es ist nicht so, dass ich sagen würde, das führt zu einer Neubewertung der Website, in dem Sinne, dass die ganzen Qualitätsfaktoren und anderen Rackingsfaktoren neu bewertet werden. Sondern es betrifft eigentlich nur die Inhalte, die wir für das Index verwenden. Das heißt, die indexierten Inhalte werden natürlich ausgetauscht gegen die Mobile Version. Weil wenn man einen responsive Design hat, das sind tatsächlich gleichen Inhalte, ändert sich da eigentlich nichts. Aber vom Ranking her sollte das eigentlich mehr oder weniger gleich sein wie vorher. Also nicht, dass da auf einmal eine Neubeurteilung kommt und sagt, qualitativ ist es jetzt viel besser als vorher oder viel schlechter als vorher. Leichte Änderungen gibt es in den meisten Fällen, gerade wenn man jetzt nicht einen responsive Design hat. Und in welchen Fällen kann ein Canonical neu bewertet werden oder rausfliegen, rausgenommen werden? Das kann eigentlich jederzeit passieren. Das hängt nicht vom Mobile First Indexing ab. Wenn wir erkennen können, dass mehrere URLs gleich sind, dass wir die eigentlich mal austauschen könnten gegeneinander, dann machen wir in Canonicalization, versuchen wir festzustellen, dass diese URLs als Canonical sein sollen. Und dann nehmen wir eben in welchen Canonical dazu, redirects, wenn die vorhanden sind, internal links, externe links, sidemaps, wenn etwas da vorhanden ist, hreflang links, relnext und relprevious, nehmen wir alles dazu zusammen und versuchen aufgrund von diesen Faktoren zu sagen, das ist jetzt die richtige URL. Und wir versuchen, sofern möglich, versuchen wir diese Canonicals dann auch möglichst leicht zu behalten. Das heißt, wenn es so etwa auf der Kippe ist, aber wir wissen, dass es vorher immer so war, dann würden wir eher dazu tendieren, das so zu behalten wie vorher und erst dann umzuschalten, wenn es sich wirklich relevant verändert hat. Wichtig ist da vielleicht auch zu sagen, dass rel Canonical übertrünft nicht alle anderen Faktoren. Das heißt, nur weil ein rel Canonical da ist, heißt nicht, dass wir immer diese URL als Canonical nehmen würden. Wenn auf einer Seite mehrere interne links mit der gleichen Zielseite existieren, dann scheint immer nur der erste encode auftauchende Link für Google zu zählen. Tests von seriösen SEO-Fähren haben das ergeben. Nun hat jemand eine kleine Website mit einer Navigation auf allen Seiten, quasi so mal direkt mal spezielles machen. Vielleicht grundsätzlich zu so einer Situation, es ist so, dass es gibt verschiedene Sachen, die bei uns intern, vielleicht in Algorithmen so oder so gehandhabt werden, aber wenn es nicht festgelegt ist, als etwas, das wir wirklich per Definition so machen, dann kann sich das jederzeit verändern. Gerade so etwas, wo mehrere links mit den gleichen Zielseiten vorhanden sind, wie wird das verhandelt, was muss man da machen, das sind Sachen für uns, die eigentlich nicht definiert sind, die sich jederzeit dafür ändern können, wo wir auch sagen würden, vielleicht müssen wir das neu anschauen im Laufe der Zeit. Das heißt, nur weil das im Moment so gehandhabt wird, heißt nicht, dass es weiterhin so gehandhabt wird. Ich würde mich darauf nicht verlassen und würde aufgrund von so etwas nicht unbedingt die Struktur meiner Website verändern. Was mal das eine und das andere ist, bezüglich solchen Tests, sind zum Teil sehr schwierig zu machen, in dem Sinne, dass man da natürlich nicht sieht, was alles intern abläuft. Das heißt, es gibt sehr viele gute und seriöse SEO-Fermen, die solche Tests von Zeit zu Zeit machen, aber ich würde die Resultate, die daraus kommen, trotzdem ein bisschen mit Vorsicht genießen. Einfach nur, sag ich mal, als Hintergrund da, dass man da vielleicht solche Sachen, die sich jederzeit ein bisschen verändern kann, würde ich einfach ein bisschen vorsichtig anschauen und wirklich nicht davon ausgehen, dass das so gleich bleibt und dass man die ganze Website jetzt auf das umstellen muss, sondern wir versuchen, mit dem Website zu arbeiten, wie sie im Internet stehen. Und wenn wir sehen, dass im Internet die Website so natürlicherweise so zusammengestellt werden, dann müssen wir so damit auch zurechtkommen. Bin ich zu hören? Ja. Mich hätte es halt ein bisschen auch gewundert. Einerseits gibt es diese Tests, die das tatsächlich nahe legen und man kann das schon grundsätzlich testen. Andererseits, der Fall wäre dann tatsächlich so, wenn man jetzt eine allumfassende Navigation auf einer kleinen Website auf allen Seiten hat und die immer im Code als erstes kommt, wenn diese Regel tatsächlich zu 100% zutreffen würde. Also ich hätte ja Google da schon auch mehr zugetragen. Ich kann es mir auch nicht vorstellen, dass das so engstirnig 100%ig immer so ist, weil dann wird tatsächlich im Endegebnis die Konsequenz ja die, dass alle anderen eigentlichen internen Links, die unten im Text vorkommen, auf sämtlichen Seiten einer kleinen Website bei so einer Sache, die würden dann immer völlig wegfallen. Ich kann es mir nicht vorstellen, dass es so ist und ich entnehme jetzt mal deiner Andeutung, dass eine Möglichkeit oder Wahrscheinlichkeit besteht, dass Google da schon so schlau ist, in solchen Fällen da unter Umständen vielleicht auch ein bisschen zu differenzieren oder nach einer gewissen Zeit vielleicht zu differenzieren oder wie auch immer. Ja, das auf jeden Fall. Und es ist auch sehr schwierig solche Sachen so zu testen, wie sie, ich sage mal, natürlicherweise vorkommen, weil gerade bei kleinen Websites ist natürlich die Struktur so, dass man eine Navigation hat und alle 10 Seiten miteinander verlinkt oben, aber man hat trotzdem über die Links, die intern im Text sind, hat man ja eigentlich mehr Informationen über die Single-Seite auch noch daran. Und das sind Sachen, die versuchen wir schon da zusammenzunehmen. Ein Faktor ist zum Beispiel der sogenannte Boilerplate, den wir auf Seiten versuchen zu erkennen, wo wir erkennen können, dieser Teil der Seite bleibt eigentlich gleich oder bleibt mehrheitlich gleich auf einem großen Teil von der Website. Also müssen wir das ein bisschen anders betrachten. Wir müssen da schon ein bisschen unterscheiden, das ist jetzt der Hauptinhalt und das hier oben ist der Boilerplate, den können wir erkennen. Wir können die Links dann trotzdem folgen und dann ein bisschen mehr weitergeben, aber wir müssen das ein bisschen differenzierter anschauen, als nur quasi der erste Link, der im HTML ist. Und deswegen wird das anders gezählt. Okay, danke. Ja, im Chat sehe ich gerade noch ein paar andere Fragen. Bei mobilen Suchanfragen, zum Beispiel bei Schuhe, gibt es ein Suchesultat mit einem Produktbild. In der Meta-Description-Zuch-Ergebnisse werden mehr Produktbildern, welche Logik steckt dahinter, ist das ein Indiz vom Userverhalten oder auch sauberes HTML vom Dokumenten, sauberen Struktur. Auf mobilen Geräten müsste ich das separat mal anschauen. Ich denke, gerade bezüglich sauberes HTML oder nicht, ist es ein bisschen schwierig, weil einerseits hilft und schon sauberes HTML die Seite sauber zu erkennen, andererseits arbeiten unsere Systeme eigentlich mit der Annahme auf, dass die meisten Websites nicht sauberes HTML haben. Wir müssen damit umgehen können, dass Websites mit allen möglichen Arten und Weisen etwas erstellen, was im Browser sichtbar ist, was wir für die Indexierung auch verwenden können, aber was vielleicht nicht ganz so sauberes HTML ist. Von dem her bin ich immer dafür, wenn man sagt, gut, wir möchten jetzt sauberes HTML haben, aber ob das wirklich die höchste Priorität auf einer Website ist, das hängt ein bisschen eher vom Fall zu Fall ab, ob man da wirklich sehr kompliziertes HTML hat, was kaum zu lesen ist, oder ob man einigermaßen brauchbares HTML hat, was einfach nicht den wauligen Dator von W3C hundertprozentig erfüllt. Eine Frage zu Keyword Stuffing, was ist mit Kategorie-Seiten bei an E-Commerce Shop, wenn hier auf einer Seite zum Beispiel 100 Schuhe dargestellt werden und die jeweiligen Produktnamen auf das Wort Darmenschuh enthält, welches auf die Produktdetail-Seite verlinkt, zählt das dann im Gesamtbild auch als Keyword Stuffing? Grundsätzlich schon. Grundsätzlich sehen wir da schon, wie es diese Keywords so häufig vorkommt. Die Frage in den meisten Fällen ist natürlich so, dass wenn wir diese Seiten anschauen, dann sind das einzelne Seiten innerhalb von einer größeren Website und dann können wir davon ausgehen, dass da vielleicht ist wirklich da konzentriert auf dieses Keyword und da ist wirklich konzentriert auf dieses Keyword. Wenn hingegen die ganze Website so übertrieben oder so häufig den Darmenschuh immer wieder erwähnt, dann ist es ein bisschen schwieriger für uns zu sagen, das ist noch im Rahmen vom natürlichen Gebrauch. Aber wenn das eben einzelne Kategorie in Zeiten sind, dann ist das viel unproblematischer. Danke für die Antwort, kurz noch eine Frage dazu vielleicht. Das heißt, bei kleineren Seiten ist es so weit auch in Ordnung, wenn halt eben, wie du gerade gesagt hast, dass es nicht auf alle Seiten bezogen ist. Das heißt, dass in dem Fall das Keyword-Darmenschuh nicht auf jeder Seite ist. Ja, ja. Okay. Dann hätte ich noch eine zweite kurze Frage, die ich kurz reinschmeißen durfte. Und zwar bei OnePager-Seiten. Was ist denn da so der Best Case, wie man den Inhalt strukturiert, also gerade was H1, H2, H3, etc. angeht? Headings sind sicher sehr hilfreich für uns, um da die verschiedenen Teile der Seite besser zu erkennen. Aber ich denke, da lohnt es sich wahrscheinlich auch mit Arby-Testing, das ein bisschen anzuschauen, wie man das gestaltet und ob man das wirklich als OnePage-Website so behalten möchte oder ob man das aufteilen möchte. Weil manche von diesen Seiten funktionieren sehr gut für Benutzer und für die Suche und manche sind dann einfach extrem lang. Und dann ist es schwierig für uns, jemanden auf diese Seite zu schicken, wenn, sag ich mal, ein Teil einfach relativ weit unten relevant ist für den Benutzer in der Suche. Dann ist es manchmal schwierig zu erkennen, wie relevant ist diese lange Seite für diesen kleinen Abschnitt, der auch auf dieser Seite ist. Okay, so prinzipiell sind dann OnePage eigentlich eher problematisch anzusehen, wenn man versucht, mehr verschiedenen Content auf einer Seite unterzubringen. Ja, ich denke, das ist eine gute Unterscheidung. Wenn man viele verschiedene Inhalte hat oder viele verschiedene Themen hat, dann ist es schwieriger für uns, so ein OnePage-Website wirklich sauber zu erkennen, wo sie relevant ist. Okay, dann eines doch ganz kurz dazu. Ich habe im Netz verschiedene experimentelle Techniken gelesen, wo Leute getestet haben, mit mehreren H1 zu arbeiten, um einfach auch den Inhalt unterschiedlich zu gliedern. Kannst du dazu was sagen, wie das interpretiert wird oder ob das nicht so gut ist von der Umsetzung? Das ist kein Problem für uns. Ich weiß, es gibt immer wieder so diese Diskussion, ob man mehrere H1 auf einer Seite haben darf, aber aus unserer Sicht ist das kein Problem. Das machen viele. Auch mit HTML5 ist es ja auch so, dass man mehrere H1 haben soll oder überhaupt zumindest in bestimmten Teilen der Seite und aus unserer Sicht ist das überhaupt kein Problem. Okay, top. Vielen Dank. Okay, dann schauen wir mal weiter bei den Fragen, die da eingereicht worden sind. Wie erreicht man das eine Testumgebung auf dem gleichen Server und dem gleichen Hauptverzeichnis, wie die existierende Website liegt und Google in keinster Weise registriert wird? Das ist etwas, ich glaube, das passiert jedem mal, dass da die Test-Website oder die Staging-Website auf einmal gekraut und indexiert wird. Am besten macht man das so, dass die Seiten wirklich nicht gekraut werden können, einfach technisch gesehen von Google. Das heißt, dass man vielleicht mit einer IP-Range arbeitet und die Seiten so blockiert und serverseitig mit Authentifikation arbeitet, also mit Benutzennamen und mit Passwort eingeben, um auf diese Seiten zu gehen. Viele SEO-Tools können mit diesen Systemen trotzdem arbeiten, oder eben auch vielleicht mit einem Cookie, und können dann trotzdem diese Seiten untersuchen und testen, bevor sie live geschaltet werden. Aber dadurch kann man verhindern, dass Google diese Seiten überhaupt sieht. Und ich würde eher mit solchen serverseitigen Methoden arbeiten, als zum Beispiel mit einem No-Index oder mit Robots Text. Weil was wir oft sehen, ist, dass die Robots Text-Datei von der Testumgebung auf einmal live geschaltet wird, oder der No-Index von der Testumgebung auf einmal live geschaltet wird. Und dann hat man die Probleme auch auf der richtigen Webseite. Im Gegenteil, wenn man wirklich mit serverseitigen Blockkarten arbeitet, dann sollte das eigentlich recht recht auffällig sein, wenn auf einmal das Passwort gebraucht wird, um die Webseite zu erreichen, zum Beispiel. Bei Fachbegriffen, die als Suchtbetrieb eher wenig im kommerziellen Webkampf um gute Google-Plätze stehen, erreicht man oft dennoch keine vorderen Plätze, da diese Wikipedia eingeht. Wikipedia ist toll, aber nicht, wenn es vor meiner Webseite in der Webseite gebraucht wird. Ich denke, das ist immer schwierig zu sagen, welches von diesen Seiten als erstes ranken soll. Wobei, ich habe neulich eine Studie gesehen, wo Wikipedia viel weniger häufig eigentlich an erster Stelle steht als auch schon. Von dem her ändert sich das vielleicht auch im Laufe der Zeit. Aber es ist nicht so, dass wir da irgendwie ein Wikipedia-Bronus eingebaut haben in der Suche, dass die Wikipedia-Seiten am erster Stelle nicht sind. Es ist halt normale Suchergebnisse. Manchmal sind da gute Inhalte, das ist halt schwierig, das sauber für uns zu erkennen. Ich finde Wikipedia auch dann toll, wenn sie vor mir ranken. So ist es nicht. Aber zu schön. Naja, aber nur ein bisschen. Es geht mir nicht nur darum, dass Wikipedia eine gute Webseite ist, die natürlich eingeführt ist, die bekannt ist, die natürlich automatisch viele Bonuspunkte hat, wo sie es auch irgendwo verdient hat. Mir geht es eigentlich weniger darum, nicht dass die vielleicht mal auf Platz 1 sind oder oft auf Platz 1, sondern in der ersten Suchergebnisse halt, das sind sie eben nicht nur auf Platz 1, sondern oft noch ein zweites oder zwei oder drei zusätzlich und haben dann auch zusätzlich gleichzeitig ein Feature-Slippid oder eine Rich-Card, dann sieht man da ein Bild und in den Organischer kommt so vieles zusammen, dass man sich dann denkt, Naja, was macht man sich da noch, die Mühe auf der erste Seite zu kommen, weil selbst wenn man auf der ersten Seite ist auf Platz 6 oder 7, ist es einfach so überwältigend, auch durch die optischen Eindrücke, dass es keinen Sinn mehr macht. Wenn du solche Suchen hast, die einigermaßen, sag ich mal, wahrscheinlich häufiger vorkommen, die so übertrieben Wikipedia-Lastik sind, wäre ich froh, wenn du es mir auch zuschicken könntest. Dann kann ich das mit dem Klima hier auch mal anschauen, weil das sind Sachen, daran arbeiten wir schon auch, dass wir da versuchen, das richtige Verhältnis zu finden und sicherzustellen, dass nicht nur eine Website dann einfach immer gezeigt wird, sondern dass wirklich auch eine Vielfalt an Maino und vorhanden sein kann in den Sucherwegen ist. Wo kann man dir das hinschicken? Am eintausend per Google Plus, das ist vielleicht eine Variante, oder ich tue mal kurz meine E-Mail-App, als ich hier rein, dann kannst du es mir ab da zuschicken. Okay. Wenn ich solche Seiten wieder mal sehe, das ist nur ein paar mal mehr oder weniger zufällig aufgefallen, eigentlich erst so richtig, als diese ganzen neuen Features dazukamen mit Feature, Snippet und Rich Cards, wo es hat auch optisch stand. Und weil natürlich auf den Wikipedia- Seiten auch immer jede Menge Bilder und so weiter sind, und das dann wahrscheinlich auch automatisiert einmal für ein gesamtes Wikipedia implementiert wird, kommt es wahrscheinlich auch oft vor und durch den Trust-Vorsprung, den Sie wahrscheinlich auch haben, wenn auch andere Seiten das irgendwie möglich machen mit solchen bildhaften Features wird wahrscheinlich im Zweifelsfall immer Wikipedia da im Zweifelsfall wahrscheinlich eher genommen werden. Da fiel es mir tatsächlich bei einigen eher so speziellen Begriffen, jetzt nicht private Krankenversicherungen, sondern schon andere Sachen. Da ist es mir tatsächlich ein paar Mal wirklich ganz deutlich aufgefallen, dass mir dachte, Mensch, was ist hier los? Bin ich auf Wikipedia? Ich dachte, ich suche eigentlich bei Google. Da ein Bild von Wikipedia und da und eine lange Erklärung dazu, so wie das 1, Wikipedia, Platz 3, Platz 7, irgendwelche uninteressanten Seiten, die aber auch nichts mehr bringen, dann eigentlich für den User. Ja, ich schaue mir die gerne an. Ich schaue mir gerne mit dem Team an, solche Sachen. Gut, alles klar. Super, und dann hast du noch eine Frage bezüglich Relaunch. Ich werde eine Website relaunchen und überlege, die Domain zu ändern, weil die Branding-Kunden und weil die bisherige Domain etwas lang ist, warum genau empfiehlt es sich, ein neues Domain in Search Console als Adress-Endung bekannt zu geben. 301 müsste man ja eh machen, geht die Übertragung der Signal auf den neue Domain dann etwas schneller oder zuverlässiger. Ja, das hilft uns auf jeden Fall zu erkennen, dass das wirklich ein Domain-Wechsel ist und nicht nur ein Weicheleiter von einzelnen URLs. Das heißt, wir versuchen aufgrund von verschiedenen Faktoren zu erkennen, ob das jetzt wirklich einfach 1 zu 1 alles übertragen ist auf einem neuen Domain. Und wenn das der Fall ist, dann können wir das viel schneller verarbeiten. Dann können wir eigentlich alles Signale, die wir haben, 1 zu 1 schon mal weitergeben. hingegen, wenn wir die Seiten 1 und Crown müssen und die Redirect erkennen müssen, dann braucht das Interregeln ein bisschen länger, bis wir das alles weiter übertragen haben. Die hilft uns dabei, das ein bisschen genauer zu erkennen, weil dann sehen wir wirklich, vom Webmaster ist nicht nur diese Redirect da, sondern wirklich auch ein Eintrag quasi ich möchte jetzt mein Domain wechseln und dann wissen wir, ah, das ist wahrscheinlich schon eher das und können das eher in die Richtung ein bisschen schneller machen. Grundsätzlich ist es so, dass wenn man jetzt ein Domain wechselt und wirklich alle URLs 1 Signs auf einen neuen Domain ist das auch etwas, was in den meisten Fällen unproblematisch ist, wenn Teil davon ein bisschen später kommt. Von dem her, wenn man diese Einstellung in Search Console nicht machen kann, aber die Redirect trotzdem hat, dann würde ich mir dann nicht zu groß den Kopf zerbrechen, das klappt in jedem Fall auch. Weil im schlimmsten Fall, was dann passiert ist, wir zeigen die Alteradresse in den Suchergebnissen. Jemand drückt darauf, wer weitergeleitet auf die neue Seite ist ja eigentlich alles dann beim Gleichen. Dann die Frage zur Disavow-Liste ob man das belassen soll oder ob man auch etwas machen soll. Grundsätzlich würde ich alle Einstellungen, die man bei dem alten Domain gemacht hat, auch beim neuen Domain vornehen. Das heißt, auch die Disavow-Datei würde ich kopieren und beim neuen Domain wieder neu einreichen. Wenn du dir die Datei nicht mehr hast, kannst du die von Search Console auch wieder herunterladen und dann einfach beim neuen Domain wieder aufladen. Okay, ich hätte noch eine Frage zu dem Relaunch. Und zwar, wenn es jetzt auch eine eher kleinere Website ist und mit einer, sag ich mal, überschaubaren Anzahl von Backlinks, also nicht Tausende von hunderten Domains, sondern eher ein paar Dutzend Domains oder irgendwie so in die Richtung. Und sagen wir mal, ich könnte einen relativ großen Anteil dieser Backlinks es gibt zwar diese 301 Umleitung, die den Job ja eigentlich schon macht, aber ich könnte tatsächlich einen relativ großen Teil dieser Backlinks auch dann die URL manuell anpassen oder anpassen lassen. Würdest du das empfehlen, dann in einem kurzen Zeitraum direkt nach der Umstellung, das tatsächlich in einem Schwung einen praktisch den allergrößten Teil der Backlinks alle auf einmal tatsächlich manuell zu ändern, weil für den Algorithmus ist es ja schon zumindest formal. Ist es so, wenn der dann feststellt, okay, alle Links oder nicht alle, aber ein großer Teil sind auf einen Schlag weg und gleichzeitig sind neue, in Anführungszeichen neu entstanden. Also ich frage mich, ob das so gut ist oder ob man nicht vielleicht ein paar Monate wartet und das vielleicht eher stückweise macht oder so. Ich würde die schon übertragen. Also für uns hilft es auf jeden Fall, wenn der Link direkt ist, weil das betrifft ja dann auch die Canonicalisierung. Das heißt, wenn wir wissen, dass diese URLs gleich... eben wenn wir sehen, dass die Links extern auch auf die neue URL gehen, dann können wir das so übertragen und dann geht das ein bisschen schneller für uns. Bezüglich dem quasi die Links verschwinden und kommen dann wieder neu, da würde ich mir jetzt nicht den Kopf zerbrechen. Das ist eigentlich normal, wenn eine Webseite einen größeren Branding oder einen Domainwechsel macht, dass da einige von der Webseite sie auf die alte Version gelinkt haben, dann auf die neue Version linken. Das ist eigentlich vollkommen natürlich. Okay, dann machen wir das so. Wir arbeiten in unserem Shop mit Shopware und Einkaufswelten. Ich sehe in der Seitsuche, dass alle Seiten indexiert sind und den Search Console bei Rendering, dass die Seite auch so korrekt aussieht. Leider unter Abrufen sind da keine Inhalte, um die Inhalte direkt zu finden. Liegt es daran, dass die Einkaufswelten über Ajax nachgeladen werden und sagen, ja, was kann ich tun, um das Problem zu lesen? Muss dafür gesorgt werden, dass die Einkaufswelten ohne Ajax direkt geladen werden. Vielleicht vorausgesetzt, ich kenne dieses System nicht. Ich weiß nicht genau, wie sie funktionieren oder da eingerichtet sind. Von dem her kann ich zu Shopware oder Einkaufswelten wie das da jetzt eingerichtet ist, kann ich nicht wahnsinnig viel konkret sagen. Grundsätzlich ist es aber so, dass wenn mit Rendering wie Google in Search Console und den Mobile Friendly Test die Inhalte kommen, dann bedeutet das, dass wir diese Inhalte indexieren können. Dann passt das eigentlich auch zu den Ergebnissen der Seitabfrage, dass die Inhalte indexiert werden und das ist eigentlich schon mal das Wichtigste. Dann sind auf jeden Fall diese Inhalte aufwendbar. Wir können die Zeigen in den Suchergebnissen und das ist eigentlich in den meisten schon mal das Wichtigste. Bei Abrufen wie Google ist es so, dass da die HTML-Seite abgerufen wird bevor das Ganze gerendert wird und wenn da die Inhalte nicht vorhanden sind, dann heißt es einfach, dass per JavaScript wahrscheinlich diese Inhalte erstellt werden. Und das passt ja dann auch zum Rendering, dass beim Rendering nicht vorhanden sind. Großartig ist das nicht problematisch, wenn die Inhalte bei Abrufen nicht vorhanden sind, solange sie beim Rendering trotzdem vorhanden sind. Was hingegen ein bisschen vielleicht etwas ist, worauf man achten kann oder was ein Bewusstsein sollte ist, dass wenn eine Website von JavaScript rendering abhängig ist, ist es so, dass dieses Rendering wird nach dem Indexierer gemacht. Das heißt, erst lesen wir die HTML-Datei ein und indexieren die HTML-Seite so wie sie ist, mit dem statischen HTML. In diesem Fall, vielleicht ohne den Wichtigsten Inhalten drauf und einem zweiten Schritt, einige Tage oder vielleicht ein Woche oder sogar zwei Wochen später, machen wir das Rendering und holen die richtigen Inhalte hinein. Das heißt, einfach vom Praktischen her Seiten, die sich nicht verändern. Da hat man diesen Zeitverschiebung zwar auch, aber das stört eigentlich nicht groß. Hingegen, wenn man Produkte hat, die schnell kommen und die schnell wieder gehen, die man möglichst schnell in den Suchergebnissen haben möchten, weil sie Fades and Trendy sind, weil man sie gerade irgendwie auf Lager hatten, man sie möglichst schnell verkaufen möchte, dann kann es natürlich sein, dass man die Produkte dann im Shop aufnimmt, aber dass es dann eine Woche oder zwei geht, bis sie bei Google sichtbar sind, dann sprechen auch auffindbar sind. Und wenn das für euch ein Problem ist, dann würde ich da überlegen, was man machen könnte, um die Inhalte möglichst auch in der staatlichen HTML Version irgendwie einzubinden. Manche Systeme haben da Möglichkeiten wie Pre-Rendering oder wie man das Dynamic Rendering, dass man für Suchergebnissen, für Suchmaschinen halten quasi vor Rendering, das heißt, das ganze JavaScript schon mal vorher ausführt und in HTML dann die eigentlichen Inhalte einbaut. Was man vielleicht auch machen kann, ist eine Kombination, dass man sagt, ich nehme zum Beispiel die Titel und vielleicht eine kurze Beschreibung von diesen Produkten in staatlichen HTML dazu und lasse dann per JavaScript die ganzen Details noch einbinden. Und dann hat man wenigstens die Möglichkeit, dass die Produkte irgendwie aufhindbar sind aufgrund vom staatlichen HTML und dann nach der Zeit, die da gebraucht wird für das Rendering kommen dann die ganzen Details noch dazu. Das sind eigentlich so die zwei Möglichkeiten da und eben wie gesagt, wenn die Inhalte von der Webseite sich nicht so wahnsinnig schnell verändern, dann kann man da vielleicht auch einfach mit dem leben, wie es jetzt ist, dass es da bei neuen Produkten vielleicht eine Woche oder so geht, bis die Inhalte wirklich auch vorhanden sind im Index. Ich hätte eine Frage dazu. Kann es passieren, dass auch das Rendering erst nach einem Jahr stattfindet, weil ich sehe manchmal in Server-Logs, dass ein JavaScript gekreut wird von einem Produkt, also als Referrer nach einem Jahr, weil wir versionieren unsere JavaScript-Dateien mit Datum. Erst nach einem Jahr kann ich mir nicht vorstellen, dass wir es neu renderen, nach einem Jahr kann das sein. Also sollte auf jeden Fall schon mal gerendert sein, aber dass unsere Systeme dann mal durchgehen und im Cache schauen, wie die Seiten jetzt inzwischen gerendert werden können, das würde eigentlich ein bisschen zusammen passen. Okay, danke. Werden No-Index-Follow-Dokumente eventuell als Software-Au-Fore gesehen und vererben Sie damit noch keinen Trust mehr an die verlinkten Dokumente. Ja, unter Umständen erkennen wir No-Index-Dokumente jetzt schon als Software-Au-Fore, weil das ist ja eigentlich eine Art, zu sagen, diese Seiten existieren eigentlich nicht und müssen nicht werden und dann kann es durchaus sein, dass unsere Systeme, die als Software-Au-Fore einstufen und das entsprechend auch in Search Console als Software-Au-Fore da zeigen. Und wenn das passiert, dann werden die Links, die auf diesen Seiten sind, auch nicht mehr quasi weiter gefollowt, weil wir sehen das an aus einer Seite, die nicht indexiert werden sollte. Also müssen wir die Inhalte von diesen Seiten auch nicht groß verarbeiten. Dann eine Frage zum Mobile Test. Ganz kurze Frage dazu nochmal. Beispielsweise, wir nehmen irgendeine Kategorie und sagen Schuhe Rot, Schuhe Blau, Schuhe Grün. Jetzt sind da ja diverse Produkte verlinkt und genau hier wurde ja wahrscheinlich ein No-Index-Jahr sinnvoll sein, weil die alle so Themenrelevant sind, dass wir da nicht irgendwie ein DC-Problem haben. Dafür wurde es ja aktuell oder wird es aktuell ja oft verwendet. Wenn ihr jetzt aber natürlich sagt, es ist eine Art Soft 404, dann fallen ja alle verlinkten Produkte mehr oder minder irgendwo hinten weg, die dann eventuell von der Hauptkategorie Seite erst auf Paging-Seite 17, 18 verlinkt sind. Das kann ja auch nicht Sinn und Ziel sein, weil denn jede Menge verweiste Dokumente ja irgendwo entstehen. Das kann passieren. Es passiert nicht immer. Von dem her ist eigentlich schon längere Zeit so, dass wenn ein Dokument auf No-Index ist, dass es dann eher als Soft 404 erkannt werden kann. Was da vielleicht ein bisschen neu ist, dass wir das einfach in Search Console ein bisschen sichtbarer zeigen. Gerade mit dem neuen Indexierungstart, das sieht man ja sehr schnell, was als Soft 404 erkannt wird. Und da sieht man zum Teil solche Sachen würde man in vielen Fällen, würden wir das trotzdem so handhaben, wie ihr das wahrscheinlich meint, dass wir sagen, gut, da ist zwar ein No-Index hier, aber diese Inhalte verändern sich regelmäßig, also müssen wir diesen links zumindest regelmäßig nachgehen und können das nicht gleichsetzen, wie eine leere Seite, die einfach ein No-Index hat. Man sieht das schon eher in Search Console auch, ob jetzt alle kategorienseiten auf Soft 404 gesetzt werden oder ob das Seiten sind, die wirklich irrelevant sind. Was wir auch als Soft 404 oft ansehen, sind sogenannte leere Suchergebnisseiten. Das heißt, wenn ihr eine Kategorie oder eben ein Tag verlinkt habt innerhalb der Webseite und man klickt drauf und kommt, wir haben jetzt keine, ich weiß nicht, durchsichtiger Laufschuhe für Damen oder was auch immer, dann erkennen unsere Systeme das auch und sehen, eigentlich ist das eine leere Suchergebnisseite und die könnten wir als Soft 404 haben. Aber ich würde mal die Liste einfach anschauen bei euch, die da gezeigt wird in Search Console und das sieht man, sollte man eigentlich relativ schnell mal sehen, ob das jetzt problematisch für euch ist oder nicht. Ich vermute in den meisten Fällen ist das total unproblematisch, ist quasi diese Unterscheidung zwischen No-Index und Soft 404 R, dass unsere Systeme das richtig einschätzen. Aktuell gibt es keine Problemate, ich habe das bis heute über Facebook so ein Studio-Shed heute mitbekommen, dass es gerade hart diskutiert wird und bis das alles bei den Kunden immer geändert wird, können das ja manchmal Wochen, Monate dauern, deswegen eher Kurs in Frage gewesen, ob da einfach nur wir eine Kuh durch den Wald gejagt wird oder ob sich da wirklich nichts ändern soll, um zukünftig schon darauf operieren kann. Nein, das ist eigentlich schon so seit seit Jahren. Mal kurz schauen, zweite Erfangen haben wir wahrscheinlich noch Zeit. Bei Mobile Friendly Test kriege ich Page Partially Loaded also einige Inhalte konnten da nicht geladen werden, die blockiert sind bei Robots Text und das sind irgendwie von DoubleClick und irgendwelche Werbelsachen sind diese Fehler wichtig. In diesem Fall sind die Fehler wahrscheinlich nicht wichtig, weil das wahrscheinlich keine Inhalte sind, die für euch wichtig sind. Problematisch wäre, wenn zum Beispiel Skrips blockiert werden, die effektiven Inhalte bei euch in Seite einbinden, wenn ihr zum Beispiel ein Skript habt, um Comments einzulesen auf einer Seite und ihr möchtet, dass diese Comments indexiert werden, wenn diese Skrips blockiert sind bei Robots Text, dann können wir diese Comments gar nicht einlesen. Ingegen, wenn das Werbeblocker sind, wenn das Analytics Tracking Code sind all solche Sachen, dann ist eigentlich egal, ob die indexiert werden können oder nicht. Wir haben oft das Problem, dass wir URL Wechsel für ein Keyword haben, obwohl die Inhalte der Seite, die ausgetauscht werden, sehr unterschiedlich sind. Teilweise bleibt die Positionierung gleich. Da müssen wir wahrscheinlich die genauen Seiten ein bisschen anschauen. Wenn wir eine Seite mit Canonical auch die andere versehen, obwohl der Inhalt komplett unterschiedlich ist, werden die Inhalte dann für Google quasi gleich bewertet. Mit dem Canonical, wenn ihr Seiten zusammen klappt mit dem Canonical und wir dem folgen, dann ist es so, dass wir nur die Inhalte vom Canonical nehmen. Dann ist es nicht so, dass wir die anderen URLs noch dazunehmen, die nicht aus Canonical angesehen werden. Das heißt, jetzt in unserem Schulladen, wenn ich sage, die blaue Schuhe sind Canonical mit dem roten Schuhen, wir indexieren die roten Schuhe, dann wissen wir nichts mehr von diesem blauen Schuhe. Dann nehmen wir nur die Inhalte von der einen roten Schulseite, die wir da haben. Bei der Canonicalisierung, wenn wir erkennen können, dass die Seiten wirklich sehr unterschiedlich sind, dann behandeln wir sie auch als unterschiedliche Seiten, dann nehmen wir nicht an, nur weil Canonical da ist, dass wir die Seiten zusammen klappen können. Das heißt, wenn wirklich sehr unterschiedliche Seiten mit dem Canonical zusammengeführt werden, kann es sein, dass wir dem folgen, es kann auch sein, dass wir sagen, das sind eher zwei unterschiedliche Seiten und behandeln die auch wie unterschiedliche Seiten. Wenn man da sicher gehen will, dass man die im Index haben will, sollte man lieber kein Canonical setzen. Genau. Dann nochmal zu der Frage davor, mit diesem Testsystem, ich kriege die gleichen Fehlermeldung. Auch wenn ich Geschwindigkeitstests mache, Google Speedtest und dann sage ich mal auf meinem Handy ist die Seite, auch wenn ich cache alles leer in einer Sekunde da sage zwar irgendwie noch grün, aber dann denke ich immer, wenn ich die Fehler sehe, vielleicht liegt es ja, dass er seine eigenen Skripte nicht lesen kann und das zu lange dauert, bis er da eine Antwort kriegt und deswegen ist halt so, ich weiß immer nicht, wenn man diese Tools zwar benutzt, inwiefern man überhaupt sich die Zeit zu sagen, irgendwas nochmal zu ändern. Ja, ich meine, man muss sich natürlich immer überlegen, sind das Sachen, die ich verändern kann oder sind das Sachen, die außerhalb meiner Kontrolle sind und dann manchmal muss man halt sagen, gut, ich kann nichts dafür, ich kann das nicht verändern, also muss ich mit dem Leben wieder so Ja, aber ob das ist ein sportlicher Anspruch, weil wenn da steht Ladezeit 5 Sekunden, dann sage ich, das sind keine 5 Sekunden, irgendwie musst du doch mal raffen, dass das nur 3 sind oder 2 und trotzdem kriegt man da Werte, wo die, wo man sagt, ja also eigentlich müsste ich ja denn noch was tun und wahrscheinlich ja da dann doch nicht zu stimmen, weil ich sitze ja nicht auf dem Server, der Test ist, sondern ich bin ja woanders beheimatet im Netz. Ja, das ist auch ein bisschen schwierig, gerade mit Skrips, die häufig irgendwo verwendet werden, singt sie wahrscheinlich bei dir irgendwo im Cash gespeichert, hingegen die ganzen statischen Tests, die gemacht werden, die gehen immer davon aus, dass diese Skrips nicht gecashed werden. Ach so viel fremden Leuten, die Handys und sage ich, lass mich mal kurz testen, wie schnell die Seite da ist und dann ist das genauso schnell, also gut. Ja, ja, das schon, aber gerade die Skrips zum Beispiel von Analytics oder von AdSense, die sind auf so viel Websites vorhanden, was sie da eigentlich in vielen Fällen schon gecashed sind. Okay, ich muss glaube ich weiter. Vielen Dank fürs kommen, vielen Dank für die vielen Fragen und Kommentare, war wieder sehr interessant. Ich schaue mir das Ganze mit den Bildern nochmal ein bisschen genauer an, was da kommt, wenn ihr mir Screenshots zu schicken könnt würde mich freuen, wenn wir uns irgendwann später mal wiedersehen. Tschüss allerseits. Tschüss. Tschüss.