 Okay. Herzlich willkommen beim heutigen Webmaster Central Sprechstunden Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Trans Analyst hier bei Google in der Schweiz. Teil von dem, was wir machen, sind diese Webmaster Sprechstunden Hangouts, wo Webmaster und Publisher kommen können und uns ihre Fragen stellen können und Kommentare allgemein zur Websuche uns auch weitergeben können. Wie immer, wenn einer von euch möchte, könnt ihr gerne schon mal loslegen, dann fahren wir mit eurem Fragen schon mal an. Dann würde ich sehr gerne die erste Frage stellen. Hi, John, hier ist Alex. Und zwar geht es darum, dass wir immer wieder verschiedene Systeme haben, wo es schwer ist, auf der gesamten Webseite die URL zu ändern. Also wenn wir zum Beispiel vom CMS selber die Standardmethode haben, die zum Beispiel Kategorie-Links erzeugt, wir aber passendere oder bessere Zielseiten haben, ist es oft so, dass im Endeffekt halt im Code quasi immer auf diese Kategorie-Seite verlinkt wird und die aber quasi ständig per 301-Zweiz hergeleitet wird. Also sozusagen einen permanenten 301. Wie wird es bewertet? Ist es dauerhaft schlecht oder ist es eigentlich unrelevant? Das sollte eigentlich nicht so tragisch sein. Also wir folgen diesen redirect einfach und versuchen die Seiten dann so zu indexieren. Zum Crawling her müssen wir dann einfach beide Varianten durchcrawlen, aber wenn das ein einzelner redirect ist, dann machen wir das in der Regel gleich beim ersten Versuch schon. Problematischer ist, wenn es zum Beispiel eine verkettete redirect, also ein redirect-Kette ist, wo ich glaube, mehr als fünf hintereinander stehen, dann machen wir das erste in einem zweiten Schritt wieder. Aber so viel redirects hat man ja normalerweise nicht zwischen diesen verlinkten Seiten und dem redirect-Ziel. Okay, perfekt. Vielen Dank. Okay, weitere Fragen bevor wir loslegen mit den eingereichten Fragen. Ja, ein anderer Alex hier. Ich habe eine Frage zu Wetmaster Tools. Und zwar in dem Leistungsbericht oder in der Abdeckung angenommen. Ich habe jetzt eine domain, sagen wir mal, deine domain.com und dann slash country. Und ich habe einmal die root domain als property hinterlegt, als auch dann die country-specific subfolder. Sehe ich dann quasi in dem Leistungsbericht von der root domain automatisch auch die Leistung von dem subfolder oder ist das dann automatisch explodiert? Weil ich quasi zwei properties für eine domain habe. Das ist trotzdem dabei. Okay. Und wenn es jetzt zu amp-Seiten kommt, normalerweise haben die ja immer eine subdomain von ampproject.org. Jetzt habe ich aber gesehen, bei dem Google Block wiederum habe ich einfach nach hinten eine amp slash subfolder angehangen, um dann quasi von dem normalen Modus in den amp-Modus zu wechseln. Wie kann ich denn quasi die Struktur dessen selber auswählen? Das kann man machen, wie man will. Das heißt, wenn man jetzt eine getrennte amp-Version hat, kann man das entweder auf der gleichen Website haben, also direkt da drinnen, was unter Verzeichnis oder mit ein Parameter, wenn man will. Man kann auch einfach allgemein andere URLs verwenden. Oder man nimmt ein subdomain. Aber schlussendlich ist das ein für sich, ja, etwas, was ihr entscheiden könnt. Meistens entscheidet man da eher aufgrund von der Infrastruktur, die man hat, wie man diese amp-Seiten erstellt. Manchmal kann man das direkt im gleichen Hostname quasi machen. Manchmal nimmt man separat das subdomain dafür, einfach weil die irgendwie anders erstellt werden, anders gelagert werden, damit man das trotzdem noch so machen kann. Okay, vielen Dank. Okay, dann gehen wir mal kurz die Fragen durch, die eingereicht worden sind. Wie immer, wenn ihr Kommentare oder weitere Fragen dazu habt, einfach nur loslegen dazwischen. Ich habe bei meinem privaten Blog aus Interesse die Funktion abrufen und renderen für einen langen Artikel angewendet. Und ich sehe da quasi nur einen oberen Teil von dieser render-Seite. Das ist an und für sich normal. Die Tools haben eine Begrenzung, ich weiß nicht, wie das jetzt genau begrenzt ist, ich glaube aufgrund von der Pixel-Höhe, einfach mit denen, was wir dort im Tool zeigen, damit man da einigermaßen etwas Überschaubares hat. Das heißt, die Begrenzung für die Indexierung ist an und für sich ein bisschen anders, in denen das wir schon mehr darstellen können. Aber mit diesem Tools ist einfach aus Überschaulichkeitsgründen, aus Geschwindigkeitsgründen, das da leicht begrenzt. Was man machen kann zum Testen, ist einfach ein Teil vom Text nehmen, der unterhalb dieser Grenze ist und danach suchen. Und dann sieht man sehr schnell, ob das indexiert wird oder nicht indexiert wird. Kann Google Affiliate Links von normalen Links auseinanderhalten? In vielen Fällen können wir das machen. In den meisten Fällen ist es aber nicht so, dass wir da wirklich etwas Spezielles machen müssen. Es ist nicht so, dass wir dahin gehen müssen und sagen, das sind Affiliate Links, wir müssen diese Website irgendwie anders einstufen. Sondern wir versuchen, die Website so einzustufen, wie ihre Inhalte sind. Und wenn da Links zu anderen Websites dabei sind, wenn da Links zu einer Möglichkeit ist, diese Produkte zu kaufen, die da beschrieben werden, ist das an und für sich total okay aus unserer Sicht. Das Einzige, was bei Affiliate Links für uns wichtig ist, ist, dass es klar ist, dass das Links sind, die kein Patreon weitergeben sollten. Das heißt, dass man mit dem No-Follow arbeitet bei Affiliate Links. Das hilft uns dann ein bisschen bezüglich den ganzen Patreon-Sachen. Aber ansonsten ist es nicht so, dass wir da irgendwie die Affiliate Links ausfindig machen und dann die Website irgendwie anders betrachten. Das heißt, ihr müsst auch diese Affiliate Links nicht irgendwie verstecken, irgendwie hinter Robots Text oder irgendwelche wilden JavaScript und Redirects verstecken. Sondern ihr könnt die ganz normalen Seiten einbauen. Normalerweise, wenn man die versucht, irgendwie besonders zu verstecken, dann hat man eher einfach die Gefahr, dass man da mehr Komplexität einbaut in diese Seiten, Komplexität, die irgendwie auch schiefgehen kann. Das heißt, ich würde zumindest aus meiner Sicht so machen, dass das einfach ganz normale No-Follow Links sind. Seiten mit Gesundheitsthemen werden von Google ja meistens sehr vorsichtig behandelt. Was ist aber, wenn man nur einen bestimmten Teil der Website mit Gesundheit beschäftigt und der Rest mit harmlosen Themen muss dann die gesamte Website mehr Trust gegenüber Google aufbauen oder nur die spezifischen Unterseite. Ich denke, aus unserer Sicht bezüglich dem Algorithmus versuchen wir das so zu machen, wie das ein normaler Benutzer anschauen würde. Und als normaler Benutzer würde ich das vielleicht ein bisschen wie soll ich sagen, ein bisschen über überdacht angehen. In dem Sinne, dass wenn ich zum Beispiel eine Website habe, die Sneakers verkauft und nebenbei habe ich ein Bereich, wo über Medizin für Darmkrebs irgendwas geschrieben wird, dann ist so eine Art von Mischung wirkt natürlich ein bisschen komisch. Man weiß ja nicht genau, was ist jetzt wirklich die Spezialität von dieser Website, wie stark kann ich mich darauf verlassen, dass diese Gesundheitsthemen wirklich auch sauber behandelt werden. Das ist weniger dann eine SEO-Frage, sondern wirklich eher eine Frage von wie positioniere ich meine Inhalte und wie mache ich klar, dass diese Inhalte wirklich auch relevant sind für Benutzung, dass sie denen auch trauen können. Und da würde ich das eher in diese Richtung dann betrachten und so entsprechend angehen. Ich hatte mal im letzten Mal eine Frage bezüglich der Ajax Cross Promotion und der Blockierung gestellt. Und da die Frage rendered Google wirklich jede Einzelseite früher oder später. Ich würde sagen, wir können nicht garantieren, dass jede Seite ge rendered wird, aber das ist an für sich schon das Ziel, dass wir möglichst alle Seiten renderen, dass wir die Inhalte wirklich so sehen, wie sie ein Browser sehen würden. Das hängt natürlich zum Teil auch einfach von technischen Möglichkeiten ab. Manchmal können wir diese Seiten nicht sauber renderen, weil einzelne Inhalte noch nicht zur Verfügung stehen, weil vielleicht Server-Resourcen auf unserer Seite oder auf eurer Seite nicht vollständig ausreichen, aber das Ziel ist schon, dass wir jede Seite per Rendering anschauen. Und dann die zweite Frage rendered Google mehr, wenn die Qualität oder der Trust steigen. Normalerweise ist es nicht direkt eine Frage von der Qualität oder vom Trust, sondern eher eine Frage davon, wie wichtig es ist für diese Seite, dass das Rendering gemacht wird. Und das versuchen wir da ein bisschen mit hineinzuziehen. Das heißt, wenn wir sehen, dass über Rendering wirklich relevante Anteile der Seite noch dazukommen, dann merken wir ja, dass das eigentlich sehr wichtig ist für diese Seite. Und dann versuchen wir das ein bisschen häufiger zu machen. Grundsätzlich ist es aber so, dass die Häufigkeit vom Crawling oder vom Rendering kein Indikator ist, oder dass die Seite gut oder schlechten Suchergebnissen stehen würde. Das heißt, wenn Seiten häufiger gerendert werden, ist das nicht umgekehrt ein Zeichen, dass die Qualität dieser Seite höher angestuft wird oder dass mehr Vertrauen in dieser Website vorhanden ist, sondern dass es in der Regel schon eher einfach ein technischen Mittel, das wir verwenden, um die Inhalte zu wechseln. Ich habe eine Frage zur Vervollständigung von Google. In der Kino wird vorgeschlagen, Tischflacke, Afghanistan nicht. Christian, du bist glaube ich hier. Kannst du erläutern, wie du meinst, mit vorgeschlagen? Die Autovervollstellung oben bei Google. Vorhinein und dann wird es vorgeschlagen. Beim beim Suchen quasi. Okay. Grundsätzlich ist es so, dass soweit ich weiß, in erster Linie auf dem aufbauen, was Benutzer effektiv gesucht haben. Das heißt, es ist nicht ein Zeichen, dass du solche Inhalte machen musst oder dass wir quasi aufgrund von deinen Inhalten diese Vervollständigung quasi ausbauen können, sondern wir haben einfach gesehen, Besucher haben das so gesucht und da können wir mit dem an für sich arbeiten, das so zahlen. In dem Sinne, dass du dann so siehst, suchen mehr nach diesen Themen, vielleicht müsste ich mehr dazu schreiben. Aber grundsätzlich ist es nicht so, dass die Inhalte auf deiner Webseite zu dieser Vervollständigung führen. Da ist noch eine Frage mit einem Bild. Bei der Abfrage auf google.de Finlandflacke kaufen, hrefleng ist richtig eingerichtet. Und dann kommen die Preise in Schweizer Franken. Was kann man da machen? An für sich ist das ein Zeichen, dass wir denken, dass diese beiden Versionen gleich sind, dass wir sie zusammenklappen können und dann indexieren wir eine Version und tauschen einfach die URLs aus per hrefleng. Und dann kann das so kommen wie da. Wichtig ist einfach, wenn du so etwas siehst und du denkst, du möchtest lieber, die Seiten einzeln bekraftet werden. Dass man wirklich auch dafür sorgt, dass die Seiten genügend unterschiedlich sind. Ich habe, glaube ich, von deiner Webseite auch im deutschen Forum ein Dread gesehen und ich glaube es auch über das gleiche Problem. Das habe ich an für sich an das Team weitergegeben, damit sie das genauer anschauen können. Ob man da auf unserer Seite das ein bisschen differenzierte anschauen müsste, gerade bei diesen beiden Seiten, weil gerade solche Sachen wie Preise, wenn sie in strukturierten Daten dabei sind, die sind natürlich auch relevant und die müssten eigentlich da schon auch berücksichtigen, um zu erkennen, dass das wirklich unterschiedliche Seiten sind. Ja, also es klappt jetzt auch wieder. Weiß ich nicht, warum. Einzige Sache, die ich jetzt eigentlich geändert habe, vor circa, 4, 5 Tagen oder so, also wir werden sowieso oft gekreut auch, ist, dass im href-Lank anstatt de, also nur die deutsche Sprache Auszeichnung für die DE-Domain habe ich jetzt noch ein Zugefügt de minus de, also für deutsche Sprache und die Region Deutschland und zusätzlich auch nochmal die deutsche Sprache. Also ich habe 2-mal auf flangenplatz.de praktisch ein Tag gesetzt. Weiß nicht, ob es da rein jetzt liegt, dass er irgendwelche Auswirkungen hat, weil du hast einmal auch gesagt, dass es kein Eintrag gibt, dann schaltet er auf die nächste Hürre eben und das wäre ja eigentlich die deutsche Sprache. Ja, das hätte eigentlich auch mit den alten Einstellungen funktionieren sollen. Wie du sagst, wenn wir keine länderspezifische Version haben, aber wir wissen, dass es eine allgemeine deutsche Version gibt, dann sollten wir eigentlich die allgemeine deutsche Version auch nicht. Also lag das Problem eigentlich doch eher auf der Google-Seite. Also, ihr habt irgendwas gemacht, oder? Ich weiß nicht, ob da schon etwas gemacht worden ist. Ich weiß einfach, dass das weitergegeben wurde an das Team. Vielleicht haben sie das jetzt mal angeschaut und das entsprechend behoben oder vielleicht ist es einfach allgemein algorithmisch, hat sich das jetzt ergeben, dass wir das neu bewertet haben und gesehen haben, dass wir diese Seiten wirklich separat betrachten sollten. Was du wahrscheinlich machen kannst, ist mit dem Inspection-Tool, dass man die URL dort eingibt und dass man da schaut, ob der Canonical entsprechend auf die Lenderversion auch wirklich geht. Nicht, dass es jetzt einfach umgeklappt ist und jetzt in der Schweiz werden dann die Europreise gezeigt. Okay. Und noch eine Frage zu der vorherigen, die Affiliate links. Also wenn ich jetzt die Online-Shops verlinke von DE nach CH, also wenn ein Kunde zum Beispiel wechseln möchte, dann musst du da nur Follow setzen oder erkennt ihr das soweit, dass das alles zusammengehängt, dann durch den Edge Track Link? Wenn das deine Seiten sind, dann musst du da keinen Follow setzen. Okay. Dann ist es ja nicht eine Affiliate Situation, sondern es ist wirklich von eines deiner Websites zu einer anderen deiner Websites und das ist eigentlich total normal. Okay, danke. Okay, dann eine Frage bezüglich von Ranking her. Früher waren da wohl mit Keyword Dichte ein bisschen übertrieben und jetzt ist das ein bisschen verbessert. Jetzt die Frage bevor man da auf responsive umsteigt, ist der Text aus Sicht von Google jetzt vertrauenswürdig oder nicht? Ich denke, das lässt sich nicht so einfach so oder so sagen. Was mir einfach aufgefallen ist, ist bei dieser Website wird es sehr schnell nach, ich weiß nicht, eine Art Made for Ads Website, wenn man auch sieht, dass da verschiedene andere Websites die ähnliche Themen haben, mit was den gleichen Layout aufgebaut sind, dann wird das ein bisschen so, dass man da verschiedene Websites rausbringt und die einfach auf einzelnen Keywords abzielt und das könnte ich mir schon vorstellen, dass unsere Algorithmen das anschauen, denken, ja, das sieht ein bisschen ein bisschen stark gezwungen aus, dass man da wirklich quasi Keyword spezifische Websites aufstellt und was ich da einfach vorschlagen würde, dass man da wirklich versucht, weniger Websites zu machen und dafür stärker und besser Websites zu machen. Ich denke, die Website oder andere Websites von dir haben wir früher auch schon mal angeschaut und vielleicht bist du schon auf dem Weg da in diese Richtung und das würde ich dann eher empfehlen, dass man so in die Richtung ein bisschen weiter geht, dass man einerseits schaut, dass die Starkseite und die anderen Seiten in der Website natürlich gut sind, vom Inhalt her. Ich würde da nicht so sehr die Keywords zählen, sondern wirklich einfach schauen, dass die Inhalte gut sind, dass man sie zum Beispiel laut vorlesen könnte, jemanden an Telefon, ohne dass man da allzu fest grinsen muss, weil das dann irgendwie übertrieben wäre. Und so würde ich da vielleicht einfach Schritt für Schritt mal überlegen, wie kann man diese Website zusammenklappen, dass man weniger Websites hat, dafür einfach viel stärkere Websites. Und wenn man das ein bisschen hinkriegt, dann könnte ich mir schon vorstellen, dass man da noch einigermaßen Erfolg haben kann mit der Website. Und da zweite Frage ist, siehst du noch weitere Probleme mit der Starkseite? Oder gibt es andere negative Signale, die das normaler Ranking verhindern? Da würde ich schon einfach in die Richtung gehen, dass man wirklich schaut, dass das wirklich eine starke Website wird, die nicht allzu fest unterteilt ist in andere separate Websites für einzelne Keyword-Varianten. Und wichtig ist natürlich auch für das Ranking, dass wir nicht nur die Starkseite anschauen, sondern wir schauen die ganze Website an. Und von dem her ist die Starkseite sicher ein wichtiger Punkt. Aber der Rest der Websites sollte eigentlich auch soweit okay sein. Okay. Ist der Google Cash einer Seite, der mir von Google angezeigt wird, immer auch der, der für die Seitenbewertung zugrunde verwendet wird? Nein. In erster Linie ist der Cash eher für den Benutzer dar, was wir zeigen können, was wir gesehen haben mit dieser HTML-Seite damals. Der Cash muss nicht unbedingt der Version entsprechend die wir für die Indexierung verwenden. Dementsprechend würde ich auch nicht den Cash nehmen als ein Diagnosemittel für die Indexierung. Manchmal ist es hilfreich, wenn man das anschauen kann und sehen kann, zumindest kennt Google, dass die Inhalte da sind. Aber es ist nicht ein Zeichen, dass wir das wirklich eins zu eins so indizieren. Das merkt man vor allem, wenn man eine JavaScript-basierte Website hat, dann wird natürlich die HTML-Seite indexiert im Cash. Aber an für sich für die Google-Suche verwenden wir die ausgewertete, die gerenderte Version, also nicht nur die HTML-Seite. Ich hatte mal links von verschiedenen Seiten Domains die eine Manual-Penalty bekommen haben, die Seiten wurden danach umgehen gelöscht. Das ist schon über ein Jahr her. Kann es sein, dass die dort verlinkten Seiten noch immer darunter leiden? Johannes, erlaubst du mir kurz zu stören, weil ich leider nicht mehr viel Zeit habe und kann ich eine Zwischenfrage stellen? Du hast vor zwei Hangouts schon auf die Frage eingegangen, aber ich war leider nicht da. Es geht um die Frage, ob bei Canonical vererbt wird, wenn ein Redirect vorhanden ist. Also, weil ich habe nämlich Folgendes in der Google-Search-Konsole, werden mir URLs angezeigt mit der Google hier eine andere Seite als der Nutzer eine kanonische Seite bestimmt hat. Und ich habe geguckt, welcher Kanon angegeben wird und habe gesehen, dass leider Gottes der Kanon, der vorherigen URL dort drin stand. Also Beispiel, extremes Beispiel, ich habe Seite A ein Canonical auf B. Und jetzt wird Seite A entfernt und Redirect zu C. C hat aber kein Canonical, aber Google sagt mir, B ist der Canonical von C. Weil er mal der Canonical von A war, war das etwas klar? Okay. Ist das jetzt nur ein temporära Fehler? Ich könnte mir vorstellen, dass es einfach temporära ist, bis sich das alles wieder quasi neu eingerichtet hat. Es ist natürlich immer ein bisschen schwierig, wenn man sagt, eine Seite war früher die gleich wie eine andere und dann auf einmal wird sie weitergeleitet und soll ganz separat betrachtet werden. Das braucht schon ein bisschen Zeit, bis wir das so verarbeitet haben. Einerseits natürlich auch, weil wir vermeiden wollen, dass der Canonical also oft hin und her schwankt. Das heißt, ein bisschen Zeitverzögerung ist da immer auch mit eingebaut, damit wir sicher sind, dass wir mit dieser Canonical-Entscheidung auch ein bisschen längerfristig leben können. Okay, gut. Also es wird nichts vererbt, sondern temporär. Ja. Super. Dankeschön. Ganz vielen Dank. Also zurück zu den manuellen Maßnahmen, die da gelöscht worden sind. Ist das immer noch ein Problem oder nicht? Wenn die Seiten, die verlinkt waren, gelöscht sind, dann sind diese Links an für sich beim nächsten Crawlern, vor allem die bei uns aus dem System heraus. Das heißt, die haben dann keine weiteren Nachteile an für sich. Ähnlich ist es ja auch, wenn man Links hat auf einer Seite, wo man die Links separat an für sich herausnimmt, dann verarbeiten wir die Seite auch neu, sehen, dass die Links nicht mehr da sind und dann können wir die aus unserem System an für sich raus holen. Und es ist nicht so, dass wir da irgendwie nachtragen können, dass unsere Algorithmen das irgendwie zurückhalten und sagen, halt vor einem Jahr hast du da diese schräge Sache gemacht, sondern unsere Algorithmen, wenn sie diese Seiten neu betrachten können, neu überarbeiten können, dann sehen sie ja, dass die Links nicht mehr da sind, dann müssen sie die auch nicht mehr weiter dazu rechnen. Wie schaffe ich es, dass eine von mir geänderte Seite möglichst schnell von Google gecrawlt und auch bewertet wird? Wenn ich in Search Console abrufe Google veranlasse, habe ich trotzdem den Eindruck, dass es einige Zeit dauert, bis Google die Seiten neu bewertet. Hängt ein bisschen davon ab, was man mit neu bewertet meint. Grundsätzlich ist mit Search Console kann man ja die URLs neu einreichen und das ist an und für sich einer der schnelleren Wege, wie man veranlassen kann, dass URLs neu gecrawlt werden und auch neu indexiert werden. Von dem her ist es an und für sich ein guter Weg, wenn man viele URLs hat, wie man verändert hat, würde ich eher Richtung SideMap gehen, dass das wirklich auch klar ist, dass man das irgendwie automatisch verarbeiten kann, ohne dass man da von Hand in Search Console etwas machen muss. Wichtige Seiten sind, die verändert werden, dann würde ich aber dafür sorgen, dass die internen in der Website entsprechend auch ein bisschen quasi verlinkt werden. Das heißt, wenn das jetzt neue Seiten sind, in eurer Webseite die sind für euch wichtig, dann würde ich die vielleicht von der Startseite mal verlinken und sagen, das sind unsere Neuerungen, das sind die neuen Sachen, die wir zu bieten haben oder das sind die Änderungen, die wir in Produktesortiment haben und dementsprechend sehen wir auch ein bisschen schneller. Selbst ohne SideMap sehen wir sehr schnell dass diese Links sind relativ wichtig, die müssen wir neu crawlen, neu indexieren. Bezüglich Wertung kann man natürlich auch überlegen, ja, Indexierung ist nur der erste Schritt, ich möchte, dass sie auch wirklich an erster Stelle dann Ranken in den Suchergebnissen und solche Sachen dauern in der Regel schon ein bisschen länger. Das heißt, indexieren ist für uns erstmal der Moment, wo wir die ganzen Informationen herauslesen können und dann können sie in den Suchergebnissen zeigen, aber es ist nicht so, dass nur weil eine Seite sich jetzt verändert hat, dass wir sie automatisch am gleichen Tag anders in den Suchergebnissen zeigen würden, sondern manchmal dauert das einfach ein bisschen Zeit, bis wir wirklich gute Signale kriegen für diese neuen oder veränderten Seiten. Komme ich dazu noch eine kleine Frage stellen? Ja. Du hast ja gerade von der Homepage gesprochen. Wie interessant ist für Google denn eigentlich, also saisonale Themen zum Beispiel, auf der Homepage werden wir jetzt auf einem Weihnachten, Halloween, Oktoberfest, Ostern, Frühling, Sommer, ist sowas wichtig oder interessant, qualitativ besser? Ich denke von unseren Algorithmen her, würden wir das nicht gezielt anschauen, aber das sind natürlich auch Sachen, wo nach Benutzer suchen. Wenn ich jetzt nach irgendwelchen Weihnachts- Dekorationen suche, dann suche ich nach diesen Keywords, und wenn die auf der Homepage vorhanden sind, dann wisst mir ja, gut, da sind sie jetzt vorhanden in diesem Shop. Von dem her ist das nicht unbedingt, sagen wir mal, rein ein Google-algorithmische Sache, wo man sagt, oder ich muss den Google-Algorithmus zeigen, dass ich auch bei jahres Zeit relevantes habe, sondern einfach, dass man diese Keywords die, wonach gesucht wird, dass man die auch sauber abdecken kann, wenn man denkt, dass man da etwas relevantes zu bieten hat. Und passiert das dann nicht, dass die Homepage dann für diese Sachen rankt, anstatt die Kategoriesalte? Je nachdem, wie man das gestaltet, kann natürlich auch sein, je nachdem, wonach gesucht wird. Also ich denke jetzt zum Beispiel in eurem Fall, wenn man auch nach Weihnachtsflaggen sucht, eine Rank the Homepage, könnte man sagen, es ist eigentlich auch nicht so verkehrt, auch wenn ihr eine Kategorien habt, die vielleicht mal für Weihnachtsflaggen da wäre, ich weiß jetzt nicht, was für Weihnachtsflaggen es geben könnte, aber gut, könnte ich mir schon vorstellen, dass manchmal die Kategorienseite gezeigt wird, weil wir wissen, dass sie wirklich gezielt auf dieses Thema eingeht, aber manchmal vielleicht auch die Homepage, verschiedene Flaggen und es ist nicht unbedingt nur diese Art von Flaggen, die die Resolvenz sind für dieses Thema. Also was in letzter Zeit immer passiert, ist, dass wenn ich einen neuen Link einbaue mit einem Suchwort für den Benutzer und dann die Kategorie verlinke, dann rankt praktisch die Seite mit dem Link, aber nicht die Kategoriesalte. Ich weiß nicht, ob das einfach dauert seine Zeit ist, dass es einfach ein bisschen dauert. Dieses Vorkommen nur exakt zweimal, es kommt vor, auf der einen Seite und auf der anderen Seite als Titel oder als H1 und trotzdem rankt diese Seite, die eigentlich sowieso immer für alles rankt. Also das ist die allgemeine Seite, die sowieso gut ist, wahrscheinlich hat die einfach mehr Qualität oder ich weiß es halt nicht. Normalerweise, was da auch ein bisschen passiert, ist diese Seiten, die längerfristig dastehen, die sagen einfach mehr Signale im Laufe der Zeit. Das heißt, wenn ich jetzt eine neue Kategorienseite erstelle, zum Beispiel für Weihnachten 2018, dann ist das eine vorständig neue Seite, da müssen wir erst mal verstehen, worum es da geht. Ingegen, wenn ich eine Kategorienseite habe, sage ich noch Feiertage, allgemein und wo ich die Inhalte dann im Laufe vom Jahr jeweils austauschen, das Feiertage heißt für uns Weihnachtsflakken zum Beispiel, dann wissen wir, dass diese Seite im Laufe der Zeit ein bisschen wertsammeln kann und dass die eigentlich relativ relevant sein kann für diese jahrseitlichen Themen. Das heißt, wenn man möglich gerade bei so Kategorien und bei so Themen, die immer wiederkehren, würde ich schauen, dass man Seiten wiederverwendet, die man vorher schon verwendet hat. Nicht, dass man jedes Mal ganz neue Seiten dafür erstellt. Okay, und wie oft sollte man die Homepage aktualisieren, also regelmäßig, schnell oder? Ich denke, dass es euch überlassen, wie ihr das machen wollt. Grundsätzlich, was für uns hilfreich ist auf der Homepage, ist, wenn wir wirklich sehen, dass da links sind zu den Themen, die für euch wichtig sind. Das heißt, wenn zum Beispiel für Weihnachten jetzt, wenn das ein großes Thema für euch ist, dass ihr wirklich auch von der Homepage auf diese Weihnachtszeiten verlinkt, damit wir wissen, dassen Zeiten, die im Moment für euch sehr wichtig sind, dem können wir vielleicht auch ein bisschen mehr wert geben. Wenn hingegen diese Weihnachtszeiten nur unter irgendwie Kategorien irgendwo unterhalb in der Website irgendwo verlinkt sind, dann denken wir, dass die vielleicht nicht so wahnsinnig wichtig sind. Dann eine Frage zu Bildern. Damit Google den Inhalt von Bildern möglichst gut zuordnen kann, ist ein aussagekräftiger Altex sinnvoll. Habe ich nun zehn Bilder zum gleichen Thema. Auf einer Seite, die alle das Wort Weihnachtsmarkt in diesem Fall beinhalten und den Ort im Altex haben, kann ich mir damit möglicherweise ein Problem mit der Keyboard dichtet. Grundsätzlich ist es schon so, dass man da ein bisschen aufpassen sollte bezüglich der Anzahl mal, wie man Keywords wiederholt auf einer Seite. Allerdings die all diese Seiten, wo ich das mal als Problem gesehen habe, ist es so, dass die Keyword dichte da eher, sag ich mal, viel höher ist als zehn, also mehr als zehn Mal pro Seite. Das heißt, bei vielen der Seiten, die ich angeschaut habe, wo ich dann gesehen habe, dass da wirklich ein Problem ist mit der Keyword-Dichte, sind die, die gehört da dann 100, 200, 300 Mal vorgekommen auf einer Seite. Das heißt, wenn das jetzt zehn Bilder sind und man hat zehn Mal Weihnachtsmarkt dabei und man hat vielleicht als Untertitel noch Weihnachtsmarkt und diesen Ort, Weihnachtsmarkt und anderen Ort, dann sehe ich da überhaupt kein Problem. Das ist ganz etwas anders, als wenn man da wirklich die gleichen Wörter auf der Seite verwendet. Wir haben unseren Shop und Blog komplett auf SSL umgestellt. Bei der Indizierung gibt es aber größere Probleme. Fast 5.000 Seiten werden ausgeschlossen und ich verstehe nicht genau warum oder was da passiert. Und da ist noch ein Bild von Social Control dabei, wie das da dargestellt wird, dass da verschiedene Seiten quasi erkannt werden, aber nicht so indexiert sind. Ich habe das mal kurz hier angeschaut und was ich gesehen habe, ist, dass es eigentlich ein ganz normaler Wechsel auf HTTPS stattfindet. Das heißt, in der Frage steht noch am 3.12. ist die Umstellung gewesen und wenn ich das so anschaue, dann sind vorher die HTTPS-Seiten als Canonical gesehen und jetzt Schritt für Schritt wechseln, wechseln das Ganze auf die HTTPS-Version. Vom Verkehr, der aus der Suche kommt für diese Seiten, sehe ich, dass der Wechsel auf die HTTPS-Version stattgefunden hat. Von dem her denke ich, dass es eigentlich eher ein Zeichen ist, dass die ersten Sachen sauber übertragen werden und dass es eher einfach eine Frage der Zeit ist. Bis Search Console wirklich auch sauber versteht. Alles ist jetzt mit der HTTPS-Version verknüpft und entsprechend indiziert und die ganzen Daten sind jetzt auch in der HTTPS-Version in Search Console. Und manchmal dauert das einfach ein paar Wochen, bis das wirklich zum größten Teil übertragen ist. Manchmal gibt es noch einzelne Seiten, die ein bisschen nachhängen, die vielleicht mehrmals verarbeitet werden müssen, bis wir sie auf HTTPS umschalten. Aber das sollte eigentlich eher einfach eine Frage der Zeit sein und nicht ein Zeichen, dass irgendetwas schief ist bei euch. Ich möchte aber trotzdem den Screenshot mit dem Team mal hier anschauen und schauen, wie wir das vielleicht gestalten können, damit das ein bisschen weniger Angst einflößend ist mit einer solchen Umstellung. Das ist ja immer ein bisschen mit Angst verbunden, die ganze Umstellung von einer Website auf HTTPS möchte ich euch schon schauen, dass es in Search Console nicht noch unnötig extra Sorgen bereitet. Aktuell haben wir die Bilder auf unserer Website per CDN eingebunden mit einem anderen Domain. Müssen wir die Bilder mittels einer Sidemap einhängen oder können wir die Bilder zusammen mit den Website-Uresen einer einzelnen Sidemap einhängen? Für die Bilder Sidemap kann man da beliebige Domains verwenden. Das heißt, bei der Bilder ist es so, dass einerseits die Landing-Pages quasi als URL, ich glaube als Lock, ist das, glaube ich, verknüpft in der Sidemap-Datei und andererseits die einzelnen Bilder könnt ihr dann separat als Anhang zu dieser Landing-Page einreichen und dort könnt ihr jeden Lieblingsdomain nehmen. Das heißt, ihr müsst nicht separat eine Bilder Sidemap-Datei erstellen auf dem CDN noch dazu. Wir hatten einen Sommer mit sehr guten Mobile-Traffic und dann am 24.8. ändert sich das Schlagartig und zum Mobile-Traffic zahlen wurden seitdem immer negativ zum Vorjahr. In Search Console stehen zu den etlichen Software-Fehler, die alle Profile darstellen. Einige Profile sind eventuell den Content. Manche überhaupt nicht und wir kamen von 24.8. ausgezeichnet in Organic Traffic. Die Software 04 sind nicht mehr im Google Index, sondern sprechen der Definition eines Software 04 nach Google Search Console. Wir verstehen nicht, was die Profile Software 04 qualifiziert und weshalb unter Mobile-Traffic so rapide sind. Da müsste man wahrscheinlich die einzelnen Seiten mal anschauen und zu sehen, was da wirklich vorhanden ist. Grundsätzlich, gerade bei Content, ist es immer etwas, wo man ein bisschen sorgfältig damit umgehen muss, damit man dafür auch sorgt, dass die Inhalte, die man indexieren möchte, dass die wirklich auch klar erkenntlich sind und dass die Sachen, die man eigentlich nicht indexiert haben möchte, dass die entsprechend auch klar erkenntlich sind. Das heißt, bei Profiles zum Beispiel, könnte man sich überlegen, dass man da irgendein System ausarbeitet wann diese Profile zur Indexierung freigegeben werden. Und dann das alles andere, was wie gesagt hier aus den Content vielleicht angeschaut werden könnte, dass das von Anfang an einfach ein No Index dabei hat, damit man da auch wirklich von Anfang an sagt, diese Sachen müssen wir nicht indexieren und die anderen Sachen sind doch zur Indexierung brauchbar. Was vielleicht auch Sinn machen würde in diesem Fall, ist, dass man startet, damit andere das auch anschauen können und da vielleicht Tipps geben können. Vielleicht ist es ja auch irgendwie ein technisches Problem, dass Google-Bord eine Version sieht, die nicht unbedingt den entspricht, was ihr normalen Benutzern zeigt. Vielleicht ist auch irgendwie ein anderer Fehler davorhanden. Vielleicht ist es aber auch wirklich ein Problem auf Google-Seite, dass wir da viel zu viel als Soft 4.0.4 anschauen und dass wir das auf unserer Seite entsprechend haben müssten. Und im Hilferforum, die Topbeitragenden dort, die können das auch entsprechend weiterreichen an Google-Mitarbeiter, damit das ein bisschen genauer angeschaut wird, falls das doch nicht irgendwie was Technisches ist oder etwas, was ihr auf eurer Seite steuern könnt. Wir bekommen 100 Links von verschiedenen Domains namens The Globe und würden gerne ausschließen, dass diese unschaden was kann man da machen. Was ich da einfach machen würde, wenn man wirklich nicht mit dem irgendwie im Zusammenhang gebracht werden möchte, ist, dass man die Domains in die Disseval-Datei nimmt. Dabei sind die einzelnen Links nicht zu relevant, wenn man das sagen kann, das sind jetzt 210 oder 20 Domains, dann kann man die als Domain in der Disseval-Datei hineinnehmen und dann weiß man 100% nicht sicher, dass die wirklich so rhythmisch betrachtet werden, die Links zu eurer Website. Denke, dass es am einfachsten in vielen Fällen ignorieren wird, solche Links sowieso, aber wenn man jetzt nicht ganz 100%ig sicher ist oder ein bisschen Zweifel hat, dann würde ich die einfach per Disseval einreichen und dann hat man das aufsicher. Wir haben eine Website auf der Teil des Content hinter einer Paywall steht. Wir haben First Like Free, aber der Content ist in JavaScript eingebunden und deswegen nicht alles nach dem ersten Klick für den Benutzer sichtbar. Wie könnten wir das machen? Ich weiß nicht genau, wie das bei euch gestaltet wird. Das heißt, wenn das zum Beispiel Rendering braucht und die Seiten per JavaScript gerendert werden müssen und dann Googlebot auch in diese Paywall hineinstolpert, dann kann man die Inhalte natürlich nicht sehen. Von dem her wäre wichtig, dass Googlebot zumindest auf diese Inhalte Zugriff hätte, wenn die für euch für die Indexie auch wichtig sind. Und wenn ihr da mit First Like Free oder mit Flexible Sampling arbeitet, dann solltet ihr einfach diese Structure Data in dieses Artikel, damit wir genau wissen, was hinter einem Paywall steht und was einfach allgemein zugänglich ist. Die Frage geht da ein bisschen hin, dass man da die Structure Data in das CSS-Datei ablegen könnte. Ich vermute, das CSS-Datei ist vielleicht eher JavaScript oder irgendeine andere Datei. Bei CSS verwendet man eher die Inhalte. Wichtig ist einfach wirklich, dass wenn Googlebot die Seiten aufruft, dass die Inhalte wirklich auch sich basiert und dass sie idealerweise mit Structure Data auch so verlinkt sind, dass wir erkennen, diese Inhalte sind hinter einer Paywall. Ob das jetzt nach dem ersten Click ist oder ob ihr das mit anderen Zahlen macht, dass ihr da versucht erkennt, welche Benutzer in den Paywalls sehen könnt und welche man vielleicht die Inhalte erst mal zeigen möchte, das an für sich überlassen. Würdest du empfehlen, Internal Links zu No Index Seiten generell mit einem No-Follow Tag zu kennzeichnen? Ich denke, das muss man nicht. In der Regel können wir mit normalem Internal Linkung eigentlich relativ gut zurechtkommen. Und wenn die Zielseiten nicht indexiert werden, dann ist das trotzdem okay. Bei den meisten Websites ist es nicht so, dass wir da von Crawling her so eingeschränkt sind, dass wir da eine Seite mehr oder weniger nicht crawlen können. Von dem her sollte das eigentlich okay sein. Du dünnst dann eine Frage zu Single Page App. Gemäß der Hilfe in Search Console sollte man für JavaScript Websites eine Bilder sein. Ich vermute diese Empfehlung müssen wir mal überarbeiten, dass sie einfach ein bisschen älter ist, weil inzwischen können wir ja JavaScript Websites relativ gut aufrendern. Und wenn da Bilder fertig sind, dann sehen wir die auch relativ gut. Dann sollte das eigentlich schon klappen. Ich denke, ein Bilder-Sitemap-Datei macht aber trotzdem Sinn, weil man so sehr gut angeben kann, welche Bilder für euch für die Bilder wirklich auch relevant sind. Ich sehe noch Quellen drin, developers.google.com auf der Seite. Ich glaube, die hat Christian gerade reingefügt. Ich schalte dich mal kurz auf Stumpf. Also quasi reicht es aus, ob von die einzelnen Seiten man ein Datei hat oder würdest du die Bilder trotzdem ein paar Bilder bereitstellen? Normalerweise sollte es schon reichen, wenn man die Seiten renderen kann und die Bilder so sehen. Wenn die Bilder, wie gesagt, für euch für die Bildersuche relevant sind, dann würde ich die trotzdem Bilder-Sitemap auch einbinden. Einfach damit, dass alle Wege eingerichtet hat für diese Bilder. John, kann ich da ganz kurz zwischenfragen? Ja. Zum Thema Sidemap und auch gerade speziell für die Bilder. Du hast mal gesagt, dass Sidemaps eigentlich erst ab ungefähr 10.000 Unterseiten wirklich relevant sind. Das schien mir auch sehr plausibel, weil es letztes Jahr, bei den Sidemaps, das ist ja kein Ranking Faktor oder so, sondern es geht ja nur darum, den Crawler sozusagen zu kanalisieren. Also dem zu sagen, was ist wichtig, was ist weniger wichtig, wo soll er oft gucken und wo nicht so oft. Das ist ja bei kleineren Seiten in der Regel so, dass man das gut selber aussteuern könnte. Insofern, wenn du jetzt so allgemein sagst, das ist gut, wenn man die Sidemaps einrichtet, im Grunde ist es ja auch oft sehr fehleranfällig und je nach System, was man hat, nicht automatisch zu machen und dann kann man doch eigentlich darauf verzichten. Weil der Crawler indexiert sowieso die Seiten und damit dann entsprechend auch die Bilder. Ja. Stimmt schon. Gerade bei kleineren Websites ist es vielleicht nicht so kritisch, dass man das auch einrichtet. Ich weiß auch nicht, was genau geplant ist auf der Search Console Seite. Bisher war es ja auch so, dass man in Search Console sehen kann, wie viel von diesen Bildern und Seiten effektiv auch indexiert sind. Das finde ich immer praktisch auch gerade bei kleineren Websites. Aber es ist schon so, dass wenn das eine kleine Website ist, brauchen wir das in der Regel nicht. Okay. Wie kann man das so sagen, dass man da nicht einfach denkt, man braucht das nie oder man braucht das immer. Das ist immer ein bisschen schwierig zu verallgemeinen. Ja, aber wenn du da jetzt Zweifel hast, dann wäre das natürlich ganz gut, wenn es da irgendwie eine klare Linie gibt. Also in meinem Fall ist es ja so und ich weiß, es gibt auch einige andere, die haben letztlich hinter ihren Websites keine automatisierten Content-Management-Systeme. Und in dem Fall machen SideMaps einfach Arbeit. Die müssen entweder manuell erstellt werden oder mit Hilfe von Online-Tools, wo man sozusagen das alles durchcrawlen lässt und sich dann in SideMap exportieren lässt. Und das ist potentiell natürlich fehleranfällig. Das kann natürlich auch so sein, dass man dann mal vergisst, die SideMap zu autorisieren, insbesondere dann, wenn man eben Seiten löscht, weil sie in der SideMap noch vorhanden, obwohl sie gar nicht mehr online sind. Und ich habe ja eine ganze Menge, eher kleinere Seiten, also weniger als, also ungefähr 1000 Unterseiten, sagen wir mal. Und da habe ich das Gefühl, dass es überhaupt nicht wichtig ist, sozusagen die SideMap zu flehen. Ich habe das in Zeit lang gemacht, irgendwie habe dann auch gemerkt, dass ich einen Haufen Fehler drin hatte und das guckelt, dass mehr oder weniger ignoriert hat. Also wir haben trotzdem mehr oder weniger und deswegen war ja auch schon früher meine Nachfrage, ist die SideMap überhaupt notwendig? Ja. Ich muss mal überlegen, wie man das irgendwie klarer kommunizieren kann, damit man da nicht das Gefühl hat, dass man das muss, gerade bei kleineren Websites, aber dass man da trotzdem das merkt, ab wann es dann wirklich auch Sinn macht, dass man da mit SideMaps arbeitet. Ja. Gute Einweis. Okay. Dann haben wir noch eine Frage von einem Chirurgen, der zwei Fachgebiete hat und sprechen zwei Websites, die am gleichen Ort, wo am gleichen Ort die Firma entsprechend verhandeln ist. Ahnen für sich aus der Google-Suche-Perspektive ist das total okay. Ist es nicht so, dass wir da sagen würden, ihr dürft nur eine Website pro Standort haben? Manchmal hat man ja verschiedene Websites für unterschiedliches Publikum für den gleichen Standort, das ist auch okay. Von Seiten Google My Business kann ich natürlich nicht viel dazu sagen, ich weiß nicht, was da Ihre Kriterien sind, aber zumindest auf der Google-Suche-Seite ist es nicht so, dass wir da das irgendwie anschauen würden und überlegen würden, ah, das ist die gleiche Adresse, wenn man eines dieser Websites in der Suche erscheint, sondern wir schauen diese Seiten an und sehen, schauen uns die Inhalte an und versuchen, die relevant entsprechenden Suchergebnissen zu positionieren. Es kann natürlich schon sein, dass eines von diesen Seiten eine stärkere Präsenz hat in der Suche, einfach weil die Allgemeinen vielleicht ein bisschen stärker sind. Es ist nicht automatisch so, dass wir das dann eigentlich aufteilen und sagen, an dieser Adresse die gleiche Bewertung, sondern da sind unterschiedliche Websites, die wir unterschiedlich in den Suchergebnissen zeigen können. In der Search Console werden 500 Fehler mit Crawling Anomolien angezeigt. Weiß ich nicht, was da gezeigt wird, müsste ich mir mal anschauen. Grundsätzlich ist es natürlich schon so, dass 500 Fehler eher Richtung Crawling auf Crawling Fehler hinweisen. Aber ich weiß nicht, wie das jetzt dargestellt wird, gerade im neuen Search Console, schauen wir das mal an. Wie handhabt ihr es inzwischen mit der Main Content Erkennung? Anders gefragt bringt ein einfaches HTML-Dokument in der Indexierung Vorteile gegenüber einer complexen WordPress-Seite, deren Inhalte auf verschiedene Sektionen, zum Beispiel diverse Hintergrundsbilder und Toggle verteilen zu. Wie kann man beim Bauen der Webseite die Seitenstruktur so optimieren, dass eure Crawlers es einfach haben und gerne vorbeikommen? Grundsätzlich müssen wir mit beiden Arten vom Website gut zurechtkommen können. Einerseits solche, die sehr komplex aufgebaut sind, ob mit WordPress oder eben ein E-Commerce-System oder sonst ein eigenes System und auch mit solchen Websites, die eher einfach als HTML-Seiten aufgebaut werden. Uns natürlich bei einfacheren HTML-Seiten hilft es, dass es ein bisschen einfacher ist, die Struktur zu erkennen, aber wir haben da sehr viel Erfahrung mit dem Erkennen von Teilen einer Webseite, dass da eigentlich vom Vor- oder Nachteil her es sollte es eigentlich mehr oder weniger gleich sein. Was natürlich oft passiert bei komplexeren Seiten, dass man verschiedene Themen alle zusammen auf einer Seite hat, die dann vielleicht den Sidebarer noch vorhanden sind und das macht es manchmal für uns ein bisschen schwieriger zu erkennen, was ist da eigentlich das wesentliche Thema von dieser Seite. Aber das hängt auch ein bisschen davon ab, wie ihr eure Webseite positionieren wollt, ob ihr da eher sagen wollt. Meine Seite ist halt aufgebaut von diesen verschiedenen Themen und die sind alle ein bisschen relevant oder wenn man sagt, ich habe wirklich eine gezielte Seite zu diesem Thema. Es gibt auch 404 Fehler in Search Console, die PDFs der Seiten sind durch neue PDFs ersetzt worden, WordPress vergibt leider immer ein Datumstempel beim Upload und der ist Bestandteil der URL. Wie lösche ich die alten Seiten aus Search Console? Das kann man eigentlich nicht bei Search Console rauslöschen, sondern der richtigen Weg, das zu handhaben ist, dass man wirklich ein redirect von der alten Version auf die neue Version macht. Weil in Search Console wird ja nur dargestellt, was wir bei der Indexierung gesehen haben und wenn wir sehen, dass die alten Seiten nicht mehr existieren, dann sind natürlich alle Signale auf diesen alten Seiten gehen verloren und wir müssen diese neuen Seiten erstmal neu erkennen und auf quasi erstmal ein Signal aufbauen um zu merken, wie und wo sie relevant sind. Das heißt, am besten gerade bei Informationen, die relativ sichtbar sind in der Suche, würde ich wirklich schauen, dass man einfach ein redirect einrichtet, von der alten Version zur neuen Version. Dann ist da, glaube ich, noch mit dieser harte Tiverswechsel hat sich etwas getan, jetzt sind da alle möglichen Seiten indexiert einige fehlen noch und irgendwie gesagt, da muss man wahrscheinlich noch ein bisschen warten. Gibt es irgendwelche Anhaltspunkte ab, wann ich einen Backlink lieber disavowen sollte, einige Domains oder echten Content mit Linkseiten sind klar, aber schwache verlinkte Domains, die trotzdem hilfreiche Content haben, zum Beispiel Blogs, sollte man den lieber disavowen oder kommt das komplett auf den Einzelfall an. Ich würde nicht sagen, dass man Blogs einfach von, auf Anfang haben, quasi, par disavow die Links entfernen sollte, sondern ich würde mit dem disavow Tool wirklich eher dann arbeiten, wenn man wirklich ein konkretes Problem sieht. Das heißt, wenn man weiß, dass man vielleicht früher etwas gemacht hat mit Links, dass man jetzt einfach aufräumen möchte, kann man mit dem disavow arbeiten. Man sieht, dass da irgendwie per negative SEO irgendwelche wilden Sachen versucht werden, dann kann man das per disavow aufräumen. Wenn man einfach die Links anschaut, man sieht Sachen, die man nicht genau einstufen kann, aber weiß nicht, warum und wieso die da sind, dann würde ich die einfach sein lassen. In der Regel ist es nicht so, dass das irgendwie Ausschlaggebend den ein oder anderen Weg ist, sondern man macht sich einfach da sehr schnell selber die Arbeit und vertieft sich dann mit diesen disavow Fragen, obwohl man eigentlich besser was machen könnte mit der Webseite. Von dem her würde ich da wirklich einfach auf die gröberen Probleme achten. Okay, ich glaube, wir haben es geschafft bis zum Ende sogar. Kann ich noch einen ganz kurzen Hinweis machen? Ja, und zwar wird ja heute in der Search-Konsole die alte Darstellung der Suchanalyse abgeknipst, wenn ich das richtig interpretiere, was da angezeigt wird. Da bin ich sehr unglücklich drüber und zwar finde ich, fand ich in der alten Version so unheimlich praktisch, dass man die Keywords die angezeigt werden direkt in der Google-Suche kommt. Das heißt ich, das ist eigentlich meine Hauptarbeit mit der Search-Konsole gewesen irgendwie, dass ich die Suchanalyse gemacht habe, mir die Positionen angezeigt habe, mir dann angeguckt habe, also die Unterschiede zur vergangenen Woche und dann geguckt habe irgendwie, was ist da passiert bei diesem Keyword. Wer ist da vorne reingekommen, warum bin ich da weggefallen oder andersrum. Das heißt, ich habe sozusagen einen ganz engen Bezug zwischen der Search-Konsole und der Arbeit damit in der neuen Suche, weil ich sozusagen jedes Mal das wieder eintippen muss in einem neuen Tab irgendwie und ich finde das sehr hilfreich, wenn das sozusagen wieder gemacht würde, dass da einfach in einem neuen Tab entsprechend dann das Keyword oder die Suche nach dem Keyword aufgehen könnte. Das macht 10, ja. Das habe ich auch oft gemacht, stimmt. Was ich da machen würde ist, eineseits mal Feedback einreichen Das schauen Sie auf jeden Fall an, gerade jetzt mit der Umstellung, aber ich schaue das mit dem Team auf mal an, obwohl das relativ einfache auch noch zu machen können, weil das macht es wirklich ein bisschen einfacher, dass man auch die effektiven Suchergebnisse wieder anschauen kann. Genau. Also ich finde grundsätzlich jede Oberfläche, die ihr jetzt neu gemacht habt, irgendwie nicht so gut, also auch bei AdWords diese neue Oberfläche, weiß ich nicht, also klar, ihr testet das auch, aber ich fand die alten Sachen immer ich weiß nicht, warum, aber die alten Sachen sind irgendwie einfacher gewesen. Ja, also so weit würde ich jetzt zum Beispiel nicht gehen, ich finde die neuen Oberflächen, also kann man sich schon dran gewöhnen auch, bei mir ist es wie gesagt ich switch noch relativ viel hin und her, weil ich eben die Sucheanalyse in der alten Version viel praktischer fand. Und ansonsten ist es eine etwas andere Darstellungsform, irgendwie ein paar Features habt ihr ein bisschen geändert, aber an sich sind ja die Daten weitgehend diegleichen, ja, also und ja, ich meine, ein Design ändert sich eben im Laufe der Jahre, man kann es jetzt mobile viel besser benutzen, das gehen ja vorher überhaupt nicht, wenn man die Search-Konsole aufgemacht hat mit einem Handy, irgendwie dann sah das ja alles winzig aus. Ja. Die Mobile Usability Reports anschaut auf den Handy und nichts brauchen kann. Cool. Okay, eben wie gesagt, wenn ihr Sachen in Search-Konsole habt, gerade in der neuen Version, wo ihr Anregungen abgeben möchtet, würde ich auf jeden Fall Feedback einreichen, da schauen sie im Moment sehr stark. Okay, machen wir vielleicht hier eine Pause. Vielen Dank fürs Kommen, vielen Dank für die vielen Fragen und Kommentare. Ich hoffe, das war auch für euch hilfreich und dann sehen wir uns mit einem der nächsten Hangouts vielleicht wieder. Tschüss allerseits. Dankeschön. Tschüss.