 OK, herzlich willkommen zum heutigen Google Webmaster SEO Sprechstunden Hangout. Mein Name ist Johannes Müller. Ich bin Search Advocate bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster Sprechstunden, wo jeder vorbeikommen kann und seine Fragen rund um seine Website und um die Google Suche stellen kann. Es sind schon einige Fragen eingereicht worden auf YouTube. Aber wenn einer von euch loslegen möchte mit ersten Fragen, seid ihr gerne dazu eingeladen? Dann darf ich heute gerne den Anfang machen, bitte. Und zwar, John, die Sache ist die. Ich habe es eingereicht. Das Problem hat sich inzwischen gelöst. Aber ich hätte trotzdem gerne kurz dein Statement dazu gehabt. Ich hatte eingereicht, die Sache, dass die Mieter-Tech seiner Seite nicht aktualisiert wurden von Google. Wir haben die zur Indexierung angemeldet. Die Seite haben wir so drei Wochen gewartet. Von gestern auf heute hat sich es aktualisiert. Kann ein Zufall sein oder ihr habt es angestoßen. Noch zusätzlich. Aber jetzt möchte ich fragen, was wird in dein Tipp an jemandem, denn das Gleiche passiert wie mir, dass eben über Wochen Mieter-Tags, die angepasst wurden, nicht von Google angepasst angezeigt werden. Welche Mieter-Tags hast du angepasst? Title und Description. OK. Ja, also ich denke, einerseits geht es drum, dass man die Seiten neu crawled und neu quasi bearbeitet. Also mit dem Einreichen zum Indexieren ist an und für sich die optimale Methode, das zu machen. Was da noch ein bisschen dazu kommt, ist, dass wir auch mit normalen Crawlen und so das versuchen, quasi neu zu finden. Und wir finden solche Veränderungen am ehesten, wenn wir sehen, dass es sich lohnt, diese Seite öfters zu crawlen. Das heißt, wenn wir zum Beispiel links von der Homepage sehen, auf die Seite dann hilft uns das so erkennen, dass das wirklich eine wichtige Seite ist für die Website und dass wir die ein bisschen häufiger crawlen müssen. Ich glaube, das war die Impressum-Seite bei dir. Genau, richtig. Ja, ich denke, wenn die normal verlinkt ist innerhalb der Webseite, dann sollte das eigentlich schon gehen. Was wahrscheinlich ein bisschen hineingespielt hat auf unserer Seite, ist, dass wir einfach in der Vergangenheit gesehen haben, dass die Impressum sich nicht so häufig verändert. Und das ist ja eigentlich auch natürlich, oder? Und dass wir deswegen einfach nicht so häufig die Seiten neu crawlen. Was aber auch ein bisschen noch dazu kommt und das Ganze ein bisschen schwieriger macht, ist, dass wir nicht immer 100%ig den Titel und den Description von deinen Seiten anzeigen in den Suchergebnissen, sondern wir versuchen das ja auch ein bisschen automatisiert, festzustellen, welcher Titel und welche Descriptions optimal passen. Und dementsprechend könnte es theoretisch sein, dass du den Titel und den Description angepasst habt. Wir haben das gecrawled und wir zeigen trotzdem für eine gewisse Zeit erst mal den alten Titel und Description. Und das ist nicht unbedingt etwas, was man beeinflussen kann. Das heißt, das geht einfach im Laufe der Zeit. Ich weiß nicht, ob unsere Systeme da ein bisschen separat laufen mit dem Titel und Description, aber ich habe das einfach schon häufiger gesehen, dass man passt das an und dann geht es einfach in eine gewisse Zeit, bis das wirklich auch dargestellt wird. Wenn man gezielt nach geändertem Text sucht auf der Seite, dann findet man den in den Suchergebnissen. Aber Titel und Description oder nur Description oder manchmal nur der Titel ist einfach weiterhin noch der alte. Und dann pendelt sich das irgendwann wieder an. Und darf ich meine zweite Frage auch gleich noch los ins Rennen schicken, bitte? Ja, klar. Gibt es ein Update, wie weit seid ihr mit den HDDP2 Crawling Tests? Und hier habe ich dann noch die Frage dazu, ob das dann etwas verändern wird in den Reports, die man bei euch sieht, weil wenn ich mit HDDP2 Crawling müsste doch alles viel schneller sein. Und gibt es da irgendwas, was du uns erzählen kannst schon? Wir haben gestern angefangen. Ich weiß nicht, ob du das auf Twitter gesehen hast. Gary bei uns im Team leitet das Ganze und hat auch angefangen, Nachrichten über Search Console auszuschicken. Gerade für solche Websites, die auf HDDP2 sind. Wir machen das normalerweise so, dass wir einfach ein Sample von den Sites nehmen, die wir denken, sind bereit und dass wir da erst mal die Nachrichten verschicken und dass wir dann im Laufe der Zeit dann einfach immer mehr das Ganze ausbauen. Aber wir wollen das Ganze ein bisschen langsam angehen, damit wir sicher sind, dass es auch wirklich funktioniert. Nicht, dass es irgendwo Probleme verursacht. Bezüglich Geschwindigkeit ist es so, dass der Geschwindigkeitsvorteil vom Crawling eher in den Crawling-Statistiken vielleicht sichtbar ist. Aber es ist schwierig zu sagen, dass man da wirklich etwas Merkbares sehen würde in den Crawling-Statistiken, außer dass wir vielleicht mehr Seiten crawlen. Weil mit HDDP2 ist es ja ein bisschen so, dass wir da die Request auch bundeln können. Und zusammenschicken können. Und das sind Sachen, die auf manchen Servern trotzdem gleich viel Aufwand verursachen. Das heißt, theoretisch könnten wir in weniger Request mehr URLs crawlen. Aber wenn der Server dadurch überlastet wird, dann müssen wir uns da natürlich auch ein bisschen zurückhalten. Und das ist ein bisschen das, was wir da versuchen, herauszubinden, was funktioniert gut, was funktioniert weniger gut, wie viele reagieren jetzt auf die Nachrichten und sagen, oh, jetzt gibt es auf einmal Probleme auf dem Server, ihr überlastet meinen Server und dann müssen wir das ein bisschen anschauen. Okay, danke. Die Statistiken oder die Reports bezüglich zum Beispiel Core Web Vitals, also die benutzer sichtbaren Geschwindigkeiten, die werden davon nicht beeinflusst. Das heißt, wenn Googlebot auf HDDP2 umstellt, ändert das an und fühlt sich in den anderen Geschwindigkeitsreports nichts. Danke, bitte. Ich würde gerne weitermachen, weil wir Probleme wie Michael haben, wenn es okay ist, dann könnte man direkt anschnüpfen. Wir von der Pinnetco-Agentur, wir haben zwei Kunden, bei denen jetzt schon seit längerem diese Spinne, sage ich mal die Google-Spinne, das Crawling nicht mehr stattgefunden hat. Bei einem unserer Kunden ist das das letzte Mal am September geschehen und bei einem anderen von uns im November. Wir haben so eine Vermutung, wie wir mit das zusammenhängen, stehen aber vor dem Problem, dass wir absolut keine Lösung haben. Und zwar haben wir bei beiden Kunden einen Re-Launch der Webseite gehabt und haben in der Zeit, wo wir die Seite bearbeitet haben, die Seiten auf No Index gesetzt. Also wirklich alle Seiten, weil nun mal auch alle Seiten in der Bearbeitung waren. Und als wir dann fertig waren, haben wir die natürlich wieder rausgenommen in der Hoffnung, dass Google jetzt vorbeikommt und die Seiten indexiert, was aber wie gesagt bis heute nicht geschehen ist. Und da haben wir natürlich alles Mögliche schon angestoßen. Wir haben die Seiten manuell eingereicht, wir haben die Side-Map noch mal eingereicht. Also alles, was man da so empfiehlt, hat aber leider nichts gebracht. Und es führt jetzt nun natürlich auch dazu, dass unter anderem auch Startseiten nicht in der Google-Suche angezeigt werden. Das ist natürlich fatal ist. Und da wollte ich einfach mal nachhaken, was man noch machen kann. Okay. Also ist es bei euch im Moment so, dass gar nichts von dieser Webseite dargestellt werden in Suchergebnissen. Genau. Okay. Wahrscheinlich habt ihr über den URL-Entfernungstool die Webseite mal ganz rausgenommen. Ja. Und dieser Zustand hält an, ich glaube, etwa 180 Tage, irgend sowas außer man storniert das und nimmt das quasi wieder zurück. Das heißt, wahrscheinlich müsst ihr in Search Console einfach diesen Entfernungrequest den Antrag suchen und den einfach zurücknehmen. Und dann sollte innerhalb von einem Tag oder zwei sollte das eigentlich alles wieder sichtbar sein. Weil wenn gar nichts mehr sichtbar ist, ist das eigentlich schon ein Zeichen, dass da grundlegend irgendwas klemmt. Und entweder ist das vom Web-Spam-Hair, das Web-Spam-Team irgendwie eine manuelle Maßnahme genommen hat und gesagt hat, wir müssen die Webseite ganz entfernen. Das passiert eigentlich nur in wirklich sehr problematischen Situationen. Und die andere Variante ist wirklich, dass man das selber entfernt hat. Was mit der eigenen Entfernung manchmal ein bisschen, vielleicht mal verwirrend ist, ist, dass wir alle Varianten der Webseite rausnehmen. Das heißt, wenn ihr die Webseite zum Beispiel auf HTTPS genommen habt und ihr den Entfernungsantrag auf HTTP eingereicht habt, dann gilt das trotzdem für beide Varianten. Und dann sieht man das vielleicht mal und denkt, das kann jetzt da keinen Einfluss haben, aber das hat doch den Einfluss auf alle Varianten, auch mit WWW und nicht WWW. Genau, ich müsste das mal checken mit dem Entfernungsrequest, weil eigentlich liegt diese Aufgabe bei mir und ich habe das eigentlich nicht gemacht. Deswegen befürchte ich so ein bisschen, dass es diesen Request nicht gibt. Also, das ist doch vielleicht irgendwie was mit einer Maßnahme zu tun hat. Was könnte man denn dann machen? Das würde man auch in Search Console sehen bei den manuellen Maßnahmen. Okay, das heißt, dann könnte ich dann auch darüber reagieren. Müsste ich gleich noch mal überprüfen. Aber sonst gibt es keine andere Möglichkeit, weil ich hatte eigentlich schon einmal nachgeschaut vor ein paar Wochen und da war absolut gar nichts. Ich bin alles durchgegangen. Also, ich glaube, so was wäre mir aufgefallen. Man kriegt ja auch eine E-Mail, so viel ich weiß, wenn es eine manuelle Maßnahme gibt. Da war absolut nichts. Ich wüsste nicht, was wir dann noch machen könnten. Vielleicht hast du da auch noch mal... Wenn du möchtest, kannst du sonst eine von den Domains vielleicht im Chat hier reinschreiben? Dann kann ich danach kurz nachschauen. Gerne, mache ich dann. Okay. Dankeschön. Ja, bitte. Okay, sonst gehe ich mal die Fragen durch, die eingereicht worden sind. Und wenn ihr zwischen euch Kommentare oder ähnliche Fragen habt, bitte einfach reinspringen. Dann kommen wir trotzdem wahrscheinlich dazu. Okay, die erste Frage war wegen Metatanks. Haben wir euch kurz angeschaut. Meine mobilen Seiten sind ziemlich lang. Kann ich irgendwie für Passage Indexing optimieren, sodass der Link von Google direkt auf den Inhalt scrollt? Passage Indexing, ich glaube, da kann man eigentlich nicht groß optimieren. Passage Indexing ist an und für sich das Verfahren auf unserer Seite, dass wir möglichst Teile von einer relativ langen Seite erkennen und sehen können, das ist besonders relevant für Benutzer und dass wir die dann trotzdem in den Suchergebnissen zeigen. Aber es ist nicht so, dass man da wirklich dafür optimieren kann. Was man machen könnte, ist mit den sogenannten Jump Links arbeiten, dass man bestimmte Abschnitte der Seite markiert und dass man die zum Beispiel oben auf der Seite selber verlinkt. Und in einigen Fällen ist es so, dass wir diese Jump Links erkennen und dass wir dann auch quasi wie diesen Link direkt zu dem Teil der Seite zeigen in den Suchergebnissen. Das ist allerdings nicht garantiert. Das heißt, das ist etwas, was man machen kann. Vielleicht finden wir das und können das so darstellen. Vielleicht auch nicht. Wenn es kritisch ist für dich, dass diese Teile der Seite wirklich separat indexiert sind und separat in den Suchergebnissen dargestellt werden, würde ich eher die Seite einfach aufteilen in verschiedene HTML-Seiten, die dann separat indexiert werden können, so dass wir direkt den Benutzer zu einem gewissen Inhaltsstück verweisen können. Auf einer Seite mit Content-Gleich-No-Follow-No-Index-Gekennzeichnet befinden sich Affiliate Links. Ich würde sagen, dass diese Links zusätzlich ein Sponsored Attribut haben sollten und vielleicht euch ein No-Index-Tag um zu interpretieren, dass die Inhalte der Seite inklusiv der dortigen Links nicht relevant sind. Mit dem No-Follow würden wir an und für sich das eh schon sehen. Also wenn da quasi auf Seitenebene ein No-Follow ist, dann sehen wir das sowieso und wissen, dass wir zu diesen Links eigentlich nichts weitergeben müssen. Man könnte trotzdem noch mit Sponsored arbeiten. Das hilft uns ein bisschen. Ich denke im Allgemeinen besser zu erkennen, wo solche Sponsored Links sind, aber das hat auf eurer Seite eigentlich überhaupt keinen Einfluss. Das heißt, wenn der No-Follow eh schon da ist, dann muss man nicht zusätzlich mit Sponsored arbeiten. Man kann das machen, wenn man will. Das hilft quasi unseren Machine Learning-Systemen ein bisschen, aber es ist nicht zwingend notwendig. Kann ich da noch ganz kurz nachfragen? Ja. No-Follow wurde ja ein bisschen aufgeweicht durch die neuen Link-Attribute. Du sagst aber, wenn ich dich richtig verstanden hab, dass es durchaus noch Gewicht hat und ihr das auch noch voll ins Kalkül mit einnimmt. Ja. Ja. Okay. Danke. Schauen wir kurz die URL nach. Hi, Moment. Einfach das wir das da nicht vergessen. Also, ich sehe bei eigentlich beiden dieser Websites weder eine manuelle Maßnahme noch, dass da irgendwie manuell etwas entfernt wurde. Ja, habe ich auch gerade gecheckt. Ist nix. Bei der zweiten Website sehe ich allerdings auch Inhalte in den Suchergebnissen, wenn ich da eine Zeit das Frage mache. Das sind nicht alle Seiten betroffen, aber die Startseite ist halt betroffen. Das ist echt fatal. Ah, okay. Beim anderen sehe ich an für sich die Startseite. Wir können kurz schauen. Ups. Die Verwirrung in den ganzen Sachen, schnell rumzuklicken. Mal schauen, ob ich da was sehe. Die Strich-DE-Seite. Ja. An für sich sollte die indexiert sein, wird aber eigentlich nicht so in den Suchergebnissen dargestellt. Da muss ich wahrscheinlich nachher mal ein bisschen genauer hinschauen. Alles klar. Ja. Okay. Dann, mal zurück zu den Fragen. Wir haben mehrere Jobbörsen mit jeweils spezifischen Zielgruppe. Würde sich Lohnartikel, die bei einer Seite schon lange online sind, auf eine andere umzuziehen. Neue URLs. Weil sie dort besser zur Zielgruppe passen. Welche Folgen hat das dann für die alte Seite? Das ist an für sich etwas, was relativ normal ist, was viele machen. Wenn sie jetzt verschiedene Webseiten haben, dass man sich irgendwann entscheidet und sagt, diese Artikel, diese Produktseite oder was auch immer, ist eher relevant für diese Webseite. Und dann ziehe ich sie dort entsprechend hin. Man kann das so machen, dass wenn man, je nachdem, wie man das halt machen möchte, man kann das auch so machen, mit dem Relcanonical zu arbeiten. Das heißt, wenn man sagt, dieses Produkt oder dieser Artikel ist eigentlich relevant für alle meiner Webseiten, aber am relevantesten für eines von diesen Webseiten, dass man da mit dem Relcanonical arbeitet. Wenn ich zum Beispiel eine Webseite für, ich weiß nicht, was, Möbel allgemein habe und eine Webseite für Gartenmöbel, dann habe ich vielleicht einige Produkte, die eigentlich auf beiden Webseiten passen würden. Dass man die dann auch wirklich an für sich auf beiden Webseiten platzieren würde. Aber wo man sagen würde, eigentlich sollte sie indexiert sein unter meiner Gartenmöbel-Webseite. Und da kann man da eigentlich relativ gut mit dem Relcanonical arbeiten. Man kann auch im Laufe der Zeit sagen, eigentlich hätte ich das lieber hier oder hätte ich das lieber da und dass man da den Canonical wechselt, dass man das so ein bisschen herumschiebt. Man kann natürlich auch mit dem Redirect arbeiten. Wenn man mit einem Redirect arbeitet, ist dann diese Seite allerdings dann wirklich nicht mehr vorhanden auf der alten Webseite, sondern nur auf der neuen Webseite. Insgesamt Auswirkungen, welche Folgen da sind, sind eigentlich eher, dass einfach die Inhalte dann auf einer Webseite indexiert sind und nicht mehr auf der anderen Webseite. Also es ist nicht so, dass irgendwelche Folgeschäden oder so etwas da kommt, sondern es ist eigentlich wirklich so, die Inhalte wurden verschoben von dieser Webseite zu anderen. Also sind sie da jetzt indexiert und da jetzt nicht mehr indexiert. Eine kleine Nachfrage dazu. Die Frage kam von mir. Das heißt aber natürlich auch logischerweise, dass der Traffic dann nur noch beim anderen Portal ankommt und nicht mehr bei dem, wo sie vorher waren. Das heißt, an der Gesamtsichtbarkeit wird sich wahrscheinlich auch was ändern, weil diese URLs ja auch nicht mehr indexiert und damit nicht mehr online sind. Das heißt auch gut. Ja, also in der Regel verschiebt sich das einfach ein bisschen. Wenn das jetzt eine besonders relevante Seite war innerhalb der alten Webseite, dann kann das natürlich auch einen größeren Einfluss haben. Wenn man jetzt sage ich mal, ich weiß nicht, ein Electronic Shop nimmt und alle Electronic-Produkte woanders hin verschiebt nur noch Artikel beibehält, dann ist die alte Webseite ja grundlegend etwas anderes, als was sie vorher war. Wenn das einfach einzelne Seiten sind innerhalb einer größeren Webseite, dann verschiebt sich das halt einfach so. Das wären in dem Fall Content-Artikel, die von einer Domain auch wirklich eine ganz andere gehen, die sich für ein bisschen besser passen. Die Frage wäre auch, hätten die Artikel bei dem neuen Portal genau die gleichen Chancen, wieder sagen wir auf den Ranking 2 zu kommen bei Google oder dadurch, dass das andere Portal sehr viel kleiner ist und nicht so viel Autorität hat, kommen die dann nicht mehr auf die hohe Position, die sie bei dem anderen Portal hatten? Das lässt sich nicht voraussagen. Das kann durchaus ein Einfluss da dabei sein. Wir schauen zwar schon die Artikel grundlegend pro URL an, aber wir haben auch einige Faktoren, die eher für die Webseite insgesamt zählen. Und da kann es durchaus sein, dass die neue Webseite grundlegend irgendwie anders eingestuft wird, als die alte und dass man da dann größere Verschiebungen hat. Das kann natürlich auch positive Verschiebungen sein. Hängt ein bisschen davon ab, wie das da steht. Okay, dann werden wir das mal testen. Vielen Dank. Ja, bitte. Wir haben große Probleme bei unserem Consent Layer für Mobile und App. Seit wir sie eingeführt haben, sind unsere Clicks stark nach unten gegangen. Kannst du bei unserem Consent Layer ein Problem erkennen? Und dann noch ein Link. Ich habe das kurz vorher mal angeschaut und habe da eigentlich nicht spezielles feststellen können. Das heißt, was ich sehe auf unserer Seite ist, dass wir die URL normal indexieren. Dass wir vom Crawling her die Inhalte normal sehen können. Wenn ich mit dem Mobile Friendly Test zum Beispiel das anschaue, dann komme ich zu den einzelnen Artikeln und sehe auch die Inhalte direkt. Das heißt, Google fürs Indexieren sieht an und für sich die richtigen Produkte oder die richtigen Seiten halt. Was ich einfach gesehen habe, ist, mit dieser Consent Layer, die ihr da habt, ist es so, dass da ein redirect stattfindet auf eine allgemeine URL und dann von dort aus wahrscheinlich über ein Cookie oder irgendwas, kann man dann zurück zu den eigentlichen Inhalten finden, als Benutzer. Ich könnte mir vorstellen, dass das Ganze vom Tracking her ein bisschen schwieriger macht auf eurer Seite, weil ihr natürlich nicht mehr das Gleiche sieht wie wenn ihr diesen Consent Layer direkt auf der Seite selber hättet. Das heißt, der ganze Traffic wird wahrscheinlich zu dieser Consent Layer URL gehen und dann von dort aus vielleicht wieder weitergehen hingegen, wenn man den Consent Layer auf der eigentlichen URL hat, dann wird das natürlich alles für diese URL gezählt. Vom Crawling und Indexing her scheint das bei uns nicht stattzufinden. Das heißt, ihr habt das wahrscheinlich so eingerichtet, dass Googlebot nicht dadurch weitergeleitet wird, das ist anfühlt sich okay. Was wir normalerweise empfehlen würden, ist, wenn Google durch so eine Consent Layer gehen müsste, dass man über die URL auch erkennen können, dass das unterschiedliche URLs sind, dass man da zum Beispiel als URL-Parameter die Adresse noch dazu hat, damit wir das ein bisschen besser erkennen können. Was ich an eurer Stelle vielleicht machen würde, ist versuchen festzustellen, ob das ein Indexing Problem ist, das ihr da seht. Das heißt, ob die Inhalte wirklich nicht mehr indexiert werden. Soweit ich erkennen kann, ist das kein Indexing Problem oder ob das eher ein Tracking Problem ist, bezüglich wie die Benutzer quasi auf eurer Seite kommen. Und dann aufgrund von dem kann man da natürlich ein bisschen weiter schauen. Wenn das vom Indexing her okay ist, dann wird das wahrscheinlich aus unserer Sicht eigentlich auch weiterhin so okay sein. Es könnte höchstens sein, dass vom Ranking her das ein bisschen schwieriger ist auf unserer Seite, aber ich vermute das sollte eigentlich kein Problem sein, wenn wir das mit dem Indexing kriegen können. Das heißt, was ich konkret machen würde, ist mal in Search Console über die Index Verstellen, ob vom Indexing her ein Problem ist, dann über die Performance Reports in Search Console schauen, ob die Impressions und Clicks dort einigermaßen stabil sind und das dann auch vergleichen z.B. mit Analytics oder wie ihr das macht. Und da aufgrund von diesen verschiedenen Varianten das Ganze versuchen ein bisschen einzugrenzen. Ja, ich denke, es ist immer ein bisschen schwierig, gerade mit solchen Intra-Sessionals, die Google eigentlich nicht sehen würde. Aber soweit ich sehen kann, mit den einzelnen Seiten, die ich kontrolliert hat, habt ihr das schon richtig eingerichtet. Ein Kunde von mir betreibt ein Online-Shop auf einer .com-Domain mit mehreren Sprachunterverzeichnissen. Die Domain-Route-Ural wird abhängig von der Browser-Sprache auf die entsprechende Sprach-Startseite per 302 weitergeleitet. Alle Sprachen sind über hreflang-Link miteinander verknüpft und ein Canonical-Link ist ebenfalls geregte eingebunden. Trotzdem wird seit Monaten der Suche nach den Shop-Namen auf Google.de das englische Suchsnipot mit der Domain-Route-Ural angezeigt. Bei anderen Shops mit diesem Setup wird richtigerweise die deutsche Startseite gelistet. Warum funktioniert das bei dieser Domain nicht? Müsst ich mal genauer anschauen. Ich bin ich, ja, also es könnte sein, dass von der Konfiguration her, dass da irgendetwas klemmt. Es kann auch sein, dass auf unserer Seite, dass wir das einfach irgendwie nicht sauber darstellen können. Was ich da vielleicht kontrollieren würde, ist gerade die Einrichtung mit dem Canonical-Link, dass ihr das sauber quasi pro Sprache einrichtet und dass ihr ein X-Default auf die Homepage gesetzt habt. Weil ohne X-Default auf die Homepage ist es so, dass wir vermuten, dass die Homepage quasi nicht zu diesem Hreflang-Satz gehört und dass wir die dann quasi separat in den Suchergebnissen darstellen und wenn die Homepage durch unser Crawling zur englischen Version weiter geleitet wird, dann nehmen wir an, die Homepage ist auf Englisch und zeigen das dann manchmal wenn jemand zum Beispiel nach einem Markennamen sucht, wo wir die Sprache kennen können. Also wir sind der Kunde in dem Fall und wir hatten tatsächlich den X-Default drin und haben ihn aber dann auch rausgenommen auf Anraten hin, weil wir eigentlich gedacht haben, dass das der Grund sei weshalb es auf Englisch dargestellt wird, weil wir X-Default als Englische Sprache eingestellt hatten, weil wir einfach in ganz Europa agieren. Das heißt aber in dem Fall musst du dann der X-Default in Deutsch sein. Also ich vermute, ich habe das so eingerichtet, dass wenn man auf die Homepage geht dass es dann weiter leitet, oder? Richtig. Dann ist es so normalerweise oder in vielen Fällen, wenn man das einrichtet, ist es so, dass man die hreflang links zu den einzelnen Sprachversionen hat das heißt zur DE Version, zur englischen Version und dass die Homepage dann nicht ein Teil von diesen hreflang ist. Was man da machen müsste ist dann wirklich den X-Default auf die Homepage setzen damit wir wissen, dass die Homepage quasi automatisch weiter leitet. Dass wir wissen, die gehört quasi in diese Gruppe hinein und X-Default muss dann nicht einer speziellen Sprachversion zeigen sondern wirklich einfach zur Homepage allgemein wo ihr diese Sprachweiche dann eingerichtet habt. Okay. Ich kann vielleicht mal ganz kurz schauen, ob ich da irgendetwas sehe aber das ist immer ein bisschen heikel solche Sachen genauer anzuschauen so quasi live. Ich habe mir mal andere Shops angeguckt die das ähnlich handhaben mit Subfoldern in den Sprachen und eigentlich sieht das Setup ähnlich aus aber was will und will nur auf Englisch erscheinen Ja. Ich muss das mal in Ruhe anschauen. Okay. Nachdem wir heute die Nachricht erhalten haben dass ihr den Google News Performance Report vorgestellt habt die Frage ist es sinnvoll die Magazinbeiträge unserer LED leuchten Online Shops als News an Google zu übergeben. Es handelt sich hierbei um Tipps zu Einrichtungen LED Technik Design oder werden diese Inhalte nicht als News klassifiziert. Weiß ich nicht. Was ich machen würde ist das einfach mal einreichen und schauen was passiert weil gerade bei Google News ist es ja so, dass das quasi algorithmisch erst mal kontrolliert wird ob das überhaupt Sinn macht für Google News und wenn das Sinn macht für unsere Algorithmen dann wird das auch auf Google News dargestellt. Also es ist nicht so dass man da irgendeinen Nachteil hat wenn die Inhalte auch auf Google News dargestellt werden. Ich weiß nicht ob die Inhalte so wirklich den Richtlinien von Google News entsprechen würden aber das kann man ja mal nachlesen und kontrollieren ob das passen würde oder nicht. Aber es ist nicht so dass man irgendeinen Nachteil hätte wenn man in Google News auch sichtbar ist. Bei den Lighthouse Reports Warnung, Results may not be displayed properly report was created with an earlier version of Lighthouse Wo siehst du das? Und zwar wenn ich den Lighthouse Report mache direkt im Browser und da gibt es diese Extension von euch die Lighthouse Extension und wenn ich auf die drauf klicke sowohl im Firefox Browser als auch im Browser kommt diese Meldung kannst du uns da irgendwas dazu sagen gibt es da ein Update im Mixd oder ich war überrascht ich habe es heute selber erst mal gesehen. Ich weiß nicht also ich normalerweise wenn ich die Tests mache mache ich das jeweils direkt im Browser drehen also nicht mit irgendein Plugin das kann man ja machen wo ist das aber das Plugin macht nichts anders wie das es das Fenster aufmacht und eben die Lighthouse Extension verwendet ich weiß nicht was das Plugin macht der Lighthouse Fior ist das Google Chrome GitHub, der Lighthouse Fior und der verwendet das eben und dann zeigt er das auf der Oberfläche an und sagt eben man sollte auf die Version 7 umstellen drum habe ich mir gedacht weil das ist nämlich von euch das wird auch von euch empfohlen das zu verwenden ja okay, das war jetzt zu schnell okay aber vielleicht gibt es in den kommentenden Tagen mal einen Twitter einen Tweet von dir wo du das vielleicht ja noch mal aufgreifen ich frag mal nach ich mache das normalerweise die ganzen Lighthouse Sachen immer direkt in Chrome selber ist vielleicht ein bisschen schwierig zu finden, vielleicht haben sie weswegen das mit dem Plugin gemacht aber schauen wir mal nach da steht nämlich dann das ist dann vielleicht sogar die Seite schnelle ist ohne dass man was gemacht hat also bessere Werte schauen wir mal, okay, danke ich schaue euch mal nach cool als News Publisher haben wir viel alten Content der hinsichtlich EAT sehr schlecht sind macht es Sinn diesen alten Content zu überarbeiten also zu löschen und aus Google Index zu entfernen hat das Löschen inklusiv Material Index entfernt einen negativen Impact auf das Ranking das ohnehin sehr weit gefallen ist seit dem Core Update 2019 Core Update, okay schon eine Weile her grundsätzlich wenn man weiß dass man, sag ich mal schlechtere Inhalte auf den Seiten hat empfehlen wir schon entweder die Inhalte zu löschen oder die Inhalte neu zu überarbeiten und die Wahl zwischen diesen beiden Varianten liegt eher bei euch das heißt in manchen Fällen ist es so, wenn man die Inhalte anschaut dann sieht man, es lohnt sich nicht das neu zu überarbeiten vielleicht ist die Menge an solchen Inhalten wirklich so groß dass man das gar nicht groß überarbeiten kann oder dass man das mit vernünftigen Aufwand nicht überarbeiten kann und dann sagt man gut, wir nehmen diese Inhalte einfach heraus wenn ich bei unserem Quality Team Nachfrage wegen solchen Fragen dann sagen sie immer eher man soll doch die Inhalte verbessern wenn man die Inhalte schon mal erstellt hat dann lohnt es sich doch die zu verbessern ich denke aus praktischen Gründen ist das halt nicht immer machbar oder zumindest nicht ein vertretbarer Aufwand wenn man die Inhalte löscht reicht es aus unserer Sicht an für sich, dass man die Inhalte einfach löscht von der Website, wenn wir sie neu crawlen sehen wir das dann 404 ist oder ein No Index und dann nehmen wir die jeweils raus aus unserem Index und dann werden die entsprechend auch im Laufe der Zeit nicht mehr dazu gezählt zu dieser Website wenn man nur die manuelle Entfernungstool nimmt, dann ist es so, dass die Seiten in den Suchergebnissen verändern dass sie nicht mehr sichtbar sind aber man nimmt sie nicht aus unseren Systemen heraus das heißt, gerade in solchen Fällen wo man weiß, dass man Inhalte löschen möchte oder die Inhalte löschen dann ist es so, dass die Seiten wirklich nicht mehr existieren dann fallen sie aus dem Index heraus das heißt, mit dem Entfernungstool ist es so, dass man eher einfach die Sichtbarkeit dieser Seiten in den Suchergebnissen verändert wenn man Inhalte löschen möchte oder die man quasi ganz rausnehmen möchte würde ich nicht mit dem Entfernungstool arbeiten sondern die einfach ganz normal löschen lassen das Entfernungstool macht vor allem dann wenn man jetzt schnell etwas entfernen muss wenn man zum Beispiel eine Information veröffentlicht hat die man nicht veröffentlichen sollte oder wenn man etwas falsch hat und das irgendwie noch überarbeiten muss und neu machen möchte und wenn das nicht mehr sichtbar ist dann hilft das Entfernungstool weil dann wird es einfach nicht mehr dargestellt in Suchergebnissen aber wenn man Inhalte wirklich einfach aus dem ganzen Google System herausnehmen möchte muss man sie halt auf No Index oder 404 oder 410 setzen und dann erkennen wir das im Laufe der Zeit warum erkennt Google bei durchgekoppelten Begriffen die Entitäten bzw. Long Tail Keywords teilweise schlechter oder gar nicht als wenn man das Bindestrich weglässt ist das etwas an dem ihr arbeitet oder gibt es hier schon eine Empfehlung was man tun kann um euch die Erkennung zu erleichtern ich habe da jetzt nicht wirklich detaillierte Informationen aber ich weil ich das erkennen kann ist es so dass wir diese Wörter einfach als separate Keywords erkennen und dass wir die halt auch separat in unseren Systemen haben und was einfach in vielen Fällen passiert im Laufe der Zeit ist dass wir erkennen können dass eigentlich das Gleiche damit gemeint dass wir die eher als Synonyme betrachten können und das ist etwas was unsere Systeme an für sich automatisiert machen ist nicht irgendwie ein Sprachmodell was dazu kommt und versucht zu erkennen welche Wörter könnten Synonyme sein sondern wir haben da eigentlich die normalen statistischen Verfahren die wir verwenden für Synonyme allgemein und in vielen Fällen gerade bei Begriffen die häufig verwendet werden von Benutzern können wir das eigentlich relativ gut erkennen dass wir sagen können das sind 1 zu 1 Synonyme oder das sind Synonyme und dass wir die dann entsprechend zusammenfassen können und als SiteOwner muss man da eigentlich nicht spezielles machen was ich höchstens machen würde ist, wenn man weiß dass kritische Suchbegriffe so zusammengestellt werden oder in verschiedenen Schreibweisen vorhanden sind dass man da entweder mal ausprobiert welche Varianten irgendwie am besten passen für den Benutzer und anschaut welche Varianten werden am häufigsten gesucht oder wie sehen die Suchbegriffe die Suchergebnisse aus für diese verschiedenen Varianten und dass man aufgrund von denen sich für die eine oder andere Schreibweise dann entscheidet Kann ich dazu noch eine Frage stellen? Klar, klar Die Frage ist das mal von mir und ich hab da tatsächlich im Dezember mal ein bisschen rumgespielt weil ich bei einem Artikel den ich veröffentlicht habe gemerkt habe dass der mit den Keywürzen nachdem ein Benutzer sucht dieser Artikel nicht gefunden worden ist und ich hab da im Grunde den Text des Artikels genommen und hab den mal bei euch in die NLP reingeschmissen und habe festgestellt dass die durchgekoppelten Begriffe da nicht als Entität erkannt worden sind und habe dann die Bindestriche rausgenommen und die NLP hat mir dann gesagt ah jetzt weiß ich um was es geht deswegen die Frage heute letztendlich die Durchkoppelung ist im Journalismus ja eigentlich Gang um Geber deswegen die Frage warum erkennt es der Bot und auch die NLP in dem Text nicht wenn ich aber dann auch suche einen Artikel und nehme dort den Text Body und prüfe den dort wird es dann erkannt also was kann ich da konkret eigentlich tun wenn ich auch so ein Problem stoße ich denke der Ansatz ist an und für sich schon gut dass man das so ausprobiert mit der NLP API ist es natürlich so dass das nicht eins zu eins ist was wir in der Suche verwenden von dem her ist das immer praktisch sei ich mal als Hilfsmittel aber ich würde das nicht also etwas nehmen das wirklich eins zu eins so verwendet wird in der Suche ich weiß auch nicht wie das da in dieser API verwendet wird aber bei uns ist es natürlich auch so dass wir die ganzen umliegenden Texte auch dazu eingeziehen und dass wir aufgrund von dem dann auch die Entitäten ein bisschen besser erkennen können und wenn die umliegenden Texte für uns besser verständlich sind dann kann es gut sein dass wir das trotzdem matchen hingegen wenn man die einzelnen Wörter dann quasi Wort für Wort durchgeht dann ist das manchmal gut manchmal weniger gut ähnlich ist es natürlich auch in Englisch wenn man da zum Beispiel die britische Schreibweise die amerikanische Schreibweise hat dann sind das ja an für sich unterschiedliche Wörter und unsere Systeme haben nicht ein linguistisches Algorithmus der versucht zu erkennen das ist das gleiche Wort auf Englisch wie auf amerikanisch sondern wir versuchen solche Sachen eigentlich über unsere normalen statistischen Verfahren zu erkennen ich könnte mir vorstellen dass bei einigen Begriffen geht das besser und bei anderen Begriffen geht das weniger gut das heißt wenn wenn wir sehr viel Erfahrung haben mit einzelnen Begriffen dann klappt das wahrscheinlich gut weil wir da die Datenmengen einfach haben um sicher zu sein dass das jetzt Synonyme sind bei anderen Begriffen könnte ich mir vorstellen dass wir diese Datenmengen noch nicht haben und dass da halt diese Synonymserkennung nicht 100%ig funktioniert vom praktischen her würde ich sagen wenn man das Gefühl hat das kritische Suchbegriffe das man kennt könnte man einfach auch quasi hingehen und sagen ich nehme mal beide Varianten in mein Artikel hinein einmal so, einmal so ich weiß das ist nicht immer super sauber wenn man sich nicht festlegt auf eine von diesen Varianten aber manchmal hilft das in solchen Fällen ist natürlich auch immer die Frage wie kritisch diese Suchbegriffe sind für diese Seite manchmal ist es so das einzelne Wörter die Hintergründen werden aber die häufigsten Suchbegriffe trotzdem zu dieser Seite führen aber ich finde auf jeden Fall der Ansatz mit der NLP API finde ich super gut dass man da so auch versucht den Hintergrund ein bisschen besser festzustellen ich denke das ist etwas was wahrscheinlich die wenigsten machen würden wir haben aktuell eine Sidemap nur für unsere Seiten man soll angelegt macht es denn zusätzlich eine separate Sidemap nur für Bild anzulegen und wie bewertet Googlebot das über die Links in der Sidemap kommt Googlebot ja auch zu den Bildern an und für sich kann man so viele Sidemaps anlegen wie man möchte das ist euch total überlassen manche haben mehr Sidemaps, manche weniger Bilder sind so dass wir die nur über die Image Sidemaps Extension quasi erfassen können das heißt in der Sidemap Datei habt ihr an für sich die normalen URLs drin die normalen Seiten und dort gibt ihr zu den einzelnen Seiten dann noch an auf dieser HTML Seite sind diese Bilder noch vorhanden und so können wir dann erkennen welche Bilddateien zu welchen Landingpages gehören und können das ein bisschen besser verarbeiten was keinen Sinn hingegen macht ist wenn man die Bilddateien separat als URLs quasi einrichten eine separaten Sidemap Datei weil wir diese Bilddateien nicht aus HTML Seiten indexieren können wir können sie ja nur dann indexieren wenn sie ein Teil einer HTML Seite sind das heißt wenn man ein Bilder Sidemap einrichtet mit quasi diesen Landingpages in HTML Dateien und den einzelnen Bildern die da drauf sind ist das super wenn man hingegen nur die Bilder URLs in einer separaten Sidemap Datei einreicht macht das einen für sich keinen Sinn es ist auch nicht so dass man da einen Nachteil hätte es ist einfach so dass wir die Sidemap dann sehen würden und sagen wir konnten nichts von dieser Sidemap Datei indexieren und dann sieht das in den Gesamtstatistiken in Search Console manchmal ein bisschen komisch aus nach den mehreren Seiten nach dem Core Update abgestürzt sind haben wir uns die Abdeckung in der Search Console angeschaut und sind dort auf diverse Fehler gestoßen es gab hunderte URLs im Format Page, X, Taxonomy und Term wobei X mit jeder beliebigen Zahl ersetzen lässt und Y mit jedem Wort dies hat dazu geführt dass hunderte Seiten mit duplicate content sind ich vermute mal sehr stark dass einer der Google hier die gesamten Domains abgeschraft hat, dass ich nicht anders erklären lässt wieso ausführliche Artikel in der Nische absolut nicht ranken und Google stattdessen schlecht übersetzt automatisch generierten Content ranken lässt die Frage geht noch viel länger ich es ist schwierig zu sagen aufgrund von so einer allgemeinen Frage wie sich das jetzt auf euer Domain auswirft normalerweise ist es so dass wir technischen duplicate content einfach ignorieren das heißt wir sehen diese URLs wir sehen dass es zu den gleichen Inhalten führt und dann wählen wir ein Canonical und indexieren halt diese Canonical Version davon und in solchen Fällen wenn wir ein Canonical ausgewählt haben dann zählt eigentlich nur dieser Canonical URL für die Indexierung und für die Qualität der Website insgesamt dann ist es nicht so dass wir hingehen würden und sagen wir haben zwar eine Version indexiert wir haben aber hunderte Versionen gesehen und dass wir sagen das ist das schlechte irgendwie dran sondern wir nehmen wirklich nur die Version die indexiert wurde und so könnte ich mir vorstellen dass man das zwar sieht weil es ist ja natürlich nicht eine optimale Einrichtung dass man so viele Varianten von den so viele verschiedene Varianten von URLs hat die zu den gleichen Inhalten führen aber es ist nicht so dass wir das als Qualitätsproblem ansehen würden sondern das ist eher ein technisches Problem dass wir quasi sehr viel mehr crawlen müssen um zu diesen Inhalten zu kommen und von dem her könnte ich mir vorstellen dass es zwar Sinn macht das aufzuräumen einfach aus technischen Gründen aber dass das nicht die gesamte Wertung von einer Domain dann wirklich groß verändern würde es sei denn dass wir die wirklich wichtigen Inhalte gar nicht mehr indexieren konnten weil wir ständig diese anderen Sachen gecrawt und indexiert haben aber ich vermute nicht dass das in den meisten Fällen irgendwie zutreffen würde das heißt vom praktischen her würde ich sagen dass man da vielleicht noch weiter sucht und noch weiteren Problemen auch ausschauen hält und sich überlegt gerade bei Core Updates wenn das zeitlich etwas mit diesen Core Updates zusammenhängt dass man da überlegt was könnte da vielleicht noch relevant sein von meiner Webseite was könnte da noch einen Einfluss haben für die Core Updates haben wir ja mal eine Blogpost gemacht mit ich weiß nicht Zickfragen die man sich stellen kann über die Inhalte und das sind Sachen die würde ich gezielt mal mit Benutzern anschauen dass man wirklich ein klarer User Study auch mal macht und wirklich überlegt wo können wir unsere Webseite grundlegend verbessern wie können wir das klarer machen was die Hintergründe sind zu diesen Artikeln dass die Autoren entsprechend Leute sind die sich mit diesem Thema auskennen was kann man da machen dass all diese Sachen ein bisschen besser erkannt werden können einige SEOs beschäftigen sich ja mit diesem EAT und YMYL was ein bisschen in dieses Thema hineingeht ich weiß nicht welche Webseite da betroffen ist manchmal ist es so dass das schon ein bisschen dazu passen würde und gerade in solchen Fällen lohnt es sich auch die ganzen ich weiß nicht blog posts und Vorträge mal anzuschauen die SEOs zu diesem Thema gemacht haben es ist nicht alles 100%ig so wie wir das intern auch sehen würden aber es sind viele Gedanken dabei die wirklich auch sehr wichtig sein könnten wo man gerade im Bereich von Webseiten die vielleicht medizinischen Themen betreffen oder finanzielle Themen betreffen dass man da ein bisschen darauf achten könnte auf jeden Fall würde ich sagen dass dieses Duplicate Content Problem wahrscheinlich nicht die Ursache ist gerade wenn das mit einem Core Update zusammenhängt okay zeitlich kommen wir langsam zum Ende weiß ich wenn von euch irgendwelche Fragen sind könnt ihr gerne noch einspringen ja ich hätte noch eine Frage und zwar habe ich in den letzten Monaten ganz viele Produkte zusammengefasst auf eine Seite jetzt sind diese Seiten auf den mobilen Endgeräten ziemlich lang geworden ich würde jetzt gerne wieder die Produktvarianten also in den Index bekommen jetzt gibt es zum Beispiel Hersteller die einen Produktkatalog anbieten und diese Produkte sind dann alle praktisch in Index drin bei Google von diesem Produktkatalog führt dann der Link zum Kaufen in einen anderen Online Shop oder ging wir auf eine andere Seite wie würdest du das denn sehen wenn ich jetzt in einem zweiten Domain parallel zu dem Online Shop ja online stelle und dann die gesamten Produkte auf dieser Domain dann liste und diese konzentriert Produkte nur im Online Shop kann man ausprobieren also ich weiß nicht ob das grundlegend besser wäre weil es hilft uns natürlich schon zu erkennen was zu einer Website zusammen gehört dass wir das ein bisschen besser verstehen können, ein bisschen besser vom Ranking Herm machen kann manchmal wird das ja auch ausgegliedert eher aus praktischen Gründen dass man den ganzen Checkout Flow irgendwo zentral hat und dass man einzelne Domains hat mit dem Shop grundsätzlich würde ich sagen ich weiß nicht ob das mehr Aufwand gibt als dass man wirklich auch eine Vorteile davon hat schwierig zu sagen in so einem Fall würdet ihr denn eine Verbindung zu diesen beiden Domains irgendwie herstellen und dann auch den Online Shop eventuell abwerten oder könnte das eventuell passieren ich denke nicht, dass wir das schlechter betrachten würden ich könnte mir höchstens vorstellen dass wir quasi diesen Checkout Bereich oder diese Website mit nur den Produkten, das wir dann einfach sagen würden wir wissen nicht wie gut diese Website da ist und dass diese Seiten dann einfach separat nicht so wahnsinnig toll ranken wenn die Hauptseiten wirklich trotzdem die Übersichtsseiten sind wenn die weiterhin normal ranken dann ist das ja vielleicht aus seiner Sicht auch okay, oder? Ja, also es geht ja schon um die Doorway Pages so ein bisschen halt Ja, wenn das zwei Domains sind sehe ich da kein Problem gerade bei Doorway Pages ist das wirklich ein Thema wenn man zig Domains hat wenn man 20 oder 100 Domains hat die alle zum gleichen Checkout Flow gehen dann kann das Web Spam Team dann schon mal kommen und sagen das ist ein bisschen problematisch aber wenn das zwei Domains sind dann ist das halt manchmal so aufgeteilt das ist nicht besonders problematisch Ja, hattest du meine Frage beantwortet, gab es wegen dem Passage Indexing ich war kurz nicht da Ja, ja Okay, alles klar, dann höre ich mir das später an Ja, bitte Okay noch irgendwelche weiteren Fragen Ja, ich hätte noch eine Frage zu einer manuellen Abmahnung da haben wir jetzt eine bekommen für unser Jobversar zu BDE da ging es darum, dass wir speziell an den Stellen anzeigen ist ja, dass die in einem bestimmten Zeitraum online sind und dann werden sie halt offline genommen haben eine 404 und die strukturierten Daten, die wir mitgegeben haben für Google for Jobs haben den ganzen Inhalt der Seite der Stellenanzeige auch noch weiterhin an Google übermittelt, obwohl schon eine 404 war wir glauben, dass wir deswegen die manuelle Abmahnung bekommen haben jetzt ist meine Frage, ich bin kurz davor den Bericht einzusenden aber wie detailliert er sein muss also solchem DEF Team nochmal umgesetzt und dass wir diese Dokumentation mitliefern oder reicht es zu sagen es wurde gepickst und wir haben genau das Problem gepickst An und für sich kann man das kurz leisten muss man nicht wahnsinnig detailliert eingehen ich würde einfach sicherstellen, dass ihr in diesem Reconciliation Request klar sagt dieses Problem haben wir erkannt und diese Maßnahmen haben wir getroffen damit das behoben ist und quasi den ganzen Hintergrund und die 100.000 EUR die betroffen sind, das ist weniger relevant okay, super, vielen Dank ich glaube sich noch kurz ja, Entschuldigung ich war die ersten 9 Minuten da, da würde ich jetzt nochmal nachhaken, ob die Frage irgendwie eine Rolle gespielt hat, weil du es auch öfter erwähnt hast das Entfernentool ist ein bisschen allgemeiner die Frage, da wird ja von 6 Monaten gesprochen dass das rausgenommen wird mit der Sichtbarkeit jetzt wollte ich sicher gehen, bedeutet das das 6 Monate ist die URL draußen und danach wird neu gecrawlt oder bedeutet dass die Seite wird wieder sichtbar wenn während der 6 Monate nochmal die Seite rübergegangen wird mit dem Entfernungstool ist es so, dass wir das einfach in den Suchergebnissen unterdrücken das heißt es wird einfach nicht dargestellt wenn jemand danach sucht aber das ganze Crawling und Indexing findet weiterhin normal statt das heißt es ist nicht so, dass wir das Crawling anhalten für diese URLs dass wir das Indexing herausnehmen sondern das wird an für sich normal weiter gecrawlt und indexiert und wenn diese Entfernung abläuft wenn man nicht eine neue Entfernung rein nimmt dann kommt einfach der aktuelle Zustand von dann entsprechend wieder in die Suchergebnisse das heißt wenn man jetzt in diesen 6 Monaten noch Veränderungen vorgenommen hat auf dieser Seite und diese Seite wird neu indexiert neu gecrawlt in dieser Zeit dann wenn die Entfernung abläuft ist einfach der aktuelle Zustand dann sichtbar in den Suchergebnissen aktueller Zustand bedeutet jetzt ich will diesen Auftrag in nach ein paar Wochen stunieren dann wird der aktuelle Crawling-Zustand dann wieder neu angezeigt der von Boa an meinem Antrag dann angezeigt wird es ist auch nicht so, dass garantiert wird, dass wir in dieser Zeit quasi jetzt neu crawlen und alles neu beurteilen in vielen Fällen crawlen wir die Seiten, alle paar Tage oder alle paar Wochen manchmal geht es auch Monate bis wir die Seiten neu crawlen okay, danke noch wenn ich noch darf weil diese Frage ist eine Grundlage für ein großes Problem, das wir haben unsere Seiten wurden gehyggeckt gehackt und Fishingseiten injiziert und wenn man dann auf unsere Google Suchergebnissen geklickt hat ist man auf diese Fishingseiten gelangt jetzt habe ich quasi mit der Holzhammer Methode die ganze Domain rausgenommen mit dem Entfernungstool in der Hoffnung, dass diese Fishingseiten mehrere hunderttausend sind raus aus dem Index fallen so dass unsere Seiten dann wieder zurückkommen ist das so okay oder hätte ich es anders machen können effektiver manchmal macht es Sinn, dass man das so macht weil vor allem dann wenn man einfach die Sorge hat dass wenn jemand nach unserer Website sucht, dass man auf diese ganzen gehyggeckten Seiten stoß dann macht das vielleicht Sinn, dass man sagt ich nehme erstmal die gesamte Website raus dann habe ich ein bisschen mehr Ruhe ein bisschen mehr Zeit das Problem quasi grundsätzlich zu beheben das heißt auf dem Server all diese Seiten entfernen, die redirects entfernen was auch immer da gemacht wurde und dann wenn man diesen Entfernungauftrag wieder zurücknimmt dann quasi pendelt sich das wieder entsprechend ein zu dem was wirklich indexiert wurde das heißt aber auch wenn zum Beispiel hunderttausend gehyggeckte Seiten dazu eingereicht worden sind könnte ich mir vorstellen dass wir die nicht alles so schnell neu crawlen und dass es dann wirklich auch ein bisschen länger geht bis wir den quasi den neuen Zustand vom Server entsprechend indexiert haben das heißt wenn man den Entfernungauftrag dann quasi zurücknimmt, dann muss man erstmal wirklich ein paar Tage drauf achten und wirklich schauen ist das jetzt sauber in den Suchergebnissen oder muss ich da vielleicht noch weitere Schritte nehmen um wirklich all diese Seiten aus dem Index herauszuholen manchmal kann man das so angehen, dass man sagt ich nehme erstmal den gesamten Domain raus behebe das Problem und dann nach ein paar Wochen oder Monaten nehme ich den Antrag zurück und dann schaut man was quasi wirklich noch übrig ist und dass man dann einen beschränkteren Antrag zum Entfernen für diese übrigen Teile der Website dann noch einreicht ok, danke und erfahrungsgemäß bei über 100.000 Unterseiten, wie lange schätzt du könnte das dauern? was da passieren wird, ist dass die wichtigsten Seiten werden wir sehr schnell Neukrollen indexieren, das heißt innerhalb von paar Tagen oder paar Wochen und die weniger wichtigen Seiten die brauchen sehr lange, das heißt wenn ich die normalen Suchernfragen nehme die für diese Website normalerweise gestellt werden wenn jemand nach eurer Marke sucht oder nach euren Inhalten wahrscheinlich werden die relativ schnell sauber sein, hingegen wenn man gezielt nach Begriffen sucht die in diesen gehackten Teilen sind dann könnte ich mir vorstellen dass man diese Seiten noch weiß ich nicht ein halbes Jahr oder ein Jahr oder so noch sehen würde in den Sucher geben müssen vom praktischen her spielt das weniger eine Rolle, weil die normalen Benutzern suchen ja nicht nach diesen Begriffen das ist wirklich eher dass ihr vielleicht danach sucht weil ihr wisst, dass diese gehackten Seiten mal da waren, aber normale Benutzern sehen das dann natürlich nicht und dann ist es ein bisschen ja, müssen wir da jetzt noch etwas machen oder müssen wir nichts machen ich würde einfach auf das achten was, wonach Benutzer wirklich suchen weil der Rest ist ja quasi ist zwar indexiert aber niemand sieht das in den Sucher geben also macht das wahrscheinlich nicht viel aus okay, jetzt ist es ungefähr jetzt zwei Wochen her wird es wahrscheinlich noch zu früh wenn wir es noch bis Ende Januar mindestens lassen soll, damit Google das noch rechtzeitig macht das ist schon besser, oder? ich, also wenn das jetzt zwei Wochen her war und ihr habt das wirklich sauber aufgeräumt auf dem Server würde ich pro Beweise mal den Antrag zurücknehmen und wenn man das zurücknehmt, ist das ja innerhalb von einem Tag wieder sichtbar in den Suchergebnissen dann kann man das mal anschauen den Zustand beurteilen und aufgrund von denen dann entscheiden es könnte sein, dass nach zwei Wochen das da eigentlich schon die wichtigsten Inhalte bereinigt sind es kann auch sein dass man vielleicht noch ein paar Wochen länger warten müsste aber das kann man ja relativ schnell hin und her schalten und so organisieren ja, vielen Dank ja, bitte okay, dann machen wir mal Pause hier, vielen Dank für all die vielen Fragen unterwegs ich schau nochmal nach wegen diesem hreflang-Problem mit diesen indexierten Seiten ich kopiere vielleicht mal kurz meine E-Mail-Adresse hinein wenn wenn dazu noch echte Fragen kommen könnt ihr mich da gerne kurz ping ich kann nicht auf alle E-Mails beantworten, die bei mir reinkommen aber gerade in solchen Fällen, wo ein bisschen was Spezielleres ist versuche ich da schon herauszufinden was das sein könnte und was man da machen könnte okay, vielen Dank fürs Kommen ganz kurze organisatorische Frage, weil bei mir ist das Problem ja auch noch offen und du hattest noch ein bisschen nachhaken wie kommen wir da wieder zusammen soll ich dir eine E-Mail kurz schreiben dass du meine Adresse hast okay, super mache ich, alles klar danke dann wünsche ich euch noch einen guten Start ins neue Jahr hoffentlich habt ihr auch ein bisschen Schnee gekriegt ihr hattest jetzt richtig angefangen dass man auch ein bisschen normalen Winter noch dazwischen hat hoffentlich läuft bei euch alles sonst gut und wünsche euch eine gute Zeit bis zum nächsten Mal Tschüss allerseits Danke, ciao