 OK. Herzlich willkommen beim heutigen Google Search Central SEO Sprechstunden Hangout. Mein Name ist Johannes Müller. Ich bin Search Advocate bei Google hier in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster Sprechstunden Hangouts. Es sind schon einige Fragen eingereicht worden auf YouTube. Aber wie eigentlich üblich, wenn einer von euch loslegen möchte, seid ihr gerne dazu eingeladen? Allererst noch ruhig. OK. Ich hätte zwei kurze Fragen. OK. Also einmal, wir haben eine Kundin, die ist Ärztin und die taucht im Internet immer als Doktor, Vorname, Nachname auf. Sie hat auch ihr Google Knowledge Panel. Jetzt will sie aber eher gesehen werden als Doktor und dann nur ihr Nachname, also ohne Vorname. Und jetzt haben wir mal auf ihrer Website immer den Vornamen rausgenommen. Aber dann, was passiert ist, dann dacht anscheinend Google, dass es nicht mehr dieselbe Person ist. Und so. Und ich wollte mal fragen, was man so machen sollte, wenn man irgendwie Namensänderungen hat oder so was. Wie kann man das irgendwie gut Google zeigen oder wie auch immer? Ja, am einfachsten ist schon, wenn man das einfach direkt auf der Website anpasst. Und normalerweise wird das schon gemerkt von unserem System. Aber ich könnte mir vorstellen, dass es einfach eine Weile geht, bis sich das überall entsprechend anpasst. Mit den Knowledge Panel kann man manchmal zurückverfolgen, wo die Quellen sind für die Knowledge Panels. Und dann kann man das anpassen. Auch bei Knowledge Panel ist es, ich vermute gerade bei Personen, zumindest auch bei Firmen, ist es so, dass man die verifizieren kann. Das heißt, dass man sich anmelden kann, zum Beispiel mit dem Konto, wo die Website in Search Console verifiziert ist. Und dass man dann in den Suchergebnissen sagen kann, das bin ich. Und entsprechend, wenn man den Knowledge Panel dann so quasi verifiziert hat, dann kann man da gewisse Anpassungen auch direkt vornehmen. Ich weiß nicht, ob man da die Namensänderung direkt machen kann. Aber ich könnte mir vorstellen, dass es da am schnellsten so gehen würde. Ja, wir haben schon verifiziertes Knowledge Panel. Und wir haben es mal versucht. Aber das wurde dann bei Google wieder geblockt. Weil ich glaube, du kannst nicht einfach den Vornamen rausnehmen. Weil es zeigt nicht mal Doktoren, es zeigt nur Vornamen, Nachnamen. Aber wir können ja mal verschiedene Sachen ausprobieren. Ja, wichtig, gerade für die ganzen Knowledge Panel Sachen, ist einfach, dass wir wirklich klare eindeutige Daten haben. Dass wir das irgendwie möglichst überall konsistent vorfinden. Bei Firmenamen ist es zum Beispiel so, wenn es unterschiedliche Schreibweisen gibt und wir die verschiedenen Schreibweisen im Internet finden, dann kann es sein, dass wir nicht erkennen können, dass das alles die gleiche Firma ist und dass wir dann dementsprechend mehrere Einträge vielleicht haben in unseren Systemen zumindest und dass die einzelnen Einträge dann entsprechend nicht so stark sind. Das heißt, gerade bei so einer Namensänderung würde ich wirklich schauen, dass möglichst überall, wo der Name erwähnt wurde, bisher, dass man da vielleicht mal Kontakt aufnimmt mit denen und dass man da entsprechend die Namenssachen auch ändern lässt. So dass unsere Systeme, wenn wir quasi das ganze Web indexieren, dass wir überall sehen, das ist immer die gleiche Person, die da erwähnt wurde, dass wir wirklich auch erkennen können, das ist jetzt eine Einheit, die wir so entsprechend darstellen sollten in den Suchergebnissen. Mit dem Knowledge Panel weiß ich nicht, ob wir zum Beispiel nur Doktor statt vorne einen Vornamen zeigen würden. Ich könnte mir vorstellen, dass es da vielleicht Unterschiede gibt für Firmen gegenüber von Einzelpersonen. Und wenn Google zum Beispiel erkennt, dass es eine Einzelperson ist, könnte ich mir vorstellen, dass wir da einfach Vorname, Nachannahme zeigen, hingegen, wenn wir erkennen können, dass das zum Beispiel die Praxis von diesem Doktor ist, dass wir dann sagen würden, wir zeigen den Firmenamen an. Okay, vielen Dank. Und noch kurz, ich hatte eine Frage zu Proxy-Telefonnummern. Und zwar wir haben verschiedene Kunden, die zum Beispiel das Google My Business hat eine Telefonnummer, Website hat eine, dann irgendwie Yelp und so weiter, weil sie halt tracking wollen, woher die Kunden kommen. Und da wollte ich mal fragen, wie das Google sieht, ob man da irgendwas angeben soll oder ob man vielleicht alles auf eine Telefonnummer ändern sollte oder was der beste Weg ist. Ich weiß nicht, ob von Google My Business quasi von den ganzen Maps Einträgen her, ob es da bestimmte Richtlinien gibt. Das ist vielleicht das Erste, worauf ich mal achten würde. Aber ansonsten ist es ähnlich wie mit dem Namen. Je eher wir das eindeutig zuordnen können, umso eher können wir das auch so darstellen in den Suchergebnissen. Mit der Telefonnummer selber ist es wahrscheinlich nicht so kritisch, weil das wird ja dann eher als, ich weiß nicht, als Nebenattribut dargestellt, wenn man schon die Firma findet. Von dem her könnte ich mir vorstellen, dass es für die Suche weniger kritisch ist, auch dass wir wirklich eine eindeutige Telefonnummer überall finden. Ich weiß nicht, ob bei Google My Business, ob sie da vielleicht ein bisschen mehr auf das Zurücksicht nehmen müssen, dass man mehr erkennen müsste, dass es wirklich die Telefonnummer von dieser Firma. Okay, vielen Dank. Ich hätte sonst eine Frage noch. Mir ist eine Sache aufgefallen, vor Kurzem die Canonical trifft und AMP-Seiten. Das ist also ein Verhalten, was mir noch so nicht untergekommen ist, zumindest nicht, dass ich es gesehen hätte. Und zwar, wenn wir eine Seite haben, die wir mit einem externen Canonical versehen. Also wir haben cross-publizierte Inhalte auf zwei verschiedenen Seiten. Von der einen Seite auf die andere kanonisiert. Und dann die AMP-Version auch mit dem Canonical auf dieser externe Domain zeigt. Haben wir das Phänomen, dass wir jetzt in der Google Suche mobil auf dieses AMP-Ergebnis klicken, auf die externe Domain gelandet und nicht auf dem rankenden Artikel. Und das sehen wir auch in der Google News App. Das heißt also, wie gesagt, dort Artikel A oder Domain A rankt, man klickt drauf, ist aber dann auf Domain B. Und da wollte ich nur mal fragen, ist das ein neues Verhalten oder ist das ein Bug oder ist das irgendwie, ja, was ist das? Weiß ich nicht. Hab ich jetzt so noch nicht gesehen. Linkt aber auf jeden Fall so wie etwas, was nicht wirklich so passiert. Also, da wäre es wahrscheinlich praktisch, wenn ich ein paar Beispiele hätte. Wenn du mir irgendwas zuschicken kannst oder hier ein Chat was reinschreiben kannst, dann kann ich das nachher rauskopieren. Dann kann ich das mal genauer mit dem Team anschauen. Weil, normalerweise, wenn wir eine URL zeigen, dann sollte das schon eher zu der Website auch gehen. Mit AMP ist natürlich noch ein AMP-Cache dazwischen, was das ein bisschen komplizierter macht. Aber es sollte eigentlich schon vom gleichen Domain oder von der gleichen Website her entsprechend sein. Okay, würde ich gerne machen, dir ein Beispiel schicken, am liebsten dann per Direktdachricht. Ich kann dir kurz ansonsten die E-Mail-Adresse hier rein tun. Nicht wahnsinnig kompliziert zu finden. Ja, sehr gut. Dann mache ich das, ich schick mal ein Beispiel. Vielleicht findet ihr ja so was. Ja, und wenn andere das irgendwas Ähnliches haben, dann wäre es auch praktisch, wenn ich da so etwas sehen könnte, dann kann man da ein bisschen nachforschen, ob das so sein sollte oder nicht. Und wenn es so sein sollte, dass man das zumindest irgendwo auch dokumentiert. Wunderbar, danke erst mal. Mhm. Ja, Sandro, ich glaube, du hast die Hand oben. Herr Müller, schönen guten Tag. Sandro Wittkopf aus Berlin. Ich bin lange Seeo und das Thema ist immer... Es geht mir nochmal und jetzt habe ich die Chance genutzt. Es geht mir nochmal um Produkte und Varianten. Ich wollte einfach nur noch mal geklärt haben. Ich habe in einem Fachartikel gelesen, dass dieses Issimilatur doch gar nicht so von Google dann gelesen wird. Und meine Frage ist, wie man als Incommerce-Shop-Varianten am besten indiziert oder indexiert so, genau, was ist da das Best Practice, wo sollten wir da ansetzen? Der Isst-Zustand bei uns ist, dass wir alle Produkte auf Index haben, aber per Canonical auf einen Elternprodukt verweisen. Und in jeder Variante springt man über eine Facette, indem man sagt, ich möchte das vielleicht in blau, rot oder gelb, immer auf eine neue URL. Und das ist keine Session oder eine Parameter-URL, sondern eine eindeutige URL, weil das Produkt hat einen Artikel, eine Artikelnummer in der URL und somit ist sie unik. Genau, das ist der Isst-Zustand. Und ich kämpfe so ein bisschen gegen Windmühlen gefühlt und wurde jetzt durch diesen Fachartikel doch noch mal verunsichert, weil damals bei HUM24 haben wir mit Issimilatur gearbeitet. Jetzt bin ich woanders hingewechselt und hier wollte ich das gleiche eigentlich durchziehen. Und wie gesagt, dieser Fachartikel hat mich verunsichert und da wollte ich gerne noch mal Ihre Meinung hören. Ja, meines Wissens verwenden wir das Issimilatur überhaupt nicht, gerade für solche Produktvarianten. Aber allgemein ist ja da, denke ich, einerseits die Frage, wie man das für SEO machen möchte. Und da sehe ich es in den meisten Fällen so, dass es Sinn macht, dass man einfach weniger Seiten hat, die indexiert werden und die entsprechend stärker macht. Das heißt, wenn man verschiedene Größen und Farben hat, das möglichst die mit dem Canonical zumindest auf ein Artikelseite zeigen, sodass wir eine sehr starke Produktseite haben. Und das macht es für uns ein bisschen einfacher, wirklich die Seite auch zu zeigen in den Suchergebnissen. Mit dem Canonical ist es natürlich so, dass wir die einsten anderen Varianten nicht separat indexieren würden, sondern mit dem Canonical folgen. Und dementsprechend müssen oder sollten zumindest diese Varianten Namen auf der Hauptartikelseite erwähnt werden. Das heißt, wenn ich einen T-Shirt in verschiedenen Farben habe, dass man einfach die Farben auch da entsprechend erwähnt, sodass diese allgemeine T-Shirtseite für dieses Produkt entsprechend auch für die verschiedenen Farbesuchen in den Suchergebnissen erscheinen kann. Eine Sache, die mir, ich weiß nicht, relativ neu ist oder relativ kürzlich erst bewusst wurde, ist, dass gerade bei Google Shopping, wo man natürlich auch die Produkte in den Suchergebnissen sehen kann, ist es so, dass, ich glaube, Shopping braucht ja eindeutige URLs pro Artikel und das ist dann entsprechend auch für jede Variante separat. Und meines Wissens sollte das in der Situation, wie ihr das jetzt aufgesetzt habt, auch funktionieren. Das heißt, das sind ja dann einzelne Produktseiten mit Varianten, die zwar den Canonical auf die Hauptproduktseite verweisen, aber man kommt direkt auf diese Produktvariante zu, wenn man die URL entsprechend schon kennt. Und von dem her sollte das eigentlich so weit eigentlich gut funktionieren und es ist nicht so, dass man da noch extra Structure Data dazu nehmen müsste. Okay, alles klar. Also Quintessenz ist, auf eine Produktvariante fokussieren, dort nochmal die anderen Produktvarianten benennen. Und mit dem Istzustand, dass wir die anderen Varianten zwar auf Index haben, aber den Canonical auf unsere Hauptvariante zeigen lassen, stärken wir damit die Hauptvariante und dann damit SIO technisch nachhaltig und sinnvoll. Genau, genau. Die einzige Ausnahme, die ich da hätte, ist, wenn eine Produktvariante wirklich sehr stark selbstständig dasteht. Das heißt, wenn ich verschiedene T-Shirtfarben habe und die sind alle etwa ähnlich und dann habe ich noch irgendwie Gold lackiert oder irgendwas Besonders Spezielles, dann lohnt es sich, das vielleicht als wir als einzelnes Produkt herauszuheben. Einfach, wenn man wirklich sieht, dass das viele gezielt nach dieser Variante sind. Also sprich, wenn ich ins Langtälige gehe und sehe das genügend Nachfrage anhand von Suchvolumina, logischerweise, vorhanden ist, dass man dann sagen könnte, du bekommst eine Fleck als Produkt, du könntest als alleiniges Produkt ranken und da solltest du vielleicht dann aus diesem Canonical-Konstrukt rausgenommen werden. Genau, genau. Vielen Dank. Darf ich noch etwas hinzufügen? Okay. Also ich habe das Monate lang mit dem Canonical probiert. Ich gebe als Tipp auch mal, No Index zu probieren bei den Varianten. Weil es kann passieren, dass die trotzdem reinrutschen. Auch wenn die Seiten kanonisiert sind, dann kann es passieren, dass warum auch immer, vielleicht macht Google gerade ein Update oder sonst irgendwas bewertet, diese Seiten dann auch mal neu, dann rutschen die auf einmal rein in den Index und dann hast du wieder ein Problem. Also ich bin tatsächlich auf No Index umgestiegen. Ich denke, das kann man allgemein machen. Ich weiß einfach nicht, wie das bei Google Shopping dann entsprechend verarbeitet wird. Ob sie da vielleicht irgendwie wirklich indexierbare Seiten brauchen für die einzelnen Lightning Pages oder ob man das auch mit No Index machen kann. Ich vermute, mit No Index sollte das auch gehen. Das funktioniert. Das kann man speziell für den Ads-Bot auch setzen. Also da hat man extra Metatec. Also das klappt auch. Super. Dann nur noch eine Nachfrage. Ich habe gelesen, dass der Canonical auch den Indexwert vererbt. Wenn ich jetzt die Varianten halt alle auf No Index setze und dann das Canonical auf mein, sagen wir mal, eltern Element, eltern Produkt auf meine Hauptvariante setze, wird das No Index dann vererbt oder ist das abhängig können? Das No Index würde in solchen Fällen nicht vererbt werden. Was höchstens passieren kann, ist, wenn jemand gezielt auf eine dieser Varianten verlinkt, dass wir diesen Link dann entsprechend verlieren. Weil wir sehen dann im ersten Schritt erstmal No Index, wir indexieren die Seite nicht und dementsprechend gehen die Links zu dieser Seite sind, die gehen erst mal ins Leere. In den meisten Fällen, denke ich mal, gerade bei eCommerce-Sites, ist ja nicht so, dass einzelne Produktvarianten verlinkt werden. Wahrscheinlich ist das Verschwindeklein dieser Effekt dann in der Praxis. Okay, also sollte man die No Index-Variante befinden? Ich weiß es nicht. Es ist so, mit dem Canonical ist das für uns ein Zeichen, dass man da ein Canonical setzen möchte, eins auswählen will. Wir nehmen aber verschiedene andere Signale noch dazu. Und dann kann es eben doch passieren, dass wir die einzelnen Varianten auch indexieren. Oder wenn wir die zum ersten Mal sehen und noch nicht den Canonical erfasst haben, dann kann es passieren, dass wir sagen, gut, wir nehmen die erstmal so hinein ins Index. Und wenn das wirklich problematisch ist für die Website, wenn man wirklich diese Varianten nicht indexiert haben möchte, dann kann man sicher mit No Index dem entsprechend nachhelfen, dass man das versiert auf diese Hauptvariante geht. Ich vermute, in vielen Fällen muss man das nicht machen, aber schwer zu sagen. Ich würde an eurer Stelle, gerade wenn man da ein bisschen unsicher ist, würde ich das vielleicht mal testen, dass man sagt, bei einzelnen Produkten, wo man genug Daten erfassen kann, dass wir da mit dem No Index gehen, bei anderen einfach nur mit dem Canonical. Gut, danke. Ich hätte noch noch eine ähnliche Frage. Also es bezieht sich auf meine Tischflagenkategorie. Es gibt jetzt, also es gibt auch zum Beispiel wird gesucht nach kleine Tischflagen. Jetzt habe ich dafür keine Kategorie. Für kleine Tischflagen renkt auch die übergeordnete, also die große Tischflagenkategorie. Jetzt habe ich vor, ein paar Videos auch online zu stellen bei YouTube, zum Beispiel jetzt für die kleinen Tischflagen. Was würde in diesem Fall passieren? Würde ich zwei Treffer in den Suchergebnissen bekommen oder wird Google das erkennen, dass das zusammengehört und dann nur eins davon anzeigen? Es hängt ein bisschen davon ab, wie die Videos verwendet werden. Wenn die Videos eingebunden sind auf der Seite, dann hätten wir ja da eigentlich zwei Video-Landing-Pages sozusagen. Das heißt, wenn man nach diesem Thema sucht und Google denkt, wir zeigen ein Video an, dann hätte man einerseits die Seite auf deiner Website mit dem Video, die wir als Videovorschau zeigen können, andererseits auch die YouTube-Landing-Page, die quasi als Video-Landing-Page gelten könnte. Und da in einer solchen Situation, wo wir erkennen können, dass das gleiche Video an beiden Orten ist, dann müssen wir einen von diesen beiden auswählen. Ich denke, das kann man nicht vors... Ich weiß nicht genau, wie das bei YouTube geht, ob man das zum Beispiel als Unlisted setzen kann oder so etwas, was die YouTube-Landing-Page dann entsprechend auch auf No Index ist. Aber im Allgemeinen kann es passieren, dass ein von diesen beiden gezeigt wird. Und wenn deine Seite genommen wird, dann ist in den meisten Fällen wahrscheinlich der Fall, dass wir nur eine Seite von deiner Website nehmen würden und dann würden wir vielleicht diese mit dem Video, mit dem Video thumbnail nehmen. Wenn wir hingegen die YouTube-Seite nehmen würden, dann würden wir die YouTube-Seite mit dem Video thumbnail zeigen und entsprechend eine Seite von deiner Website. Okay. Und wenn es keine Verbindung zwischen diesen beiden Seiten gibt, also sagen wir einfach, das Video ist bei mir nicht eingebunden und auch nicht verlinkt von meiner Seite aus, könnte es dann auch sein, dass ich dann zwei Treffer bekomme? Ja, klar. Das ist einfach nur die YouTube-Landing-Page, quasi als Video-Resultat da und dann kann das gezeigt werden, ja. Okay, also dann kann praktisch die große Übergeordnete aus dem Shop gezeigt werden und das YouTube-Video dann praktisch. Genau. Aber wenn ihr versteht, dass es einen Zusammenhang gibt zwischen diesen beiden Seiten, dann würdet ihr nur eine Seite anzahlen. Eigentlich vom Zusammenhang ist weniger das Problem, es ist wirklich einfach, ob das Video eingebunden ist auf der Seite. Und wenn es nur verlinkt ist, ist auch total egal, aber wenn es eingebunden ist, dass wir sagen könnten, diese Seite auf deiner Website ist als Video-Landing-Page geeignet, dann würden wir sagen, wir nehmen einen von diesen beiden. Okay, dann könnte ich das Video aber auch über ein Link von der Tischlang-Kategorie pushen, also dann nach oben bringen. Okay, ja. Alles klar, probiere ich aus. Erst mal wieder so eine Sache zum Ausprobieren wahrscheinlich. Genau, ja. Alles klar, danke. Oliver, ich glaube, du hast noch die Hand erhoben. Jawoll, hallo zusammen. Grüße dich. Ich habe eine Frage zur Arztsuche auf Google. Und zwar gibt es bei sehr vielen Suchbegriffen unter anderem Handchirurg ein Sondersnippet von Google, wo man die Daten aufbaut. Und dort werden verschiedene Portale gelistet, auf denen Ärzte aufgeführt werden, auch das Telefonbuch beispielsweise und Doktolip. Und ich wollte einfach mal fragen, ob meine Vermutung stimmt, wie man da reinkommen kann. Und zwar, dass es rein an den strukturierten Daten liegt, dass dort die Ärzte eben auch als solche ausgezeichnet wurden über ein Schema-Markup, oder woran liegt das, wenn es das nicht ist? Weiß ich nicht, genau. Aber nicht der erste, der danach fragt. Ja, ich habe auch schon das Internet danach durchfostet und häufig die Frage gefunden, aber keine Antwort dazu. Ja, ich vermute, das hängt nicht nur mit den strukturierten Daten zusammen, sondern es ist wirklich einfach in erster Linie etwas Algorithmisches auf unserer Seite, das wir kennen können. Auf dieser Website sind sehr viele Listings vorhanden und die passen zu dieser Kategorie. Also können wir das so entsprechend zeigen. Aber was man da genau machen muss, ob man das quasi freigeben muss oder ob Google das immer automatisch selber findet oder ob man da, ich weiß nicht, irgendwie jemanden bei Google Partnerships quasi mal kontaktieren müsste, weiß ich nicht genau. Wenn du willst, kannst du mir vielleicht mal ein E-Mail schicken, dann kann ich da intern mal nachfragen. Ja, sehr gerne. Weil die Sache ist, also wir haben auch einen großen Konkurrenten, der aufgeführt ist, der deutlich weniger Ärzte aufhört als wir und auch im organischen Ranking danach teilweise sogar hinter uns steht. Deswegen habe ich gedacht, der einzige Unterschied ist, dass wir aktuell noch keinen Markup für die Ärzte integriert haben. War halt der Gedanke, dass es das vielleicht ist. Also das werden wir auf jeden Fall nachrüsten und dann schauen, wie sich das entwickelt. Aber ich würde dir dann auch sehr gerne die E-Mail schreiben. Sehr schön, vielen Dank. Ich mache mal kurz ein Pause mit den Live-Fragen und gehe mal kurz einige von den Eingereichten durch. Ich komme sicher noch zu euch zurück. Ein kurzes Moment. Okay, fangen wir vielleicht mal oben an. Eine Frage zu den Review Snippets, also den Aggregate Ratings, genauer zu den Shopbewertungen, lohnt es sich hier noch eine Implementation? Seit dem Update vor September 2019 wurde das Feature stark eingeschränkt. Spielt das künftig überhaupt noch eine Rolle? Weiß ich nicht. Müsste ich mal genauer nachfragen, was da der aktuelle Zustand ist. Aber es ist natürlich immer so, dass die ganzen Rich-Results-Arten mal ein bisschen mehr gezeigt werden, manchmal ein bisschen weniger gezeigt werden und das hängt auch sehr davon ab, welche Website das ist, wie gut Google diesen Daten entsprechend vertrauen kann auf der Website. Aber solange wir diese strukturierten Datenvarianten noch dokumentiert haben, ist es eigentlich schon das Ziel, dass wir die auch darstellen in den Suchergebnissen. Hat bei den Core Web Titles jede URL die gleiche Bedeutung, unabhängig davon, ob sie zum Beispiel ein Menü- und Seitenaufrufe am Tag hat oder nur einmal aufgerufen wird. In der Aufwertung in Search Console wird nur die Anzahl der URLs genannt. Das wäre das, ob alle URLs gleichwichtig sind. Super Frage, ein bisschen kompliziert. Es ist so, dass in Search Console und in den Chrome User Experience Report sind ja die URLs entsprechend kopiert. Das Ziel ist einerseits, dass wir erkennen können, welche Teile der Website entsprechend schnell sind, welche Teile der Website entsprechend ein bisschen langsamer sind. Das heißt, wenn eine URL in den Suchergebnissen dargestellt wird, also nehm ich jetzt mal an, dass wir jetzt im Mai sind und Core Web Titles, Page Experiences und Ranking Faktor, wenn wir eine URL darstellen würden, würden wir schauen, welche Gruppe die passt und dementsprechend dann eine Bewertung machen, ist das jetzt eine schnelle oder eine gute URL bezüglich Page Experience oder nicht. Das heißt, wenn ich URLs habe, die besonders sichtbar sind in den Suchergebnissen, die oft dargestellt werden, dann spielt das wahrscheinlich dort entsprechend ein bisschen mehr eine Rolle, indem das jedes Mal, wenn sie dargestellt wird, wird sie entsprechend so angepasst, bezüglich den Daten, die wir haben für Core Web Titles. Dementsprechend könnte man schon hingehen und sagen, diese URLs haben sehr viele Impressionen, da konzentriere ich mich eher auf die URLs. Das andere, was aber auch ein bisschen dort eine Rolle spielt, ist, dass natürlich Relevanz für uns immer noch wichtiger ist, als nur Speed, also nur Page Experience. Das heißt, URLs, die nicht so stark im Wettbewerb sind in den Suchergebnissen, sehen natürlich viel weniger starken Effekt von Page Experience und von Core Web Titles. Das heißt, wenn ich einzelne URLs habe, die zwar Millionen Impressionen kriegen am Tag, aber jedes Mal sucht man gezielt nach den Firmennamen, dann macht es ja eigentlich Sinn, dass wir immer diese Website oder diese URLs zeigen in den Suchergebnissen und dann ist es nicht so, dass ein problematischer Core Web Weitelswerte das dann entsprechend herunterdrücken würde. Wenn ich gezielt nach einer Website suche, dann wäre es ein Fehler auf unserer Seite, ich zeige euch lieber ein Blogger, der über diese Firma geschrieben hat, statt die Firma selber. Das heißt, einerseits könnte man auf die Totalanzahl Impressionen schauen und andererseits könnte man natürlich auch schauen, wie weit sind das Impressionen, die, sag ich mal, gefährdet werden von bezüglich Relevanz, ob das jetzt quasi Brandqueries sind, also Suchern fragen, wo man gezielt nach der Firma sucht oder ob das eher Longtail-Suchern Fragen sind, wo da entsprechend mehr Konkurrenz ist. Das ist eine Beurteilung, die wir nicht so gut selber machen können. Manche SEO Tools können das ein bisschen besser unterscheiden oder unterscheiden das halt auch und da könnte ich mir schon vorstellen, dass man da etwas zusammenbauen könnte, wo man sagen könnte. Google kennt diese Gruppierungen und diese Gruppe innerhalb deiner Website ist quasi die, worauf man sich erstes konzentrieren sollte, bezüglich Core Web Vitals. Das Ganze ist natürlich jetzt, wenn man nur die SEO Ansicht anschaut, wenn man das natürlich ganz, ganzheitlich anschaut, dann möchte man natürlich auch, dass die Benutzer auch von diesen Core Web Vitals Werten entsprechend profitieren und da könnte man auch sagen, ich schaue an, welche URLs im Allgemeinen am meisten Traffic kriegen. Das heißt nicht unbedingt der Suche oder sonst her, sondern die einfach am häufigsten gebraucht werden und das man natürlich auf die konzentriert. Weil wenn man natürlich die Website dort verbessert, wo die meisten Benutzer das sehen, dann hat man vielleicht auch am meisten indirekten Effekt von einer Verbesserung. Also gibt es da verschiedene Varianten, die man anschauen könnte. Wir haben uns im ersten Moment dafür entschieden, dass wir einfach die URLs darstellen, dass wir das so zeigen, ähnlich wie die anderen Sachen in Search Console. Wenn man das natürlich als Tool anders darstellen möchte, kann man das auf jeden Fall machen. Die Chrome User Experience Report Daten sind ja öffentlich, die kann jeder auf die zugreifen. Ich glaube, es ist auch nicht so, dass man da verifiziert sein muss, für bestimmte Websites, da kann man diese ganzen Daten auch holen. In Search Console kann man ja die Data Report Daten auch herunterladen oder per API holen und so könnte man das dann einigermaßen kombinieren, wenn man möchte. Dann eine Frage zu Brückenseiten, Doorway Pages. Wie kann ich Brückenseiten verhindern, wenn man ein Business in der gleichen Kategorie, Fotografie in zwei verschiedenen Märkten über zwei verschiedene Websites ansprechen möchte. Die beiden Websites haben folgendes gemeinsam, Adresse, E-Mail, Telefonnummer, Steuernummer. Wertet Google das als Doorway Pages. Wenn das eine kleine Anzahl Websites sind, würde ich mir da überhaupt keine Sorgen machen. Dann ist das auf jeden Fall nicht so, dass wir algorithmisch oder dass unser Web Spam Team das anschauen würde und sagen würde, das sind Doorway Pages, da müssen wir irgendwie eingreifen und speziell etwas machen. Das heißt zwei verschiedene Websites, sag ich mal bis fünf verschiedene Websites sehe ich überhaupt kein Problem. Der einzige Nachteil, den man natürlich da hat, ist, dass man mehrere Websites hat, die unter Umständen miteinander konkurrenzieren würden. Und dementsprechend hat man natürlich verschiedene Websites, die eher mittelstark sind, als dass man eine Website hat, die sehr stark ist. Und je nach Gebiet, je nach Konkurrenzsituation, könnte man natürlich sagen, es macht Sinn, wenn ich eine besonders starke Website habe, damit ich überhaupt irgendwie in die erste Seite der Suchergebnisse komme. Oder es macht Sinn, dass man sagt, ich möchte gezielt die einzelnen Orte auch ansteuern und ich weiß, dass innerhalb dieser einzelnen Orten bei diesen Longer Tail Queries, dass man da trotzdem noch relativ gut sichtbar sein kann. Aber eben wie gesagt, bei zwei Websites, bei drei, fünf Websites, würde ich mir da auf jeden Fall bezüglich Quasi Quality oder Web Spam würde ich mir da keine großen Sorgen machen. Doorway Pages sind für uns, vor allem dann problematisch, wenn wir wirklich sehen, das sind sehr viele Seiten, sehr viele Websites oder, sag ich mal, eine mittlere Anzahl von Websites, die insgesamt sehr viele Seiten dann dort haben, wo wirklich alles dukliziert ist. Dann ist es einerseits aus technischen Gründen für uns problematisch und dann kann es auch relativ schnell aus Qualitätsgründen ein bisschen problematisch werden und wir einfach die Suchergebnisse voll mit der gleichen Website quasi zeigen. Wie viel Zeit muss ich Google ungefähr gebeten, bis meine 301-Weiterleitungen verstanden werden und diese wieder deaktivieren kann? Wenn es dafür keinen Richtwert gibt, kann ich irgendwie selbst überprüfen wie viele Weiterleitungen man inzwischen verstanden hat. Es gibt da an und für sich kein Richtwert. 301 ist eigentlich eine permanente Weiterleitung. Das heißt, theoretisch müsste man sagen, man sollte das immer haben, diese Weiterleitung, weil es könnte ja sein, dass wir zum Beispiel einen neuen Link oder einen alten Link finden, der auf einen von diesen alten Seiten verweist und dass wir dann die alte URL wieder crawlen wollen und dann mit dem Redirect die neue Websites werden müssen. Praktisch gesehen ist es so, dass wir versuchen möglichst alle Seiten spätestens nach ich weiß nicht, 4, 5, 6 Monaten zu crawlen und wenn man zum Beispiel sagen würde, man nimmt einen Zeitraum von einem Jahr, dann sollte es eigentlich so sein, dass wir all diese alten Seiten mit dem Redirect mindestens 2-mal schon gesehen haben mit dem Redirect und dass wir da diese Information mit diesem Redirect eigentlich schon haben sollten. URLs, die weniger häufig gecrawlt werden, sind in der Regel auch weniger wichtig für eine Website. Das heißt, im schlimmsten Fall, wenn wir nach 1,5 Jahren eine alte URL finden würden und die gibt davon auf 4.04 zurück, dann wäre das weniger tragisch, weil das ist dann eine URL, die wir nach 1,5 Jahren erst mal wieder gecrawlt haben. Die kann ja nicht so relevant sein für die Website. Wenn es hingegen ein bisschen kompliziert immer ist, ist, wenn man gezielt nach der alten Website sucht, dann kennen wir auch längerfristig diese Verbindung zwischen der alten Website und der neuen Website. Das heißt, wenn ich zum Beispiel eine Side-Abfrage mache mit dem alten Domain-Namen, dann ist es total normal aus unserer Sicht, dass wir den URLs von der alten Website auch weiterhin zeigen, selbst nach mehreren Jahren, redirect schon sehr oft gesehen haben. Einfach, weil wir wissen, dass es deinsprechend eine Verbindung gibt zwischen dieser alten Website und diesem neuen Website und wir möchten den Benutzer eigentlich quasi darstellen. Wir wissen, wovon auch du suchst und dementsprechend zeigen wir dann auch diese alten URLs trotzdem noch an in den Suchergebnissen. Wenn man die gecachede Seite anschaut, dann sieht man aber auch, dass wir eigentlich die neue Seite schon gecached haben. Auch von der URL her ist da die neue URL entsprechend dabei. Das heißt, wenn man das jetzt praktisch umsetzen möchte und irgendein Zeitrahmen braucht, wo man die redirects abstellt, ich würde sagen mindestens ein Jahr, wenn man länger machen kann, ist natürlich optimal, aber zumindest ein Jahr, dass man wirklich sicher ist, dass Google das sauber verarbeitet hat. Wir stehen aktuell vor einer Herausforderung, eine Website für den US-Markt. Im Moment haben wir bereits eine Website brand.de für den deutschen Markt und brand.com, eine englische Version für den Rest der Welt. Nun wollen wir eine weitere Website brand.usa.com speziell für den US-Markt starten. Die US-Website wird zum Start eine schmalere Version der .com Website sein. Der Inhalt wird im Laufe des Projekts für den US-Markt geeignet. Eine direkte Verknüpfung via Sprachschalter ist nicht geplant. Wie wichtig ist HFLang an dieser Stelle? Oder ist es überhaupt notwendig? Gerade zum Start sehen wir ein Problem bezüglich dupliker Content. Da die neue Website jedoch getrennt von der bestehenden Englischsprachen-Website erstellt wurde, kann HFLang nicht ohne großen Aufwand integriert werden. Was ich vermute, wenn man das einfach so startet und keine Verbindung dort hat, wird es wahrscheinlich so sein, dass die allgemein englische Website in erster Linie ranken wird in den Suchergebnissen. Das muss nicht unbedingt problematisch sein, aber das wird wahrscheinlich so sein, einfach weil die allgemein englische Website wird zumindest beim Start sehr viel stärker sein als diese neuere Website, die man speziell für US-Markt gemacht hat sein und dementsprechend wird sie auch viel sichtbarer sein selbst wenn man zum Beispiel nach dem Markennamen sucht. Insbesondere wenn man keine Verlinkung hat auf einer Seitenebene zwischen diesen verschiedenen Varianten, dann ist im Prinzip diese brand-usa.com die Website ist ein ganz neuer Website, die erstmal bei 0 anfangen muss mit allen Signalen, die ich erst mal aufbauen muss und da könnte ich mir schon vorstellen, dass es eine gewisse Zeit geht, bis da wirklich etwas geht. Wenn man das ein bisschen schneller machen möchte, würde ich auf jeden Fall schauen, dass man für die wichtigen Seiten, dass man da entsprechend Crosslinks hat zwischen den einzelnen Versionen, von der allgemeinen englischen Variante auf die US-Variante vielleicht entsprechend zurück und so, dass wir wirklich für jede Seite, die bereits schon existiert, dass wir wirklich auch Signale weitergeben können an diese neue US-Variante und das muss nicht für jede Seite innerhalb der ganzen Website sein, ich würde aber zumindest schauen, dass man für die wichtigeren Seiten das macht einerseits die Seiten, die man selber wichtig findet, andererseits die Seiten, die auch sehr häufig becrawlt werden, wo man merkt, dass Google denkt, das sind wichtige Seiten. Mit dem hreflang würde ich versuchen da zumindest auch für die wichtigen Seiten das einzurechten. Insbesondere würde ich da schauen, dass man da zumindest mit der Homepage vielleicht mit den wichtigeren Kategorien zeigen, dass man das irgendwie integriert. Wenn es sein muss von Hand, dass man das so einbaut wenn die einzelnen Produktzeiten das nicht verwenden ist das weniger kritisch aber mit dem hreflang kann man sicherstellen, dass wenn jemand in Amerika nach dem Brand sucht dass wir erkennen können, ah das ist die Homepage von der Brand und wir haben eine US-Variante dieser Homepage, dann zeigen wir die US-Variante der Homepage das ist nicht garantiert, dass das so funktioniert aber ohne hreflang würden wir entsprechend diese Seiten einzurenken und wenn die deutsche Variante, sag ich mal die super starke Variante ist, dann zeigen wir vielleicht die deutsche Variante an und nicht einmal die allgemein englische Variante und das ist wahrscheinlich dann eher ungewollt. Was ich auch machen würde weil hreflang nicht garantiert ist, würde ich versuchen um den JavaScript eign ein banner einzubinden um zu erkennen, wenn Benutzer in diesen Ländern sind dass wir da entsprechend einen Verweis auf diese Variante machen das heißt auf der deutschen Variante wenn jemand aus Amerika drauf geht dass per JavaScript ein banner zum Beispiel dargestellt wird und sagt, wir sehen dass du aus Amerika kommst wir haben neuerdings eine US-Vertretung hier ist die Website weniger, dass man aus SEO gründen dass irgendwie konzentriert oder weiterleitet sondern dass man einfach die Benutzer dort abfangen kann wenn sie irgendwie zur falschen Variante kommen. Und das kann natürlich über die Suche kommen wie gesagt hreflang ist nicht garantiert es kann aber auch über alle anderen Varianten kommen, dass jemand auf Facebook auf den Link klickt oder auf einer anderen Website auf den Link klickt und dann irgendwie auf die falsche Variante kommt wenn man von dort aus gezielt auf die richtige Variante kommen kann dann ist das alles ein bisschen einfacher hreflang wie gesagt, muss nicht auf allen Seiten sein auch diese Querverlänkung muss nicht auf allen Seiten sein ich würde da hreflang vor allem einsetzen wo man das Gefühl hat dass Benutzer vielleicht verwirrt werden oder wo man das Gefühl hat, dass Google mit den Suchanfragen nicht 100% klar kommt das heißt, wenn ich nach der Marke suche und dann noch USA dazu tue, dann ist eigentlich klar welche Website da relevant ist hingegen wenn ich nur nach dem Markennamen suche und der Markennamen wird gleich verwendet in verschiedenen Sprachen dann weiß Google ja eigentlich gar nicht welche Sprache-Variante gemeint ist und dementsprechend hilft dann die hreflang-Verlänkung dass man da die richtigere Variante darstellt ja ganz viele Sachen die man da berücksichtigen muss immer ein bisschen kompliziert mal kurz schauen da eine Frage noch Megan, Discover-Traffic in welchem Zeitraum kann man einen Zunahme des Traffics aus Discover rechnen wenn man Werbeplätze entfernt oder alte Inhalte depublikiert es gibt da eigentlich nicht einen gewissen Zeitraum für Discover aber Discover baut natürlich auf den indexierten Daten auf und solange da keine manuelle Maßnahme vorliegt ist es eigentlich eher eine Frage davon wann wir diese Daten neu indexiert haben, wann wir sie neu überarbeitet haben und normalerweise gerade bei Qualitätsbeurteilung ich vermute mal, das geht in die Richtung sind das Sachen die einfach in gewisse Zeit brauchen da kann man nicht einen gewissen Zeitraum sagen einmal im Monat wird das nachberechnet sondern da müssen wir erstmal diese Signale längerfristig sammeln und das kann schon mehrere Monate gehen vielleicht da nochmal nachgefragt kurz speziell wenn es darum geht wenn man stark vermarktet ist als Publisher, dann hängt ja schon auch die Einnahmesituation stark an den Werbeplätzen dran wenn man jetzt sagt, okay ich entferne Werbeplätze, dann verbessere ich zwar die Qualität für die User aber wenn das jetzt über einen Zeitraum von 4, 8, 6 Wochen geht dann kommt die Chefetage und sagt natürlich oh die Einnahmen gehen runter und gehen runter mach was Seeho das rechnet sich nicht und von daher die Frage ab wann könnte man so was sehen wenn das tatsächlich an den Punkten verbessert oder wenn man zum Beispiel migriert von der m.domain da hat mir auch so die Hoffnung dass man dann schnell Auswirkungen sieht mit m.data & responsive designs sollte das eigentlich relativ schnell gehen sollte auch nicht so sein dass das einen Einfluss auf Discover hat oder zumindest so weit ich weiß bei Discover die Situationen wo ich gesehen habe dass unsere Algorithmen angefangen haben eine Website weniger zu zeigen sind eher wo wir der Gesamtqualität der Website vielleicht nicht mehr so vertrauen können wo wir das Gefühl haben die ist vielleicht nicht mehr so gesamthaft relevant und da würde ich jetzt behaupten in den meisten Fällen ist es nicht eine Frage der Anzahl Werbeplätze die dargestellt werden sondern wirklich einfach die Gesamtqualität der Website und manchmal kann man mit den gleichen Werbemitteln auf der Website die Qualität trotzdem entsprechend verbessern das andere bei Discover es gibt ja da gewisse Content-Lichrichtlinien für Discover die wir auch versuchen automatisiert umzusetzen und da würde ich vielleicht auch mal schauen ob man da diesen Richtlinien wirklich sauber entspricht oder ob es da irgendwas gibt was man dort verbessern könnte cool, danke da noch mal ganz kurz nachgefragt aber muss man zwingend alte Sachen von denen man denkt da haben wir jetzt inhaltlich die Qualität nicht so richtig gut getroffen sollte man die auch depublikieren oder ist das wenn das jetzt ältere Sachen sind die ein Vierteljahr alt sind oder ein Monat alt sind werden die dann irrelevant oder besser dann sagen das nehmen wir auch von der Seite an bei Discover ist es ja eher so dass wir uns auf die neueren Inhalte konzentrieren und das sind ja auch eher die neueren Inhalte die dargestellt werden von dem her würde ich zumindest schauen wenn man das verbessert dass man ab da konsequent diese Qualität entsprechend auch umsetzt ich könnte mir vorstellen dass bei den meisten Websites quasi die älteren Sachen einfach so irrelevant werden dass sie da gar nicht dazu oder dagegen zählen es hängt natürlich ein bisschen von der Art der Website ab die sehr viel Evergreen Inhalte hat und noch ein News-Bereich hat dann sind natürlich diese Evergreen Inhalte trotzdem noch relevant auch wenn sie schon älter sind und da könnte ich mir vorstellen dass bei einer Gesamtbeurteilung der Website dass das natürlich noch dazu kommt hingegen wenn es wirklich eine reine Nachrichtenseite ist dann sind ja eigentlich immer die tagesaktuellen Themen quasi im Vordergrund und da ist es so die neuen Sachen konzentrieren kann cool super, danke ich hätte dazu auch nochmal eine kurze Frage und zwar gab es da so ein Twitter-Post heute glaube ich mit dieser Pyramidenstruktur hier von der Seitennavigation dass Google empfiehlt anstatt einer flachen Hierarchie eine Pyramidenstruktur so etablieren jetzt frage ich mich für diese Relevanz gilt das dann auch das was ganz hinten ist ist natürlich dann unrelevante das wäre ja bei diesen News-Artikeln dann genauso also so habe ich das jetzt auch richtig verstanden meistens also mit dieser Pyramidenstruktur ist natürlich die interne Verlinkung gemeint und das ist ja eigentlich das was du und sagst das ist jetzt das wichtigste quasi oben auf der Pyramide und die anderen Inhalte sind entsprechend ein bisschen verteilt auf der Website das heißt allerdings nicht dass das wirklich für uns auch die wichtigsten Inhalte sind wenn man zum Beispiel eine größere Firma hat und die ist bekannt für eines ihrer Produkte dann ist diese Produktseite die vielleicht irgendwo unten in der Pyramide ist ist vielleicht für uns das relevanteste von dieser Website das heißt einerseits sagt die Website das ist meine Struktur meine Homepage ist das Wichtigste aber auf der anderen Seite sehen wir vom Web eigentlich ist diese eine Produktseite das Wichtigste von der Website und das sind dann so die beiden Teilen die miteinander da ein bisschen zusammen spielen kann in den meisten Fällen ist es so, dass im Internet allgemein natürlich das auch eher nach oben weiter ich weiß nicht wie hoch das blubbert und dass man entsprechend auch sehen wirklich die Homepage ist das Wichtigste und dann stimmt das ja ein bisschen auch überein, dass wir erkennen können die Website sagt die Struktur ist so vom Internet her erkennen wir auch erkennen dass quasi dieser Teil hier oben wirklich das Wichtigste ist und dann ist es weniger eine Frage davon passt das zusammen oder nicht aber es ist nicht unbedingt schlecht wenn, sag ich mal, ein Produkt wirklich das Wichtigste ist von einer Website ist es einfach etwas das man dann als Webmaster berücksichtigen muss und denken muss ja, meine Firma ist bekannt für dieses eine Produkt vielleicht muss ich das ein bisschen mehr in den Vordergrund stellen vielleicht muss ich das ein bisschen mehr auf meiner Homepage erwähnt dass man wirklich das auch ein bisschen zusammennehmen kann dass man das selber stärkt was eh schon gestärkt wird extern dass man da wie so ein Rückkopplungseffekt hat würde man denn die Qualität runterziehen also der gesamten Domain wenn man jetzt diese Verästelung ganz weit macht also es ist wieder dieses Problem mit diesem Varianten also ich bin jetzt im Moment auf Noindex funktioniert sehr gut ich sehe aber auch Konkurrenten die jetzt nicht Noindex haben und dann diese Struktur also diese, ich sag mal so eine Art Pyramidenstruktur über parkinierte Seiten weil wir dies machen aber da sehe ich das zum Beispiel also diese Anzahl an Produkten die Domain jetzt nicht unbedingt qualitativ runter abwertet also das würdest du jetzt nicht sagen dass das jetzt passieren würde oder doch, ja also nur eine Menge von Produkten würde die Qualität nicht herunterziehen wenn die Produktzeiten jetzt quasi minder wertig wären und dann wieder runterziehen was einfach passiert mit der reinen Menge ist, dass wir quasi die Signale einfach ein bisschen verdünnen müssen das heißt wenn ich die Signale konzentrieren kann und wenn ich jetzt stark im Konkurrenzkampf stehe mit anderen Websites dann hilft mir eine stärkere Seite eher wenn hingegen ich die Konkurrenz da weniger stark ist in bestimmten Bereichen da erscheinen und dann ist es einfach die Frage stärke ich meine Hauptseiten oder stärke ich den Longtail ein bisschen mehr und manchmal ist das eine strategische Entscheidung wo man sagen muss ich möchte mehr auf Longtail konzentrieren oder ich möchte eher auf quasi den Headbereich konzentrieren je nach Website je nach Situation kann sich das auch im Laufe der Jahre verändern jetzt bin ich der Amazon der Flacken vielleicht nehme ich all meine Seiten auf Index kann hier passieren ja ok ich sehe jetzt in letzter Zeit wieder das Affiliate-Seiten also du hast teilweise 3 Treffer irgendwie von Amazon 2 Produkttreffer darunter dann noch eine Affiliate-Seite gerade in diesem Flangenbereich weiß ich nicht was da jetzt wieder passiert ist aber die Rutschen irgendwie wieder rein oder diese eine Seite rutscht da wieder ein vielen Dank ok cool irgendwelche weiteren Fragen von euch womit kann ich noch helfen zwischendurch sehe ich immer so erhobene Hand und dann verschwindet sie wieder ich würde mich ganz kurz einschalten weil vielleicht ergänzend zu der Frage nur um das nochmal ganz klar zu fragen also ein hoher Anteil an No-Index-Seiten ist nicht zwingend ein Merkmal für eine schlechte Qualität sozusagen das stimmt ja vielen No-Index-Seiten vielen 4-0-4-Seiten wenn man sie nicht so indexiert haben möchte ist überhaupt kein Problem bezüglich Qualität ich hab fast 90% doch No-Index also es funktioniert wie viel Prozent? 90 ungefähr wow ok also nur Einstieg-Seiten und dann öffnet sich praktisch die Welt der Flagen hinter den Einstieg-Seiten ok, das ist gut zu wissen gut, danke cool noch irgendwelche weiteren Fragen nicht spezielles mehr ok, mal kurz die eingereichten Sachen durchschauen ob es irgendwas Korts gibt, was wir noch anschauen könnten die Varianten haben wir kurz angeschaut auch mit den Redirects haben wir das kurz angeschaut 404 oder 410 ist ähnlich fast wie No-Index schauen wir das vielleicht kurz an also theoretisch ist es so, dass 404 sagt eigentlich, dass eine Seite im Moment nicht erreichbar ist und deutet eigentlich an, dass sie vielleicht wieder zurückkommt 410 bedeutet theoretisch, dass die Seite wirklich weg ist aus theoretischer Sicht unterscheiden wir da ganz leicht intern bei Google das heißt, wenn wir sehen, dass eine Seite auf 404 ist dann schauen wir die vielleicht noch einmal an, irgendwann im zweiten Moment und sehen ob sie wirklich 404 ist und dann nehmen wir die Seite aus dem Index bei 410 geht das ein ganz kleines bisschen schneller aufgrund von dem kommen natürlich viele SEOs auf die Idee, gut, wir nehmen immer 410 damit das Ganze immer schneller geht aber im Endeffekt das macht das nicht wahnsinnig viel aus weil wir die Seiten innerhalb einer Webseite natürlich auch mit unterschiedlichen Geschwindigkeiten crawlen und dann ist es nicht so dass man da 1 in Seiten auf 410 setzen kann und morgens sind sie weg sondern das geht eh immer noch weiter und von dem her bin ich eigentlich auf den Standpunkt gekommen, dass die meisten Webseiten müssen da eigentlich nicht unterscheiden zwischen 404 und 410 weil längerfristig verschwinden diese Seiten sowieso aus den Suchergebnissen das muss man ja nicht forcieren wenn man etwas schnell weghaben möchte dann würde ich eher die Entfernungstools nehmen, damit das wirklich möglichst schnell verschwindet also schnell meine ich, wenn man zum Beispiel einen Namen veröffentlicht hat den man nicht so oft oder wenn man irgendwelche Informationen auf der Webseite hat die man wirklich nicht aufhindbar haben möchte und zwar sofort, dann kann man mit den Entfernungstools das Innerhalt von einem Tag rausbringen der eine Grund der vielleicht für 410 positiv sehen würde ist, dass man das natürlich in den Logs vom Server entsprechend auch sehen würde das heißt, man kann ein bisschen besser unterscheiden zwischen URLs von dem man weiß, dass man die gezielt entfernt hat und URLs die irgendwie aus Versehen auf einmal verschwunden sind wo niemand aufgepasst hat und das ist vielleicht ein Punkt der hilfreich sein kann nicht unbedingt für SEO aus SEO Sicht, sondern einfach für die Wartung, für die die Bearbeitung der Webseite selber das heißt, wenn man in den Logs nachschaut und sieht, die sind alle 410 dann hat man eine gewisse Gewissheit dass man die wirklich auch bewusst entfernt hat, hingegen wenn man die die 404 sind dann könnte man vielleicht auf die Idee kommen die muss sich mal überprüfen und kontrollieren ob die wirklich quasi bewusst entfernt worden ob man sie auf 410 setzen sollte oder ob man die so lassen kann das heißt, aus SEO Sicht gibt es da eigentlich keinen großen Unterschied aber aus praktischer Sicht macht es manchmal Sinn, dass man da diese Unterscheidung hat je nachdem wie man natürlich arbeitet wie andere auf der Webseite entsprechend cool dann machen wir vielleicht hier in dem Pause, vielen Dank fürs kommen, ich richte wahrscheinlich den nächsten Hangout ich weiß nicht in 2, 3 Wochen also wieder ein, damit wir da nicht ganz den deutschen Draht verlieren vielen Dank für die vielen Fragen und dann wünsche ich euch erstmal einen schönen Nachmittag noch Tschüss allerseits Tschüss Tschö