 OK, herzlichen groß heute zu den Google Webmaster Essentials-Sprechstunden-Hangouts. Mein Name ist Johannes Müller. Ich bin Webmaster Trends Analyst bei Google in der Schweiz. Und Teil von dem, was wir machen, sind diese Webmaster Hangouts. Ich sehe gerade wieder die Meldung von YouTube, dass diese Hangouts bei YouTube später weggehen, dass wir da irgendwas anders suchen müssen. Wenn einer von euch Ideen hat, wie wir das anders gestalten könnten, wie ich noch mal schauen, wie das geht. Ich hoffe, dass wir da zumindest noch eine Weile mit dem arbeiten können und dass wir da vielleicht ein bisschen Zeit haben, Sachen auszuprobieren. Wie immer sind da schon einige Fragen angereicht worden. Aber wenn einer von euch möchte, seid ihr gerne eingeladen, gerade schon loszulegen. Ganz kurz noch zu meiner Frage von gerade. Wie kriege ich Antwort von dir, wenn du was finden solltest? Gute Frage. Vielleicht kannst du mir einfach deine E-Mail-Adresse noch hinterlassen. Dann kann ich hier kurz zurückschreiben. Ich glaub, du hast es doch auf Twitter geschrieben, oder? Oder nur bei den Fragen direkt? Nein, nein, nur bei den Fragen direkt. Letzte Woche hatte ich schon mal was gefragt. Okay. Gut. Danke dir. Okay. Ich hätte eine Frage zu Beginn. Okay. Also, du hast diese Frage, die habe ich auch eingereicht. Das geht um diese Qualität. Du hattest vor vier Wochen eine Frage dazu bezüglich News und Film-Content. Also, es geht um alte News, die irgendwo hinten in der Webseite sind, nach Struktur. Meine Frage dazu bewertet Google, sagen wir mal in unserem Fall die Produkte, die jetzt zum Beispiel auf der Page 30 von einer paginierten Seite sind. Also, gewichtet Google die Qualität von Seiten, die weiter hinten sind in der Struktur. Also, müssen Seiten qualitativ hochwertig sein, eigentlich nur die vorne sind? Also, die praktisch direkt verlinkt sind von der Homepage aus, oder kann man halt hinten raus ein bisschen schlechtere Qualität haben? Kann man schon. Also, ich würde es jetzt nicht gezielt so machen, dass man sagt, dass was irgendwie vorne steht, das ist gut und alles andere ist schlecht. Aber es ist schon so, wenn wir die Qualität einer Webseite anschauen, versuchen wir das Gesamtbild zu kriegen. Und das Gesamtbild ist schon eher so gewichtet, dass die Sachen, die am relevantesten erscheinen, dass wir halt auf die Sachen eher achten. Und das ist dann nicht so, dass man sagen kann, alles was weniger relevant ist, kann man ganz missachten, aber sind einfach unterschiedlich gewichtet. Und ich denke, das macht im Grunde genommen auch Sinn, weil man kann nicht einfach eine Webseite nehmen und sagen, das sind jetzt 100.000 Urals und jede Urall hat das gleiche Gewicht, obwohl nur ein Zehntel davon effektiv für benutzter Sichtbar sind. Also, könnte man jetzt, wenn man Produktvariationen hat, die jetzt nicht wichtig sind für die Suche, aber doch irgendwie auffindbar sind. Also, ich sage mal, wenn jetzt einer zum Beispiel eine spezielle Flagge sucht, alle sechs Jahre die trotzdem innexieren lassen, ist das so in Ordnung? Also, dass sie super in die Auffindbar sind. Also, ich sage mal, wenn jetzt einer zum Beispiel eine spezielle Flagge sucht, alle sechs Jahre die trotzdem innexieren lassen. Ja, kann man auf jeden Fall so machen. Wenn das Sachen sind, die, sag ich mal, nur Long-Tales sind und nicht unbedingt, ich weiß nicht irgendwie, dass das wichtigste ist auf der Webseite, dann würde ich die auf jeden Fall indexieren lassen, weil irgendjemand sucht vielleicht nach denen und will die dann auch irgendwie auffinden. Also, würde ich jetzt nicht sagen, nur weil das ein Produkt ist, was sehr selten aufgerufen wird, ist es automatisch ein schlechtes Produkt. Das ist ja auch ähnlich wie das, was aufgefragt wird, ob man quasi mit Analytics schauen soll, welche Urals überhaupt aufgerufen werden und alles welche, was weniger als so viel Besucher hat, löscht man einfach, weil man das Gefühl hat, das ist vielleicht den Content. Und nur weil wenig Besucher dahin gehen, heißt nicht unbedingt, dass die Qualität schlecht ist. Okay, also vom Prinzip her macht ja Amazon irgendwie das gleich. Wir haben ja einen riesigen Produktindex, alles ist irgendwie drin und wahrscheinlich findet ihr raus über Tests. Also Top-Seller zum Beispiel Links, Top-Seller Links, was jetzt eigentlich so das Relevanteste ist von dem ganzen Produktkatalog. Und dann zeigt ihr das auch an. Und dann muss es natürlich für den Kunden, also für den Besucher, ja auch gut sein. Also der User entscheidet dann praktisch über Signale jetzt, ob die URL gut ist. Nicht direkt so, aber ja, also das, was was man wirklich in den Vordergrund stellt, sollte schon so sein, dass man dazustehen kann. Dass das gut ist, okay, alles klar. Super, Dankeschön. Okay, dann geben wir mal vielleicht die Fragen doch. Vielleicht, wenn ihr Kommentare oder Fragen zu den einzelnen Sachen habt, einfach nur aufrufen. Und hoffentlich haben wir am Ende auch noch ein bisschen Zeit. Wir haben gesehen, dass Google bereits auf das neue Quick Transport Protokoll, HTTB 3, verwendet, würde es zu den SEOs und Webmasters empfehlen, ebenfalls diese neue Technologie einzusetzen. Ich muss ehrlich sagen, ich habe mich damit noch nicht groß auseinandergesetzt. Aber wenn, wenn das etwas ist, was man einsetzen kann, um die Geschwindigkeit für Benutzer zu erhöhen, dann würde ich das auf jeden Fall machen. Was oft einfach ist, gerade mit den neuen Technologien, ist, dass die unterschiedlich unterstützt werden von einzelnen Browser und Geräten. Und da würde ich einfach darauf achten, dass man wirklich den Benutzer, das Liefer, die das ausnutzen können und diejenigen, die das noch nicht verwenden können, dass man dann halt die normalen Fallwerks auch hat. Ich vermute, dass, wenn man das einrichtet, dass das automatisch so die normale Fallwerk eingerichtet hat, aber würde ich einfach noch darauf achten. Ich würde jetzt nicht sagen, dass man unbedingt auf die neuesten Technologien immer setzen muss, auch wenn man dann ein bisschen schneller vielleicht bei einzelnen Benutzern hinkommt. Aber Geschwindigkeit ist schon ein Faktor bei uns in den Suchergebnissen. Und wenn man das irgendwie verbessern kann, sei es durch ein besseres Protokoll oder bessere Aufbau der Seiten, bessere Bibliotheken, die man einbindet, vielleicht mit dem CDN, es gibt viele Möglichkeiten, die Geschwindigkeit von einer Seite ein bisschen zu verschneller. Kann es sein, dass der Ranking Factor Performance Ladezeit seit dem Uni Core Update von Google stärker berücksichtigt wird? Schon wieder Geschwindigkeit. Meines Wissens ist es nicht so, dass wir da gezielt auf Performance geachtet haben im Update im Juni. Aber Geschwindigkeit ist schon ein Faktor, der für uns relevant ist, gerade bei mobilen Geräten. Und ich könnte mir schon vorstellen, dass wir im Laufe vom Jahr immer mehr Richtung Geschwindigkeit wir auch ein bisschen vorwärts pushen. Wir haben ja bei Google Iow die Speed Reports in Search Console Codes erwähnt. Die sind immer noch ein bisschen in Bearbeitung, aber ich hoffe, das kommt dann aufwandt, so dass man da auch ein bisschen mehr Möglichkeit hat zu sehen, wie die eigene Website bezüglich Geschwindigkeit dasteht und wo man vielleicht mit einzelnen Ansatzpunkten nachhelfen kann. Eine Frage in der alten Search Console gab es intern strukturierte Daten. In der neuen Search Console wird mir unter Verbesserungen aber nicht alles angezeigt, was auf der Seite mit strukturierten Daten ausgezeichnet ist, sondern meist nur das, wo es Probleme oder Fehler gab. Wird es hier in Zukunft wieder eine Übersicht über alle Elemente geben, die Google erkennt? Weiß ich nicht, wie das geplant ist vom Team. Was ich gesehen habe in Search Console ist im Moment eher der Trend dazu da, dass man die einzelnen Rich-Results-Tippen ein bisschen separat betrachtet, dass man da je nach Rich-Result-Type dann ein Report hat in Search Console, das man gezielt, auf einzelne Auswirkungen dann auch darauf hinarbeiten kann. Das heißt, wenn ich zum Beispiel Jobs-Daten angezeigt haben möchte in Search Console oder in den Suchergebnissen, dann gibt es da in Search Console extra ein Report für diese Jobs-Strukturierten Daten. Das ist eigentlich ein bisschen gezielt gemacht, weil wir gesehen haben, dass viel benutze einfach von der Menge von Informationen, gerade im allgemeinen strukturierten Daten-Report, ein bisschen überfordert war, dass sie da nicht genau groß haben, was muss ich jetzt machen, damit diese Jobs richtig dargestellt werden? So haben wir das ein bisschen vereinfacht in Search Console. Ich vermute, dass es weiterhin in die Richtung geht, dass man eher auf Elemente achtet, die sichtbar sind in den Suchergebnissen und dann nicht allgemeine strukturierte Daten darstellt. Das heißt, wenn es Elemente gibt, die man einbildet, die irgendwie korrekt eingebunden sind, die erkannt werden von Google, die eine Auswirkung haben in den Suchergebnissen, dann könnte ich mir vorstellen, dass wir da nicht in separaten Berichten noch dazu machen, weil aus unserer Sicht hängt das dann weniger mit der Suche zusammen, sondern es ist einfach, ihr habt diese strukturierten Daten, vielleicht kann sich irgendjemand verarbeiten. Wir brauchen sie für die Suche nicht, die haben keine Auswirkungen in den Suchergebnissen. Deshalb bringen wir die nicht als separaten Bericht in Search Console. Aber wenn ihr seht, dass ihr unbedingt etwas braucht, dann lasst es uns wissen. Am besten so, dass ihr uns dann auch in Feedback, wenn ihr das einschickt zum Beispiel über Search Console, dass ihr gezielt auch sagt, was ihr mit diesen Daten habt machen möchtet, damit wir das ein bisschen genauer planen können, wie und was wir da darstellen in den Suche, also in den Reports in Search Console. Das heißt nicht nur in Search Console als Feedback geben, ich möchte diese Daten haben, damit ich diese Daten habe, sondern ich möchte bezieht, meine Webseiten dieser Hinsicht verbessern und dazu wären diese Daten noch hilfreich. Kontern wir die Problematik bezüglich Domain Property in Search Console und das anzeigende Leistungsbox zur Suchanfrage in den Search Results schon untersuchen, gibt es einige Neuigkeiten. Ich habe das mit dem Team angeschaut und das ist effektiv im Moment, das ist ein Problem, dass wenn man nur über Domain verifiziert ist, dass diese Onebox in den Suchergebnissen nicht dargestellt wird. Ich weiß, das Team ist daran da eingesach ein bisschen zu verändern noch, aber wie schnell das kommen wäre bezüglich auch gerade der Domain Verifizierung, das weiß ich da nicht. Wir möchten die Qualität in unserem medizinischen Ratgeberartikel weiter verbessern und das Vertrauen in die Texte bei den Nutzersteigern. Zu diesem Tag werden wir eine erfahrene Medizinjournalistin engagieren, die im Idealfall auch Ärztin ist. Sie wird unsere Beiträge insbesondere aus medizinischer Sicht zusätzlich nochmal auf Richtigkeit, auf Qualität prüfen. Wir möchten dann eine Markierung wie etwa medizinische Qualitätssicherung als so und so neben dem Autor platzieren. Die Ärztin wird entsprechend verlinkt mit ihrer Profilseite. Ist das eher ein Waste of Time, weil nur der Autor entscheidend ist für Trust und Qualität? Würde ich nicht sagen. Ich denke, das macht auf jeden Fall Sinn. Wenn man mehr Information angeben kann über den Hintergrund dieser Artikel, dass man wirklich im Menuzon aufzeigen kann, ihr könnt mir vertrauen, das sind korrekte Daten. Das sind nicht Sachen, die ich aus dem Internet zusammengesucht habe, sondern ich weiß, dass das eigentlich korrekte Informationen sind. Ist eigentlich immer eine gute Sache. Einerseits für Benutzer. Das kann man natürlich auch testen, dass man da Arbeetests macht oder User Studies macht mit Benutzern. Andererseits in unseren Algorithmen versuchen wir solche Sachen natürlich auch ein bisschen zu erkennen, dass man wirklich irgendwie herausfinden kann, ob da eine Experte dahinter steigt, ob diese Informationen vertrauenswürdig sind. Und von dem würde ich das auf jeden Fall machen. Ich denke, das ist eine gute Sache. Wie könnten wir die Maßnahmen technisch oder über schema.org umsetzen, sodass auch Google die Qualität und Vertrauenssicherung versteht und gegebenenfalls auch erwährt? Ich weiß nicht, ob da über schema.org irgendwie spezielle Verknüpfungen vorhanden sind für so etwas. Aber ich würde auf jeden Fall einfach auch einen normalen Link auf das Autorprofil oder auf das Profil vom Prüfer würde ich auf jeden Fall ganz normal dazutun auf jeden Fall. Kurze Frage dazu. Könnte man das vielleicht mit einem Co-Autor machen oder würde das, weil dann hätten wir ja ein weiteres Autorenschema. Könnte wir wahrscheinlich auch machen. Also, ich denke, es hängt ein bisschen davon ab, was diese Person noch macht, wenn sie einfach die Artikel kurz durchliest und sagt, das ist okay, dann weiß ich mich, ob das wirklich ein Co-Autor ist, aber das hängt schlussendlich davon ab, wie ihr das umsetzen wollt. Also, sie würde auch religiieren, in den Text reingehen, soweit es erforderlich ist. Also, klar, das ist im Urheberrecht kein Autor, aber es würde dann im Schema auftauchen als Autor. Ja, also ich denke, das ist schon okay. Wenn das einigermaßen da zusammenpasst, wenn man das Gefühl hat, als externer Besucher, wenn man auf diese Seite geht, dass man da wirklich versteht, dass es jemand, der an diesen Artikel auch mitgearbeitet hat, dann macht das ja eigentlich so sehen. Eine Frage, wenn die Zeit ist, ganz kurz, ich kann keine Autoren in der Google Search Console sehen, bislang, vielleicht liegt es auch an unserem Schema, ist das schon implementiert, liegt es an uns, oder ist es noch gar nicht zu sehen? Ich vermute, das zeigen wir nicht in Search Console, weil das hat ja kein sichtbarer Auswirkung in den Suchergebnissen. Das ist eigentlich, das ist einfach nur Zusatzinformationen, die wir reinholen können, um die Seiten ein bisschen besser zu verstehen, aber es ist nicht so, dass das dann sichtbarer vorgehoben wird in den Suchergebnissen. Ich vermute, über den Article Markup wird das ja eingebunden, ich weiß nicht, ob, wenn man das als AMP Artikel einsetzt, dann ist das wahrscheinlich sichtbar, aber ich denke, als normaler Artikel ist das auch in Search Console nicht sichtbar. Ja, okay, vielen Dank. Okay, laut der Search Console kommt eine schwedische Domain von mir, sehr viele Links mit griechischen Spam-Seiten mit griechischen Enkotexen. Kann das der schwedischen Domain schaden und die griechischen Spam-Seiten sollten entwerten werden, dass sie auch in Search Console auftauchen. Schwierig zu sagen auf Anhieb, ich würde sagen, im Normalfall muss man da nicht spezielles machen, weil wir erkennen eigentlich, die soweit üblichen sparmigen Links und können die eigentlich sehr gut ignorieren. Das heißt, da würde ich im Normalfall jetzt nicht irgendwie da schnell hingehen und das alles entwerten, sondern wahrscheinlich finden wir das und merken wir das relativ schnell auch selber. Wenn man nicht ganz sicher ist, dann würde ich das einfach in der Disallow-Datei eintragen. Wenn man die Domains auflistet, dann geht das ja relativ schnell. Und so kann man da, sag ich mal, ein bisschen sicherer sein, dass man das richtig alles macht, dass die Wirklichkeit ein Einfluss haben. Ich würde sagen, im Normalfall ändert das überhaupt nicht. Auch wenn die auftauchen in Search Console, ist es nicht so, dass wir denen dann eine extra Gewichtung auch geben. Aber ich denke, ich verstehe, dass es immer ein bisschen komplisierter ist, wenn man das als Website-Betreiber hat und man sieht, diese vielen spanigen Links, dann vielleicht versteht das Google falsch. Und eben gerade für solche Fälle ist die Disallow-Datei perfekt. Da kann man einfach die Domains eintragen und dann muss man sich nicht mehr drum kümmern, muss man nicht mehr groß Gedanken verlieren, ob Google das jetzt versteht oder nicht. Warum wählt Google als Canonical eine HTTPS Website, statt HTTPS, also eine anderen Canonical, es gibt 301 Weiterleitung von einzelnen HTTPS-Seiten zu HTTPS-Seiten. Schwierig zu sagen, ohne die URL. Wenn du willst, kannst du die URL vielleicht als Reply dazu eintragen oder wenn du jetzt im Hangout bist. Dann kann ich das im Nachhemal untersuchen, mal schauen, wo das herkommt. Es ist so, bei der Canonicalisierung gibt es verschiedene Faktoren, die alle ein bisschen zusammentreffen müssen, damit wir da ein Canonical auswählen. Und das sind Sachen wie die interne Verlenkung, die Sitemaps, der REL Canonical auf den Seiten, 301 Weiterleitung, man kommt auch ein bisschen dazu. HTR Flame spielt ein bisschen eine Rolle, die Kürze der URL spielt ein bisschen eine Rolle bei der Canonicalisierung. Dann kann ich die HTTPS-Seiten zuwählen. Aber wenn natürlich viele Signale auf die HTTPS-Seite zeigen, dann wissen wir nicht 100% was da gemeint ist. Und dann kann es schon sein, dass wir die HTTPS-Seite zeigen in den Sucher geben müssen. Von dem her wäre ein Beispiel URL sehr hilfreich. Dann können wir das anschauen. Was auch vielleicht zu sagen ist, ich vermute die HTTPS und HTTPS ist das weniger im Fall. Aber gerade wenn man von einem Domain auf einen anderen Domain umzieht, wenn man gezielt nach dem alten Domain sucht, also nach den alternativen URLs, dann kann es sein, dass wir den Suchergebnissen die dann einfach auch zeigen. Das heißt, wenn ich jetzt eine Seitabfrage für einen alten Domain mache und da ist eigentlich schon eine Weiterleitung da drin, dann zeigen wir vielleicht den alten Domain in den Suchergebnissen. Dann sieht man aber meistens das als Canonical eigentlich die neue Version schon verwendet wird. Ich weiß nicht, ob das bei dir vielleicht auch noch zutrifft, ob man da vielleicht über eine gezielte Seitabfrage die HTTPS-Version quasi anfragt und wir denken dann gut, ihr wollt die sehen, also zeigen wir sie dir. Du hattest mir vor einigen Monaten geraten, dass das sich mit meinen jemals guten, aber optisch sehr le jahregekommen Verzeichnissen oder bei einem Ferienpark Verzeichnissen auf jeden Fall ein Relaunch machen sollte. Ich habe diesen nun zunächst für eine Seite gemacht und die Seite nicht nur auf responsive umgestellt, sondern sämtliche Inhalte actualisiert, erweitert, definitiv unikgestaltet und auch besonders auf mobile Benutzerfreudigkeit geachtet. Trotzdem kommt sie bei den meisten Rankings im Keller und vor allem bei den wichtigsten Keywords rankt sie überhaupt nicht. Siehst du irgendwelche negativen Signale, die dafür verantwortlich sein könnten oder muss sie einfach noch mehr abwarten. Folgendes Startseite scheint besonders schmielrecht zu ranken. Ich müsste das wahrscheinlich ein bisschen genauer anschauen um da gezielt etwas zu sagen. Du sagst der Relaunch weiter vor drei Monaten ich könnte mir schon vorstellen dass gerade bei größeren Veränderungen das ist einfach ein bisschen länger da. Gerade wenn man bezüglich Qualität nicht so sicher war auf unserer Seite algorithmisch, dann braucht das schon eine rechte Zeit bis sich das wieder sauber angependet hat. Von dem her könnte ich mir vorstellen dass es ein bisschen länger geht als nur die drei Monate. Ich könnte aber auch sagen, dass irgendwas anderes kremmt und ich schaue das nachher mal an. Wenn ich irgendwas finde, dann nehme ich das als Kommentar zu deiner Frage noch dazu. Wir haben im Onlineshop in den letzten Tagen ich glaube das mit den Einführer und den vielen Abfragen das haben wir vorhin angeschaut. Ja, von vorhin, danke. Das schaue ich mal genauer an. Ich habe nur noch mal den ganzen Kontext reingeschrieben und meine E-Mail-Adresse, falls du noch mal die E-Mail-Adresse hast. Okay, gut. Danke. Wir haben in den letzten drei Jahren aufgrund von zwei Renamings unsere E-Mail bereits zweimal geändert und die alten E-Mails mit 301 sind versehen. Mit unserer neuen SEO-Strategie werden sich die E-Mails erneut ändern. Wie geht Google mit der Anzahl an verketzeten 301 um? Hat das SEO-technische E-Mails? Sollte eigentlich klappen. Grundsätzlich ist es so, dass bei jeder Veränderung der URL-Struktur gerade innerhalb von einem Domain braucht eine gewisse Zeit bis sich das wieder einpendelt. Aber normalerweise ist das eher eine Frage von maximal ein paar Monaten und dann sollte das soweit wieder einpendeln. Und dann ist es weniger eine Frage wie sieht die Kette aus an URLs, die dahin kommen, sondern quasi wie war das vom letzten Zustand, den wir kennen, bis zum neuen Zustand, den wir jetzt da sehen. Von dem her ist es jetzt nicht unbedingt problematisch, wenn man irgendwelche URLs findet, die 4, 5 mal Weiterleitung dabei haben. Wahrscheinlich haben wir die ersten paar Schritte schon so oft gesehen, dass wir uns eher auf den letzten Schritt konzentrieren können. Praktisch gesehen ist es so, wenn der Crawl folgen wir 5 redirects auf einmal bei einem Crawl. Und dann im nächsten Schritt folgen wir dann die nächsten Anzahl redirects, die da vorhanden sind. Das heißt, wenn wir jetzt eine neue URL finden und die brauchen 6 redirects, bis sie zum Ziel kommen, dann folgen wir erstmal 5 redirects und dann wahrscheinlich am nächsten Tag den letzten redirect noch dazu und dann indexieren wir die Inhalte. Das machen wir in erster Linie so, dass wir da wirklich auch einfach aus technischer Sicht nicht irgendwie in einer redirect Kette landen, die ewig weiter geht und dass wir da allzu viel Zeit verlieren, die wir sonst beim normalen Crawling von der Website einsetzen könnten. Das heißt, ich denke in eurem Fall wenn der letzte Zustand soweit eingependelt ist und es dann nur eine Frage ist vom eingepenselten Zustand zum neuen Zustand, würde ich mir da nicht allzu viele Sorgen machen. Wenn ihr da schon größere Veränderungen gemacht habt kürzlich und das immer noch irgendwie so ein bisschen unklar ist, was der aktuelle Zustand ist, dann würde ich einfach darauf achten, dass ihr weniger als 5 redirects habt vom letzten einigermaßen normalen Zustand zum neuen Zustand, dass man das möglichst schnell crawlen kann. Wir empfehlen natürlich auch, dass man möglichst mit einem redirect zum Ziel kommt. Ich weiß praktisch gesehen, ist das manchmal nicht so einfach zu machen. Gerade wenn man jetzt eine Umstellung von verschiedenen CMSen hat, dann hat man halt einen redirect erst mal von einem Domain zum anderen und dann zur Hardware-TPS-Version und dann von dort aus zur neuen URL kommt. Das lässt sich dann schlecht umbauen, dass man einfach direkt von der ganz alten URL zu ganz neuen URL kommt. Ich denke, als Ziel sollte man das trotzdem irgendwie haben, aber aus praktischer Sicht ist das natürlich nicht immer so einfach umsetzbar. Könnte ich da eine Frage zu stellen? Ja. Ich habe redirects noch von 2013, wie kommt das denn? Sind die noch nicht verarbeitet oder prüft ihr die trotzdem immer noch? Wir prüfen die trotzdem immer noch, wahrscheinlich. Und wenn irgendwann dann 404 kommt, ist das dann? Das ist auch okay. Was normalerweise da passiert, ist, wir kennen sehr viele URLs von deiner Website und wir probieren die einfach zweitmal einmal im halben Jahr dann sieht das vielleicht so aus. Es ist für immer noch viel von diesen uralten URLs crawled, aber eigentlich schauen wir die wirklich nicht so oft an. Und von der Priorisierung innerhalb von crawled ist es auch so, dass wir die eher an unterster Stelle nehmen. Das heißt, wenn wir das Gefühl haben, wir können noch mehr von deiner Website crawled und wir wissen nicht, was wir crawled sollen, dann holen wir ein paar von diesen alten URLs und kontrollieren die einfach damit wir haben, weil gerade bei alten URLs kann es ja auch passieren, dass auf einmal neue Inhalte da vorhanden sind und die möchten wir dann trotzdem wiederfinden. Wenn die ein 404 haben, ist das ja eigentlich kein Problem. Okay, alles klar. Danke schön. Wir haben zahlreiche URLs, kein relevanter oder duplicate Content von der Indexierung ausgeschlossen. Dieser Prozess der Deindexierung scheint sich jedoch sehr lange zu ziehen und sich aber einig aus unserer Sicht widersprechen. Zum Beispiel ein URL wurde am 16.04. Deindexiert. Für unsere Logs gibt es aber danach mehrere Aufrufe durch Googlebot, über die Site and Infocreery, über die URL heute immer noch befunden. In Cache gibt das letzte Abbild für den 16.04. Auch in Search Console wird nach einer URL-Prüfung der 16.04. Und der Auffindbarkeit Site Maps ist allerdings eine Site Map Datei genannt, die seit mehreren Wochen nach der Deindexierung erst erstellt worden ist. Wie ist das zu interpretieren und ist die Dauer für die Deindexierung normal? Schwierig zu sagen. Ich weiß nicht, ob du hier im Hangout bist. Ja, bin ich. Ich kann es auch gerne ein bisschen ausführen noch. Also primär geht es uns darum, dass wir vor allem bei uns in den Logs feststellen, die URLs, die wir jetzt deindexiert haben, was eine große Menge war, nach der Deindexierung gecrawled werden, aber in der Search Console sich das nicht wirklich niederschlägt. Auch wenn wir die URL-Prüfung machen für einige Stichproben, ist dort immer das Datum zuletzt gecrawled vor der Deindexierung. Wir sehen über unsere Logs aber genau das Gegenteil. Was ich als letzten Punkt geschrieben habe, in der URL-Prüfung gibt es die Auffindbarkeit über eine Site Map, die wir auch festgestellt haben, oder es zieht sich ganz schön, bis die die ganzen Inhalte deindexiert werden. Die Frage ist das Normale, das ist erwartungskonform, dass sich das so zieht. Und da ist eben eine Site Map, die wir bei ehrlicherweise erst so Wochen später hinzugefügt haben, was dann wiederum gar nicht zu den Crawl Datum in der Search Console selbst passt. Deswegen auch so das Fragezeichen, sind das jetzt Widersprüche an sich, ist das so, dass wir die Request, die wir in den Logs bemerken, also ist das sozusagen nachgelagelt, ist das der Grund? Das kann sicher sein. Von Crawling her kann das ja auf verschiedene Wege dann verarbeitet werden und es kann sein, dass wir das einfach noch nicht sauber bearbeiten. Wie deindexiert ihr die Seiten? Was macht ihr damit den, damit die... Wir haben Meter Robots auf New Index Follow gesetzt. Also mit dem Robots Meter Tag? Ja. Das ist schon mal, denke ich mal, der richtige Ansatz. Bezüglich der Art von URL, ist das etwas, was sehr häufig gecrowt wird, sonst? Oder ist das etwas eher, sag ich mal, was so weiter hinten in der Website ist, eine Klang-URL-Parameter, das ist sehr seltenauffindbar? Wir sind ein Shop, also E-Commerce-Plattform, haben wir Produkte, also Artikel-Detail-Seiten, deindexiert, wo wir gemerkt haben, die haben einfach keine Relevanz für Nutzer, weil eben sehr dünner Content, auch kaum Klicks in den letzten 12 Monaten generiert und die haben eben ausgeschlossen, um die Qualität im Index-Management zu erhöhen. Das war so ein bisschen unsere, oder auch Cannibalisierung teilweise sogar aufzuheben. Genau, deswegen sind es ja sehr viele, also wir haben irgendwie, weiß ich, 700.000, 800.000 Produkte und davon haben wir jetzt eben auch mal, viel auch häufig gekrawlt die Produkte, aber jetzt natürlich nicht jedes einzelne, aber in der Masse schon, ja. Ja. Wenn du mir ein paar Beispiele geben könntest, vielleicht im Chat, dann kann ich dir mal anschauen, was mal passiert. Weil was einfach manchmal passiert ist, dass wir einzelne Seiten crawlen wir einfach sehr selten. Und das kann sein, dass es bis zum halben Jahr geht, bis wir die wirklich crawlen und je nachdem von der Art von URL, die das ist, kann das sein, dass es ein bisschen in diese Kategorien passt. Das heißt, wie sehen wir vielleicht, wir haben sie vielleicht gekrawlt für Shopping oder für irgendetwas anderes, aber für die Websuche ist das noch nicht verarbeitet worden. Und gerade wenn das vielleicht, vielleicht mal vom April bis jetzt ist, sind das zwar schon, also 2,5 Monate, aber es ist noch in dem Rahmen, wo ich sagen würde, die URLs, die wir sehr selten verarbeiten, die haben wir vielleicht noch nicht verarbeitet, seitdem. Trotz Crawling dann eben. Also das Crawling, die Request, die wir eben bemerken, das ist auch vom organischen Googlebot, also Mobile und Desktop nach wie vor, also keine anderen, so wie Adboard oder so, die haben wir ausgeschlossen, sondern wirklich noch die. Da wurden sie eben gefunden, was eben nicht zur Search Console passt. Da kann es aber auch so eine Art Verzug geben, weil das widerspricht sich ja so, da sind wir so ein bisschen drüber gestolpert, und jetzt das Crawl Datum widerspricht sozusagen dem, was wir in den Logs sehen und auch Indexierung erlaubt, ja, steht da noch, obwohl wir ja schon das No-Index-Meter-Tag mitgegeben haben. Das wurde anscheinend noch nicht verarbeitet, oder in der Search Console dann mitgegeben. Also dieser Verzug ist normal, würdest du sagen? Das kann auf jeden Fall passieren. Also wir schauen eigentlich, dass wir URLs größernordnungen einmal ein halben Jahr crawlen und es gibt definitiv URLs von gerade bei größeren Websites, die wir vielleicht eben alle fünf, sechs Monate erstmal crawlen und verarbeiten. Das könnte da jetzt zutreffen, ich finde es ein bisschen komisch, dass ihr in den Logs trotzdem Aufrufe so sieht. Soweit ich weiß, ist der Shopping-Bord verwendet den gleichen User-Agent, aber das geht natürlich nicht in die Web-Suche hinein und das könnte vielleicht vermindern sein, aber ich finde das trotzdem ein bisschen suspect. Ich würde das gerne mal ein bisschen anschauen. Dann schicke ich ein paar Beispiele. Okay, super. Ich habe etwas Ähnliches gemacht und das hat da tatsächlich auch Wochen gedauert. Aber dann auf einen Schlag waren dann 3000 URLs raus. Also es ist nicht so, dass es irgendwie ein Linear runterging über die Wochen, sondern dann nach sechs Wochen auf einmal boom, 2000 raus. Nur so, als bin wir heißt dann. Vielleicht passiert es ja. Cool. Aber es kann schon eine Weile gehen. Ich wäre vor allem da gerade für Sachen, die man rausnehmen könnte, irgendwie ein Mechanismus hätte, dass man das ein bisschen beschleunigen kann, weil es natürlich immer, es braucht schon mal einen großen Schritt, bis man alles aufwandt und wenn es dann ewig dauert, bis Gruppe das überhaupt merkt, ist es auch nicht klar, das zu trauen. Okay, dann schauen wir weiter. Wir haben in letzter Zeit viele Recipe Rich Snippets verloren. Technisch ist alles sauber, wie bei den Wettbewerbern. Jedoch werden die Rezepte innerhalb klassischer WordPress Artikel veröffentlicht. Damit ist sowohl ein Artikel als auch ein Recipe Schema Element auf der Seite. Kann das Google durcheinander bringen, sodass das Recipe trotz quasi Main Entity of Page Google als Artikel interpretiert wird. Ich denke, das sollte eigentlich kein Problem sein, dass man da beide Element auf einer Seite hat. Was ich da grundsätzlich mal überprüfen würde, ist ob die Rich Snippets überhaupt erkannt werden, von der Seite oder nicht. Das kann man einerseits in Search Console, in den Berichten dort machen. Anderseits kann man auch über eine Seitenabfrage, die überhaupt erkannt könnten, die sichtbar gemacht werden von Google. Es ist nämlich so, dass wir für das Darstellen von Rich Results nehmen wir da verschiedene Faktoren dazu. Einerseits, ob sie korrekt implementiert sind. Das sieht manermaßen überzeugt sein. Das heißt, wenn man die praktischen Sachen richtig eingerichtet hat, wenn man das korrekte Markup verwendet, und die Qualität der Website einfach nicht so besonders gut ist, dann ist es so, dass wir gar keine Rich Results darstellen von der Website. Und dann sieht das vielleicht ähnlich aus, wie jetzt in diesem Fall. Und wenn man eine Seiteabfrage macht, dann sieht man in der Regel schon auch die Rich Results dort. Das heißt, wenn man den Unterschied zwischen der Seiteabfrage und der normalen Suche sieht und der Qualität her, dass man da etwas verbessern muss. Wenn man jedoch sieht, dass einzelne Rich Results dargestellt werden in den normalen Suchergebnissen und die nicht immer dargestellt werden in den Suchergebnissen, dann ist es weniger eine Frage der Qualität, weil dann ist es ja die gleiche Website, sind einfach einzelne Teile werden erkannt, einzelne Teile werden nicht erkannt, dann würde ich eher die Teile gezielt auch mal anschauen, die nicht sauber erkannt werden. Und wenn dann so Sachen, wie jetzt hier erwähnt sind, dabei sind, dass man da verschiedene Rich Results Elemente auf der Seite hat und das Gefühl hat, Google versteht das vielleicht nicht, dann würde ich das einfach kurz austesten und den Markup ein bisschen anpassen auf einzelne Seiten und die Seite zur Indizierung wieder neu einreichen, ein paar Tage warten und das dann mal kontrollieren, ob die Seite dann effektiv vielleicht mit Rich Results jetzt dargestellt wird In der Regel sollte das aber kein Problem sein, dass man zum Beispiel Artikel und Recipe zusammenverwendet, dass es so weit ich weiß, relativ verbreitet, dass man das so einsetzt. Dazu habe ich noch eine Frage, wenn du erlaubst, John. Ich mache mal kurz Bildschirmfreigabe, dann können wir nämlich loslegen. Es geht nicht um Rezepte, sondern um Podcasts, und zwar um MP3, vielleicht siehst du es auch hier. Ich habe einfach Cosmo-Podcast hier eingegeben und dann finde ich jetzt hier so ein Rich Snippet-Egebnis und da kann man auch direkt hier einschalten und das auch mal hören in diesem Podcast. Egal was man dann eingibt, ist es so. Die Frage ist natürlich, ist das in JSON-Datei verankert? Habe ich ein paar Tests gemacht auf meinen Artikel oder auf meinem Blog und ich habe es nicht hinbekommen, dass ich es hier in den Suchergebnissen auch so dargestellt bekommen. Es sind so meistens diese großen Sender, wie WDR oder große Radiosender, die das haben, aber so normalsterbliche Blogger oder Podcaster kommen nicht zur Sache. Wie kann ich das erstmal umgehen? Ich bin nicht hundertprozentig sicher. Ich zöger ein bisschen, weil ich nicht genau weiß, ob da vielleicht im Moment noch ein Element von quasi der geografischen Ausbreitung oder mit den Sprachen irgendwas doch damit zusammenhängt. Oft ist ja gerade bei so, sagen wir mal, neuartigen Suchergebnistypen ist es so, dass wir das eher in Englisch oder in Amerika zuerst ausrollen und dann kommt das in einzelnen Länder und dann werden da manchmal auch Tests gemacht in einzelnen Ländern erst einmal. Ich weiß nicht, ob das bei Podcast der Fall ist oder ob das... Ja, das stimmt. Da muss ich dir zurechtgeben. Hier siehst du auch gerade vom Google Podcast einen Moment. Hier siehst du gerade vom Google Podcast auch das Ergebnis. Da kann man sich als Deutscher als Europäer nicht anmelden und das ist ein Kunde von mir ohne Werbung zu machen. Sie hat da einige Podcast aber die geht über einen anderen Anbieter. Das haben wir so gefixt, aber trotzdem finden wir diese Results eben nicht so eingestellt wie jetzt hier, wo ich jetzt Cosmo Podcast eingegeben habe und was gesucht habe. Also jetzt muss man noch was abwarten oder wie siehst du das? Also ich glaube ich vermute, du hast dir die Developer-Dokumentation gelesen, oder? Das ist ja eigentlich relativ einfach, das einzubinden mit dem RSS Feed und dass man da das Code so angibt sollte eigentlich einigermaßen normal funktionieren. Ich vermute, das ist jetzt eher einfach eine Frage, dass wir das in Deutschland weniger ausgeruht haben. Aber das ist gerade mal ein gutes Zeichen, dass ich da mit dem Team noch mal spreche und dass wir das ein bisschen sagen, fördern können. Ja, ich meine, wenn ihr das schon macht dann soll ich das mal zeigen. Es gibt so viele Podcast, wir sind immer angebunden von irgendwelchen, ich will jetzt auch keine Marken sagen wie iTunes oder was auch immer, aber wir wollen das alles auf der Webseite machen. Unabhängig von irgendwelchen Anbietern zu realisieren. Ein mp3 ist nicht so hoch wie ein Video-File. Das kann man gerne hochladen und die JSON-Datei anbinden. Fertig ist die Kiste. Aber funktioniert in Deutschland gerade nicht so. Wäre sehr gut, wenn du das machen würdest. Okay, cool. Ich habe noch eine zweite Frage, wenn ich gestach. Es geht um Jobs. Ich habe schon wieder Bildschirmaufnahme teilen. Ich habe jetzt bei Jobs geschrieben. Ich habe erstmal bei Google gesucht. Irgenden Job habe ich gesucht. Das habe ich dann gesucht. Es geht auch nicht. Wenn man was sucht als Job, da kommen immer wieder die Sing oder LinkedIn oder was auch immer die Posten rein. Wenn man das des Jobpostings auf dem strukturierten Daten wie ich das hier habe. Hier ist ein Jobposting JSON-Datei mit Fehlern natürlich. Aber trotzdem kriegst du das da rein. Trotzdem wird das aber nicht in den Jobportalen angezeigt. Wie kommt das, dass wir das auch noch umgehen können. Das ist ja ohne bei LinkedIn und Sing Werbung einzuschalten. Gerne würden wir natürlich auch bei Google Werbung einschalten. Das ist ja kein Thema. Ja, schwierig zu sagen. Jobs sollte in Deutschland, glaube ich, hier gibt es ja Normale. Das sollte eigentlich normal reichen, wenn man diesen Markup sauber auf der Seite implementiert. Und bei den größeren Portalen quasi dabei sein muss, damit das mit dem Job Markup passiert. Das ist ja gezielt, aber so gemacht, dass gerade für Einzelfärmen, die Handvollen Jobs haben, die verfügbar sind, dass sie das implementieren können. Und das wird es dann trotzdem in den Suchergebnissen zeigen. Ich weiß allerdings, gerade bei Jobs ist das mit den strukturierten Daten ein bisschen schwieriger. Da behält und das beim Warnungen gibt es ja oft trotzdem noch, aber zumindest ist es die Fehler wirklich sauber behoben sind. Ich würde mal schauen, ob da vielleicht von dem her irgendwas klemmt. Aber wenn das so weit sonst eigentlich okay ist aus deiner Sicht, dann kann ich auch einzelne Girls mal in das Team weitergeben, dass sie das kontrollieren können. Ich kann dir gerne ein URL geben von meiner Kundschaft her, dass es nicht funktioniert hat. Und wir müssten dann ausweichen auf Werbung leider. Gefunden wurden wir, aber nicht unter normal alle, also in dem normalen Google, nicht unter Jobs. Obwohl wir den Markup auch ganz sauber mit Sellerie und Warn und Wo und was alles ausgefüllt haben, ohne Fehler, dann wurde das nicht in die Fenster von Jobs Google anerkannt oder kamen wir überhaupt nicht raus. Und indexiert sind die Seiten normal? Alle Fälle ja. Ja, okay. Ich schau es gerne mal an, wenn du mir ein paar URLs schicken kannst. Entweder in den Chat. Ich danke dir. Danke, gleichfalls. Okay, was haben wir da noch? Trennzeichen bei Titel. Wenn ich Trennzeichen ein Strich oder so ein Strich von oben nach unten im Titel oder H1-Wende wie verarbeitet Google die hier Trennendaten, ich habe zum Beispiel Produktvariation, Mexikoffrager und dann verschiedene Größen. Erkennt Google durch eine logische Trennung, den Zusammenhang besser. Weiß ich jetzt nicht auf Anhieb. So weit wie ich das verstanden habe vom Team hilft uns da schon ein bisschen und gerade die normalen Trennzeichen, die man immer wieder findet, die erkennen wir relativ gut. Man sieht das meistens auch bei den Seitentiteln, die wir in Suchergebnissen zeigen, gerade bei mobilen Suchergebnissen, wo die Titeln ein bisschen kürzer sind. Da versuchen wir ja aufgrund von diesen Trennzeichen die einzelnen Elemente sauber herauszuholen und die dann entsprechenden Suchergebnissen darzustellen. Das heißt, wenn man jetzt mit einem Strich oder so ein Strich von oben nach unten arbeitet, dann erkennen wir das auf jeden Fall. Wenn ihr irgendein spezielles Unicode-Symbol nehmt um die Teile zu trennen, dann könnte ich mir vorstellen, dass es ein bisschen schwieriger wird. Aber ich würde das auf jeden Fall so sauber trennen, dann hat man die Möglichkeit, dass Google es auch so erkennen kann. Würde Google denn die Seiten besser verstehen durch diese Trennung, weil ich sehe halt immer wieder, dass wenn Titel zum Beispiel getrennt sind oder in den Links selber Trennungen drin sind, dass Google sich einfach einen Teil davon abschneidet und das einfach zum Beispiel in den Zeitlings auch verwendet. Zum Verständnis für das Verständnis an sich der Seite vielleicht irgendwie. Ich vermute, zum Verständnisse Seite brauchen wir das nicht unbedingt, aber zu erstellen von den Titeln schon. Und die Titel sind ja auch recht sichtbar, gerade in den Zeitlings auch. Und wenn man das so machen kann, dass die sauberer abgeschnitten werden, dann hilft euch das ja auch schon ein bisschen. Auch wenn die vom Ranking her, wenn sie da nicht eine große Veränderung haben, wenn sie zumindest sauber dargestellt werden in den Suchergebnissen, ist das ja schon recht hübert. Ich hatte noch eine Frage zu diesem Update jetzt im Juni. Wir haben mal vor gut, weiß ich nicht, vier Wochen oder so auch dir eine URL geschickt. Also eine Domain und wir haben unheimliche Probleme. Also einmal sind wir bei einem Update ganz oben, dann wieder ganz unten und es geht hin und her. Und jetzt Juni und wieder steigt es wieder konkret, was hier da jetzt geändert hat. Also hast du irgendeinen Tipp oder so, was jetzt da wieder passiert ist, worauf ihr vielleicht mehr achtet? Eigentlich nichts Konkretes. Ja, ich meine, es ist gut, dass es jetzt wieder steigt, aber ich verstehe auch, dass da irgendwie ein bisschen Angst dabei ist, dass man das gewöhnt, wer weiß, wie lange das so steigt, oder? Genau, das im September jetzt wieder ein Update kommt und dann geht es wieder runter. Also das ist großartig irgendwas gemacht. Klar, ich habe Canonicals ausprobiert, No Index, im Endeffekt wieder alles rückgängig gemacht und gut, jetzt steigt es wieder. Also eigentlich habe ich jetzt so gar nichts so richtig gemacht. Ja, also die Updates gerade die Core Update schauen eher die Seiten gesamthaftlich an und versuchen da zu erkennen, wie relevant sind sie für einzelne Suchandfragen und da ist es in der Regel weniger so, dass wir da auf einzelne technischen Details wie mit den Canonicals achten, sondern eher, dass wir einfach das Gesamtbild der Website anschauen. Man kann aber natürlich auch mit Canonicals, mit den ganzen technischen Mitteln auch ein bisschen nachhelfen, dass die Seite besser verstanden wird und dass wir dementsprechend auch erkennen können, dass sie eher relevanter ist. Von dem her ist es sicherlich falsch, dass man die technischen Probleme behebt. Ich würde aber gerade in so einem Fall wo es so eher schwammt überlegen, ob man von der Qualität her allgemein etwas machen kann, um das ein bisschen ein leichter Niveau zu bringen, dass es wenigstens nicht so halb auf der Kippitz. Aber gerade denke ich mal in eine Situation wie bei dir, wo du verschiedene Websites hast, die auf einzelnen Länder abgestimmt sind, die eigentlich sehr ähnlich sind, ist es manchmal schwierig zu erkennen, wo kann man da ansetzen oder wie unterschiedlich ein einzelner Länder sein, dass man da die einzelnen schwieriger, erkennbaren Websites ein bisschen höher hinkriegen kann. Was würde ich da vielleicht machen? Was man immer auch machen könnte, ist, eine Art User-Studie mal einzurichten und mit Benutzern, die nicht direkt mit deiner Website verbunden sind, einzelne Aufgaben mal geben wie sie damit umgehen. Das sind dann Sachen, die nicht direkt in die Suchergebnisse hineinfließen aber die unsere Algorithmen dann schon auch ein bisschen drauf achten und manchmal sind das so subtile Elemente wie das man erkennen kann, dass man diese Website trauen kann, dass das ein lokales Geschäft ist, dass man da auch wenn man Probleme hat, wie man erreichen kann solche subtilen Sachen helfen dann manchmal schon auch bei den Algorithmen dass unsere Algorithmen besser erkennen können, dass es wirklich ein vertrauenswürdiger Anbieter und manchmal ist es auch so, dass mit einem Pro-Land oder Pro-Sprache das unterschiedlich erkennen kann und von dem her lohnt es sich dann manchmal auch zu überlegen muss ich die einzelnen Länderversion vielleicht ein bisschen anpassen, dass sie eher dementsprechend was Benutzer in diesen Ländern erwarten oder kann ich da trotzdem eine neue Situation auftreten, die überall geht Ja, daran denke ich auch, dass vielleicht doch nochmal Shop-System komplett geändert und einfach eine Domain zu lassen und dann über eine Länder aus, also über eine Sprachauswahl praktisch dieses Ziel mit diesen verschiedenen Domains einfach auch zu erreichen und ja Ja, gut. Also da wäre ich einfach sehr vorsichtig wenn du gerade das ganze Shop-System umstellen möchtest oder ein Domain umstellst Ne, es soll erstmal parallel laufen erstmal parallel Ja, ja klar Ne, erstmal parallel Okay Wir überarbeiten unsere URLs jeden Tag mit Informationen und Bildern ca. 1.000 Websites ist die schlechte Indexierung da stehen neue Inhalte und so weiter hochgeladen werden und oder sollten warten bis alle Seiten fertig erstellt sind oder können wir jederzeit Publishing Inhalte freundlichen Ich denke grundsätzlich wenn du sagst es sind etwa 1.000 Websites und da werden alle Seiten neu überarbeitet jeden Tag würde ich da ein bisschen aufpassen dass das nicht in Richtung Spam geht dass die Seiten automatisch erstellt werden manchmal sind das hier dann auch sag ich mal so Produktevergleich Websites wo man die Preise vielleicht automatisch ausfinden kann da macht es natürlich Sinn dass man das so einrichtet dass es automatisch jeden Tag quasi überarbeitet wird aber ich würde da schon ein bisschen vorsichtig sein dass man nicht einfach Inhalte erstellt und veröffentlicht die vielleicht im Gesamtbilden nicht so kritisch sind was da vielleicht mich ein bisschen verwirrt ist die 1.000 Websites die du ansprichst ich weiß nicht genau ob das jetzt 1.000 Seiten sind oder 1.000 wirklich unterschiedliche Websites also unterschiedliche Domains wenn das wirklich 1.000 unterschiedliche Domains sind dann könnte ich mir schon vorstellen dass unsere Websites im Algorithmen das irgendwie mal finden würden wenn das einfach 1.000 Seiten sind innerhalb einer größeren Website dann ist das aus meiner Sicht eigentlich weniger problematisch das sind Sachen die die können sich eigentlich immer wieder verändern ich weiß nicht, du bist glaube ich hier auch im Hangout ich weiß nicht ob du ein bisschen mehr dazu sagen kannst aber grundsätzlich gerade mal wenn man jetzt eine neue Website erstellt und man hat 100.000 Seiten oder 1.000.000 Seiten die da eingestellt werden wenn man mit einem Shop-System anfängt man hat einfach viele Produkte dann kann die auch alle zusammen online stellen es ist nicht so, dass man da Schritt für Schritt das machen muss es ist nicht so, dass man da künstlich die Indexierung verlangsamen muss damit Google das Gefühl hat dass diese Website organisch wächst manchmal kriegen wir einfach sehr viele Inhalte auf einmal und wenn die frei zur Indexierung sind dann versuchen wir die alle hineinzunehmen dann ist das weniger problematisch okay schauen wir mal ob da noch was Neues dazu gekommen ist manchmal kommt da am Ende ja noch mehr dazu okay also wir nutzen das neue Feature Google Jobs in der Vergangenheit wurden Links zu Jobs auf unserer Plattform gesetzt die nun nicht mehr existent sind diese Links laufen also in die Lehre, wie vermeiden wir die Fehlermeldungen am besten müssen wir da die anderen Plattformen kontaktieren oder es ist besser mittels Disavow zu machen Disavow würde da wahrscheinlich nicht viel ändern weil wir verwenden das eher um die Signale von diesen Links zu ignorieren würde ich einfach nur redirect setzen wenn die URLs einfach nicht mehr existieren würde ich normal viel noch viel zurückgeben das ist eigentlich total okay wenn man Google Jobs verwendet kann man ja auch die Indexing API nehmen indexing API kann man auch die URLs angeben die gelöscht worden sind das wäre aber vielleicht auch eine Variante okay ich glaube zeitlich sind wir ziemlich am Ende sind noch 2-3 Fragen offen aber zeitlich schaffen wir das jetzt nicht mehr noch reinzukriegen ich copy mir mal die ganzen Kommentare hier raus dann habe ich meine Hausaufgaben und kann das anschauen dann machen wir vielleicht hier mal Pausen vielen Dank fürs Kommen vielen Dank fürs Vorbeischauen ich hoffe der Hintergrund die Geräusche waren nicht allzu hoch sind gerade Leute hier die irgendwelchen Sachen umbauen müssen und hoffentlich sehen wir uns in einem der nächsten Hangouts wieder wenn ihr Ideen habt wie wir diese Hangouts gestalten können ohne diese YouTube oder Hangouts Infrastruktur zu verwenden die anscheinend weggeht schickt sie mir gerne zu ich denke wir probieren wahrscheinlich einzelne Sachen mal aus und hoffentlich finden wir da schon wieder was was für uns auch funktioniert okay, danke wünsche ich euch noch einen schönen Sommertag hoffentlich nicht allzu rein besten Dank ciao ciao