 Okay, herzlich willkommen beim heutigen Webmaster-Sprechstunden-Hangout. Mein Name ist Johannes Miller, ich bin von Google Schweiz und Teil von dem, was wir machen, sind solche Webmaster-Hangouts, wo verschiedene Webmaster-Publisher zusammenkommen können und ihre Fragen rund um die Google-Suche uns mal stellen können. Dann versuchen wir, Antworten zu befinden. Sind da schon einige Sachen eingereicht worden auf YouTube? Die können wir nachher auch mal durchgehen. Aber wenn eine von euch anfangen möchte, seid ihr gerne dazu eingeladen, schon mal loszulegen? Ja, ich hatte eine Frage. Okay. Wir überlegen gerade einen Moment unsere Hauptnavigation um zu ändern. Also, da kannst du dir das so vorstellen, jeder Hauptnavigation hat so ein Flyout mit, sagen wir 20, Unterpunkten und wir würden das gerne so umstellen, dass diese Unterpunkte verschwinden und eigentlich nur noch diese Hauptbereiche sind und auf den Hauptbereich wieder weitere Links zu den Unterseiten. Jetzt ist halt die Frage, wenn quasi nicht mehr die Homepage den ganzen Link-Views quasi verteilt, sondern immer nur diese Unterseiten, hat das eine schlechte Auswirkung? Das kann an und für sich genauso gut funktionieren. Also, was da einfach, denke ich mal, vom praktischen Herr sich ein bisschen verändert, ist, dass man eher eine flache Site-Struktur hat, dass quasi alles miteinander verlinkt ist. So eine Struktur wechselt, wo es ein bisschen mehr strukturiert ist, quasi ein bisschen tiefer gilt in einzelnen Bereichen und aus unserer Sicht ist das eigentlich total okay. Je nachdem, wie groß die Website ist, ist es sowieso etwas, was man dann machen muss an einem bestimmten Punkt. Man kann ja nicht immer alles miteinander verbinden und das ist eigentlich vollkommen okay. Aus Sicht der Suche, was da passiert, ist, dass wir ein bisschen besser die Struktur der einzelnen Seiten verstehen. Das heißt, wir erkennen ein bisschen eher, was ist der Kontext von einzelnen Seiten, wie passen die zusammen, welche Seiten sind ein bisschen mehr verwandt und das hilft uns eigentlich schon in der Suche, wenn man da in die Richtung geht. Okay. Und was denkst du, wie lange braucht ihr ungefähr, um die neue Struktur zu verstehen? Also, das ist eine Sache von einem Tag oder dauert eher Wochen bis sozusagen die wirklichen Auswirkungen sich überall niederschlagen. Sagen wir, wir würden jetzt einen Test machen, dann ist die Frage, wann würde der Test, sozusagen, ergeben, dass man eventuell nochmal zurückrollen könnte. Schwer zu sagen. Also, ich würde je nach dem, wie groß die Website ist, wenn das nicht etwas ist, was Millionen von Seiten ist, würde ich davon ausgehen, dass das ein relativ fließender Übergang ist. Dass da irgendwie aus unserer Sicht eine große Umstellung stattfindet, sondern wenn die URLs an und für sich gleich bleiben und nur die interne Verlinkung sich ein bisschen verändert, dann ist das an und für sich etwas, was sehr fließend übergehen kann. Es ist nicht wie etwas, wo wir die gesamte Seitstruktur neu erkennen müssen. Okay. Also, die Neuberechnungen meinen zu, geht relativ schnell. Ja. Dankeschön. Okay. Irgendwelche weiteren Fragen, bevor wir loslegen. Okay. Dann fange ich mal an mit den Sachen, die eingereicht worden sind und wenn ihr zwischen euch Kommentare oder weitere Fragen habt, einfach nur reinspringen. Wir haben bei relativ vielen Seiten aktuell das Problem, dass sie trotz regelmäßigen Crawling nicht mit dem aktuellen Content dargestellt werden, also ein altes Snippet in den Suchergebnissen. Da ist ein Beispiel Content Update vom 6. 8. Quasi wahrscheinlich in den Suchergebnissen und Crawling laut Search Console mit 11. 8. Mit veraltem Inhalt im Google Cache ist auch vom 11. 8. Dieses Phenomain beobachten wir bei vielen unserer statischen Seiten. Schwierig zu sagen, was genau das sein könnte. Anführe sich, worauf ich da als erstes tippen würde, ist einfach vom Crawling her, gerade bei einer relativ großen Website. Kann es natürlich sein, dass es vom Crawling her ein bisschen schwieriger wird. Und da würde ich ein bisschen auf das achten, anführe sich. Aber ich schaue mir das mal genauer mit dem Team an. Vielleicht gibt es auch etwas anderes, was da quasi worauf man vielleicht achten könnte oder was man da verändern könnte. Muss ich mal schauen. Wir haben aktuell ein massives Problem mit unseren Inhalten in Google News. Ab dem 9. Juli von 20.000 Sitzungen am Tag auf teilweise dreistellige Werte, insgesamt mit dramatischen Traffic-Rückgang aus Google News, gleichzeitig haben wir festgestellt, dass es in Google News zwei Quellen für uns gibt, mit unterschiedlichen Logos. Ich habe anfühle sich nicht wahnsinnig viel einblick in die Google News-Seite, da von dem her kann ich da nicht wahnsinnig viel sagen, was ich da machen würde, ist eher zum Google News Publisher-Hilfe-Forum gehen oder über den Hilfe-Center von Google News kann ich ja direkt auch mit dem Google News-Team Kontakt aufnehmen. Da würde ich eher in die Richtung gehen. Aber aus unserer Sicht ist Google News ein bisschen etwas Spezielles, was separat handhabt wird außerhalb von Google Search und von dem her habe ich dann nicht wahnsinnig viel Einsicht in was da passieren könnte. Okay, vielleicht noch mal kurz nachgefragt, habe ich mir die Infos über Probleme, gibt's da irgendwie aktuell irgendwas, was Indizierung in News verhindert, weil wir auch wirklich keine neuen Sachen sehen, auch von anderen Publisher und teilweise ältere Sachen, die länger drin sind. Gibt's da irgendwelche Infos? Ansonsten, Hilfe-Center haben wir schon angeschrieben, da sind wir auch schon im Kontakt und Forum würden wir halt auch noch mal probieren, um zu schauen, ob wir irgendwo im Publisher-Center etwas verkehrt eingestellt haben oder ob wir da irgendwas berichtigen können, was wir so die Frage haben. Mir ist an für sich nichts bekannt, ich denke, wenn das jetzt schon ein Monat so wäre und bei anderen Websites auch, dann wäre da das eigentlich relativ verbreitet. Ich kann mal ganz kurz nachschauen vom Crawling her, wie das da einfach aussieht. Aber ich glaube, wir schauen. Vielleicht gibt's das in der Suche. Sonst funktioniert das bei euch oder ist es wirklich nur in Google News oder allgemein nicht bei Google? Im Premier Google News, ein bisschen auch Probleme mit Discover, da laufen wir aktuell auch ein bisschen schlechter, aber werden ausgespielt und Search ist soweit kein Problem aktuell. Ich denke, wenn in Search keine Probleme da sind, dann ist es eher kein Crawling-Problem und kein Indexing-Problem, weil die Sachen laufen ja auch für sich zusammen. Und wenn es wirklich nur die Sicherheit in Google News ist, dann klingt das aus meiner Sicht eher nach etwas auf der Google News Seite. Okay, danke dann. Schauen wir, dass wir da entsprechend nochmal in Kontakt treten und in den Voren nochmal nach Hilfe suchen. Dankeschön. Ja, ich habe auch gerade hier nachgeschaut vom Crawling her. Sieht das eigentlich okay aus? Also ist es wahrscheinlich eher etwas auf der Google News Seite? Macht es nicht unbedingt einfacher, aber immerhin etwas ausgeschlossen. Ja, leider. Okay, bitte. Dann eine Frage zu Search Console. Wir haben in Search Console unter dem Report Top Websites, die auf diese Seite verweisen, ein Link von einer Schweizer Website, welche angeblich auf eine PDF-Datei unser Domain verlinken soll. Wenn ich nun in der Search Console die Details zu diesem Link aufrufe, sehe ich die verweisende Seite und zusätzlich die Spalte, Ziel URL, falls abweichend. In dieser Spalte ist dann ein Link zu einer PDF-Datei vorhanden, welche aber auf dem Server des Konkurrenten liegt. Ich habe... Hengel ist ein bisschen so hintergrundsgeräuschen, kurz da stumm schalten. Was ich gesehen habe in solchen Fällen, was manchmal passiert, ist, dass wir mit dem Canonicalisieren manchmal ein bisschen kämpfen. Das heißt, gerade bei PDF-Dateien ist es ja so, dass diese Dateien in vielen Fällen sind sie eins zu eins gleich. Und wenn wir die genau gleiche PDF-Datei mehrmals auf dem Internet finden, müssen wir irgendwie herausfinden, welches dieser Dateien ist quasi die Canonical-Version, welches ist die Variante, die wir beibehalten sollen und welche soll man quasi nehmen, um alle Signale zusammenzufügen. Und was dann manchmal passieren kann, ist, dass wenn die gleiche PDF-Datei auf verschiedenen Servern ist, nehmen wir eine als Canonical und dort listen wir dann anfühle sich alle Signale auf, die wir zu dieser PDF-Datei insgesamt haben. Und das kann auch sein, dass wenn jemand auf die gleiche PDF-Datei auf einem anderen Server verlinkt, dann wird das auf einmal als Link angesehen zu dieser PDF-Datei allgemein, also zu der PDF-Datei, die im Moment bei euch auf dem Server ist. Und so sieht man dann manchmal diese leicht komischen Situation, dass an und für sich der Link geht zu einer anderen Website, aber weil eure Version von diesem Stück Inhalt als Canonical gesehen wird, wird dieser Link als etwas angesehen, was zu eurer Website führt. Und an und für sich ist die Situation ja nicht unbedingt schlecht, weil das ist ja, an und für sich wird ja eure Datei quasi jetzt dargestellt mit Suchergebnissen. Problematischer oder schwieriger ist es natürlich, wenn das euer PDF ist und eine andere Version wird als Canonical angesehen, das hat man dann nicht so wahnsinnig gern gesehen. Da lässt sich an und für sich vom technischen Herr lässt sich dann nicht wahnsinnig viel machen außer, dass man sagt, ich habe halt eine eigene PDF-Version, die bei mir gelagert wird und das ist halt die Version, die für mich indexiert wird. Und wenn andere eine PDF-Datei nehmen, dann ist es halt eine andere Datei. Aber das noch denke ich mal so zum Hintergrund da. Also ich denke in dieser Situation, jetzt bei dir ist es nicht etwas, wo ich sagen würde, dann müsst ihr irgendetwas machen, sondern es sieht einfach komisch aus und es ist halt so, dass wir da jetzt eure Datei als Canonical genommen haben. Eine Frage zu internationalem SEO. Wir haben mehrere Domains in verschiedenen Sprachen. Der englische Content soll auf der englischen Seite ranken. Wir publizieren den englischen Content zusätzlich auf kleineren Domains wie Polen, Tschechen. Diese Domains sind größtenteils lokalisiert. Vereinselt gibt es den Duplicate English Content. Kann der Duplicate Content für die polnische Seite eine negative Auswirkung auf die Rankings haben oder ignoriert die Suchmaschine einfach den Content? Kannst du bestätigen, dass für den Fall ein Cross-Domain Canonical, das richtige Vorgehen ist, nicht hreflen? Ja, also grundsätzlich ist es nicht so, dass wir solche Arten von Duplicate Content als irgendwie problematisch ansehen würden. Das heißt vom Technischen her ist es ja Duplicate Content, sind die gleichen Inhalte, eine gleichen Sprache auf verschiedenen Domains. Aus unserer Sicht ist das an für sich nicht besonders problematisch, sondern wir versuchen dann einfach eine technische Lösung zu finden, wie wir diese Inhalte sauber in den Suchergebnissen bringen können. Und wenn die Seiten eins zu eins gleich sind, dann nehmen wir eines ihrer Seiten als Canonical, wie im Fall von dieser PDF-Datei vorher. Wenn die Seiten nicht hundertprozentig identisch sind, wenn zum Beispiel oben der Heading oder der Footer vielleicht mal für die polnische Seite ist und die Hauptinhalte einfach in Englisch sind, dann indexieren wir beide Varianten und in den Suchergebnissen versuchen wir dann, eines dieser Varianten zu zeigen. Und das ist an für sich auch keine schlechte Situation. Es ist nicht so, dass da die Website irgendwie problematisch darstellt. Das denke ich mal nur so als Hintergrund da. Das heißt, diese Situation ist jetzt nicht unbedingt etwas, was man kritisch schnell beheben muss, sondern an für sich kann das okay sein. Wenn man das saubere haben möchte, dann würde ich schon mit dem Rel Canonical arbeiten und sagen, das ist meine Canonical-Englische Version. Dann wollen wir die Englische Version auf der polnischen Website finden. Dann können wir diesen Canonical folgen und auf die Hauptversion von diesen englischen Inhalten gehen. Das ist an für sich die beste Variante. Das funktioniert auch über Domains hinweg. Über verschiedene Top-level-Domains auch. Ist überhaupt kein Problem. hreflang würde ich dann einsetzen, wenn man eine englische Variante hat und vielleicht eine deutsche Variante dazu und die Varianten passen zusammen. Dann kann man angeben, dass es die englische Version von diesen Inhalten, dass die deutsche Version von den Inhalten. Aber wenn das alles die gleiche Sprache ist, dann würde ich einfach mit dem Canonical arbeiten und sagen, das ist die Version, die ich indexiert haben möchte. Das möchte ich, dass Google quasi alle Signale dort konzentriert. Schwierig ist es vielleicht, in dem Fall, wenn es die gleiche Sprache ist, aber für andere Länder geeignet ist, wenn zum Beispiel die englische Version als Variante einmal für Englanten, einmal für Australien vorhanden ist, dann würde ich da wieder mit hreflang arbeiten und nicht mit Canonical, weil man möchte ja dann beides dieser Varianten indexiert haben. Aber das sind, glaube ich, die verschiedenen Situationen, die man da haben kann. Einerseits, wenn es alles wirklich die gleiche Datei ist für die gleichen Benutzer, dann würde ich mit Canonical arbeiten, wenn es unterschiedliche Länder sind oder Sprachversionen, die zusammengehören, dann würde ich mit hreflang arbeiten. Okay, das glaube ich, habe ich soweit verstanden. Wie ist das denn jetzt, ist das Thema akut und müsste ich da jetzt akut was machen, wenn die polnische Seite hat 90% Duplicate Content, kann die dadurch dann abgestraft werden oder ist das eigentlich was, was man halt sauberer so hätte, aber eigentlich keine Probleme macht? Ja, also ich würde das als etwas ansehen, was man mal aufräumen könnte. Ich denke, wenn das 90% ist, hat man sicher ein Vorteil, wenn das ein bisschen aufgeräumt ist, aber es ist nicht so, dass wir das irgendwie abstrafen würden oder vom Webspam Team her, dass wir das als etwas Schlechtes anschauen würden. Problematisch mit Duplicate Content ist eher die Situation, wenn eine Website wirklich nur Inhalte von anderen Websites veröffentlicht. Wenn man quasi einfach die Nachrichtenberichte von zwei, drei größeren anderen Websites nimmt und die einfach eins zu eins immer nach spielt, dann ist die ganze Website an und für sich überflüssig, weil die Inhalte haben wir ja schon. Aber wenn das, vielleicht mal aus technischen Gründen so ist oder wenn man verschiedene Ländervertretungen hat, ist das überhaupt kein Problem. Wenn das Webspam Team das anschauen würde, dann wäre das überhaupt keine Sache für sich. Super. Vielen Dank. Wir haben im Abdeckungsbericht der Search Console teilweise URLs, welche seit dem Relaunch vor zwei Jahren drin sind. Die URLs sind 404 Seiten, welche nicht weiter relevant sind. Ab wann fallen diese URLs aus dem Abdeckungsbericht so aus? Ich habe da keine Zahl. Wann das sein könnte? Normalerweise ist es so, dass 404 Seiten einerseits ab und zu wieder neu gekraut werden, einfach weil wir sicher sein möchten, dass wir nichts verpassen. Andererseits fallen sie dann auch sehr, sehr lange nicht aus unserem System heraus. Einfach weil wir sicher sein möchten, dass wir da keine Signale verlieren. Wenn wir irgendwelche Informationen zu diesen 404 Seiten mal gesammelt haben, dann behalten wir diese Informationen für eine relativ lange Zeit. Und das kann durchaus mehrere Jahre gehen. Und an und für sich ist das nicht etwas, was aus unserer Sicht problematisch ist. Dass Google noch weiß, dass da 404 Seiten waren, sondern das ist eigentlich nur zur Information für euch da. Ist es aus Google Sicht okay, wenn wir das Videotag für den Videoplayer nur im Dom sichtbar machen und nicht etwa im Quellcode der Seite? Der Googlebot findet den Tag im Gerenderten-HTML. Für uns wäre es technisch sehr kompliziert, das Tag mit Meta-Information, wie Poster, Image und so weiter im Quellcode zu befüllen. Wenn es jedoch nachweislich besser funktioniert, würde ich mich dafür einsetzen. Also ich nehme mal an, dass diese Video-Elemente einfach per JavaScript eingebunden werden auf diesen einzelnen Seiten und aus unserer Sicht, wenn die in der Gerenderten-Version dabei sind, ist das vollkommen okay. Man muss nicht den Videotag im HTML-Sourcecode haben, sondern das ist total okay, wenn das per JavaScript eingebunden wird, solange wir das erkennen können durch das Rendering. Und das klingt so, als ob ihr da die richtigen Tools schon verwendet in Search Console, dass man da nachschauen kann, quasi sind diese Tags auch wirklich vorhanden in der Gerenderten-HTML-Version. Und wenn das okay ist, dann würde ich das so einfach lassen. Was man zusätzlich machen kann, ist natürlich mit einer Video-Seitmap-Datei arbeiten, dass man diese Information auch noch zusätzlich über die Seitmap-Datei einreichen kann, damit man ein bisschen sicherer ist, dass Google das wirklich auch alles aufgefunden hat. Eine Frage zu den Rezeptgaleriesuchtreffern. Kann man hier das vollständige Rezeptbild anzeigen lassen? Häufig erscheint nur ein kleiner Bildausschnitt im Rezeptgaleriesuchtreffer angezeigt. Es wäre praktisch da vielleicht ein paar Beispiele zu sehen. Wenn du zu dieser Frage noch irgendwie eine Antwort dazu schreiben könntest oder mir auf Twitter welche Screenshots mal zuschicken kannst, dann kann ich das gerne mal anschauen. Ich denke, gerade bei Rezepten, wo die Bilder in sehr verschiedenen Arten verwendet werden, ist es manchmal ein bisschen schwierig, dass man wirklich auch die Bilder in den richtigen Formaten verfügbar hat. Und wenn wir nicht sauber erkennen können, dass die Bilder quasi da sind, dann kann es sein, dass wir die Bilddateien, die wir sehen so zusammenschneiden, dass sie passen für diese Ansichten. Und mit den Formaten mag ich nicht quasi, ob das JPEG oder PNG oder was auch immer ist, sondern eher mit der Gesamtauflösung von diesen Bildern und quasi mit der Breite und der Höhe diesen Verhältnissen. Weil für die einzelnen Einsatzorte, gerade bei Bildern, bei Rezepten sind ja Größenverhältnissen ein bisschen unterschiedlich, die wir da brauchen. Das sollte eigentlich alles in der Entwickler-Dokumentation dort zusammenstehen. Und man kann ja auch die für diese Hauptbilder, kann man ja verschiedene Bilddateien angeben, für die einzelnen Varianten. Und da würde ich einfach da vielleicht mal nachkontrollieren, ob man wirklich diese Varianten, wo man erscheinen möchte, auch sauber abgedeckt hat, so dass wir wirklich mit diesen Bilddateien arbeiten können, die ihr auf diesen einzelnen Rezeptzeiten auch ausliefert. Aber eben wie gesagt, wenn das bei euch alles okay ist, sonst und ihr das eigentlich so weit richtig zusammenstellt und es funktioniert trotzdem nicht in der Suche, wäre ich froh, wenn ihr mir ein bisschen Screenshots oder konkrete Beispiele zuschicken könnt. Dann kann ich das mit dem Team hier mal anschauen. Dann hat sich noch eine englische Frage dazwischen verehrt. Ich denke, wir gehen mal die deutschen Fragen erstmal durch. Im Gegensatz zu Chrome und Edge und Safari erscheinen mit Firefox auf meinem Handy keine AMP-Seiten in den Google-Such-Ergebnissen, sondern immer nur die Nicht-AMP-Seiten. Wie kommt das? Schwierig zu sagen, es ist nicht genau welchen Browser welche Handy-Version da verwendet wird bei euch und ob das vielleicht ein Einfluss hat, weil gerade bei AMP-Seiten und bei verschiedenen anderen Elementen, die wir in der Suche verwenden, ist es so, dass wir auch auf die Browser-Möglichkeiten quasi achten. Und wenn wir das Gefühl haben, dass das Browser, den ihr im Moment verwendet, nicht die volle Funktionalität bietet, die wir für diese Suchergebnisfunktion brauchen, dann stellen wir das vielleicht auf eine Stufe zurück. Und bei AMP-Seiten kann das sein, also, ich weiß nicht, ob das hier jetzt der Fall ist, aber gerade am Anfang war das sicher mal ein bisschen schwieriger. Bei AMP-Seiten kann es sein, dass wir den Browser so einstufen, dass wir denken, das hat nicht alle Funktionen, die wir jetzt brauchen, also liefern wir nicht die AMP-Variante raus, sondern die normale HTML-Variante. Und das ist eher, aus unserer Sicht ist es eher, sag ich mal, eine technische Anpassung an die Möglichkeiten von diesem Browser und nicht irgendwie eine Qualitätseinstufung oder so etwas, sondern wir möchten einfach sicher sein, dass der Benutzer zumindest die Seiten auch sehen kann, die wir vorschlagen in den Suchergebnissen. Manchmal kann es sein, dass unsere Systeme da ein bisschen zu konservativ sind und denken, ah, das ist ein Browser, den haben wir noch nicht gesehen. Wir wissen nicht, ob das alles funktioniert und dabei ist es eigentlich nur eine neuere Version von einem Browser, den wir schon gut kennen. Und in solchen Fällen wäre es auch praktisch, wenn wir ein bisschen genauere Informationen hätten, quasi die Version vom Handy oder vom Betriebssystem vom Handy, die Browser-Version, damit wir das hier auch mal nachstellen können und sicher sein können, dass wir das richtig einstufen. Weil wie gesagt, manchmal trifft es sich gerade so, dass wir da ein bisschen eher zurückhalten sind, als dass wir da einfach diese Sachen schon mal frei aufschalten. Ich weiß doch nicht, ob das jetzt nur bei AMP ist oder ob das bei anderen Funktionen in den Suchergebnissen auch ist. Manchmal sieht man das, wenn man zum Beispiel JavaScript abstellt oder mit einer ganz alten Browser-Version in die Google-Suche geht, dann sieht man auf einmal eine sehr vereinfachte Version von der Google-Suche. Und da gibt es verschiedene Abstufungen dazwischen, die da auch vorkommen können. Du hattest mal erwähnt, dass es der Crawler nicht mag, wenn einer die Angaben zur letzten Änderung steht. Nun habe ich folgende Frage. Wir haben Programmierseitig, Seitentitel und Descriptions sowie einige andere kleine Dinge verändert und hinzugefügt, welche dazu führen, dass auch Inhalte dynamisch ausgespielt werden. Und das CMS gibt jedoch als Last-Modify-Date das Datum an, wann wir den Inhalt des Beitrags zuletzt geändert haben, was nicht so häufig vorkommt. Geht ein bisschen weiter noch die Frage. Aber grundsätzlich ist es so, dass wir in der Seitentate am liebsten ein Änderungsdatum haben, welches uns ein bisschen Handhalt gibt, damit wir feststellen können, ob wir diese Seite jetzt neu crawlen müssen oder nicht. Wenn man da ein bisschen zurückhaltender ist, ist es überhaupt kein Problem. Es ist nicht so, dass unser Crawling weniger häufig stattfindet, wenn in der Seitentate ein älteres Datum ist. Problematisch ist für uns nur, wenn in der Seitentate überall das gleiche Datum ist. Das heißt, ich erstelle eine Seitentate auf dem Server und alle Datumsangaben sind für jetzt. Dann, wenn wir das anschauen, dann denkt man gut, wir haben überhaupt keine Informationen zum Datum her. Das heißt, wir können das an und für sich ganz ignorieren und konzentrieren uns eigentlich nur auf das normale Crawling. Wir suchen höchstens noch die neuen URLs raus, die wir noch nicht gesehen haben in der Seitentate aber ansonsten konzentrieren wir uns auf das normale Crawling. Wenn in einer Situation wie hier ein älteres Datum in der Seitentate ist, als quasi die Seite aktuell verändert ist, ist das an und für sich nicht weiter problematisch. Wie crawlen normal eigentlich trotzdem noch weiter auf der Website. Huch, bist du sehr still. Hört man mich jetzt besser? Kleines bisschen, aber immer noch sehr schwer. Okay. Ich habe eine Frage dazu. Hört man mich jetzt besser? Perfekt. Perfekt, den richtigen Regeln auf Anheb gefunden. Wir haben jetzt zum Beispiel Auszeitmaps, wo wir kein Datum mit anfangen, weil sich der Inhalt quasi täglich verändern kann, weil das dynamisch ermittelt wird von Sachen, die wir vom Server kriegen. Ist das denn tragisch? Das ist okay. Das ist an für sich total okay. Es ist lieber keine Zeit angeben, statt eine falsche. Das ist auch okay. Ja. Ich denke, in solchen Situationen ist es schwierig für uns zu erkennen, wann sich die Inhalte verändern. Aber wir nehmen ja dann trotzdem noch die neuen Seiten aus der Seitentate dazu. Zumindest der Teil ist dann sauber abgedeckt. Das heißt, wir finden die neuen URLs ein bisschen schneller. Wir wissen zwar nicht, wann die Alten sich verändern, aber das kann man ja durch normales Crawling irgendwie herausfinden. Okay. Perfekt. Perfekt. Wie kann man mit fremden Content per iFrame oder per Ajax JavaScript gefüllte Steve in die eigene Website interieren, ohne SEO-Nachteile die eigene Website zu riskieren? Beispiel, ein Anbieter stellt Produkt-Tests zusammen und erlaubt es zum Beispiel Online-Shops, diese auf Detail-Seiten der jeweils passenden Produkte per iFrame einzubinden. Wie kann man sicherstellen, dass dies den Online-Shops nicht schadet? Stichwort, due to the content, external links, Indexierung, no index und so weiter. An und für sich ist das total unproblematisch. Das heißt, aus unserer Sicht ist eigentlich nur wichtig, dass man auch noch eigene Inhalte auf diesen Seiten hat. Das heißt, wenn die gesamte Seite einfach ein iFrame ist von einer bestehenden Seite und die bestehenden Seite haben wir eh schon indexiert, dann ist es für uns nicht wahnsinnig hilfreich, diese neue Seite mit dem iFrame auch zu indexieren. Manchmal machen wir das trotzdem, wenn zum Beispiel ein iFrame einfach ein Teil von den Inhalten ausmacht von einer Seite, dann ist das für sich total unproblematisch. Was ein bisschen schwieriger ist, wo wir an und für sich keine genaue Definition haben, wie wir das handhaben würden, ist, was wir mit diesen Inhalten machen, die per iFrame quasi eingeliefert werden. Weil einerseits könnten wir diese Inhalte ja der Hauptzeiten quasi dazu rechnen. Andererseits können wir diesen iFrame, was ja auch eine separate HTML- Seite ist, auch separat indexieren. Das sind die zwei Varianten da, die Hauptzeichen vorkommen können. Aber in beiden dieser Situation ist es nicht so, dass für den Shop, wo dieses iFrame eingebunden wird, irgendwelche Nachteile entstehen. Sondern ist quasi dann nur die Frage, werden die zusätzlichen Inhalte noch dazu gezählt oder werden sie nicht dazu gezählt? Wenn man per JavaScript das Ganze einbindet, dann ist es eine Frage vom Rendering, ob wir da quasi jetzt Rendering verwenden zum indexieren von diesen Seiten, was wir eigentlich bei den meisten Seiten machen. Und wenn wir die Seite renderen, dann werden die Inhalte ja per JavaScript eingelesen. Wir können das in den meisten Fällen sauber erkennen. Und wir zählen das sicher dann auch den Inhalten von dieser Seite. Aber eben wie gesagt, in all diesen Situationen ist es nicht so, dass ein Nachteil entsteht für die Seite, die diese Inhalte einbindet. Stichwort Duplicate Content, denke das haben wir angeschaut, externe Links. Mit externen Links ist es natürlich so, wenn die Inhalte dazu geführt werden zu euren Inhalte für die Indexierung, dann sind die Links, die in diesen Inhalten dabei sind, auch natürlich wie Links auf euren Seiten zu diesen externen Seiten. Vielleicht ist das okay, vielleicht ist es so seltsam, worauf man aufpassen muss. Bezüglich Noindex, es gibt ich denke die das wahrscheinlich gemeint, dass wenn man jetzt die Inhalte im Iframe per Noindex auf Noindex setzt und diese dann per Iframe eingebunden werden, ob die Inhalte trotzdem indexiert werden, da bin ich mir nicht 100% sicher. Meines Wissens ist es so, dass wenn wir ein Noindex auf den Iframe Inhalten sehen, dann würden wir die nicht dazu nehmen, für die Indexierung. Man kann diese Frage auch ein bisschen umgehen, in dem dass man quasi auf die sichere Variante setzt, in dem dass man zum Beispiel per Robots Text arbeitet. Das heißt, wenn quasi die Inhalte im Iframe per Robots Text blockiert werden, dann können die auf keinen Fall dazu genommen werden, für die Indexierung von dieser Hauptzeite, wo dieses Iframe eingebunden wird. Ich hoffe, dass es nicht allzu kompliziert mit quasi der Hauptzeite und den Iframe Inhalten und all das. Aber grundsätzlich als online Shop, wenn man per Iframe Sachen einbindet und wenn die so weit hilfreich sind für Benutzer und die nicht den Hauptinhalt eure Seiten ausmachen, finde ich das total unproblematisch und da würde ich eher auf das achten, was ihr mit Benutzer macht und wie Benutzer auf diese Zusatzinformation reagieren können. Da war noch irgendwas im Chat, glaube ich. Eine Frage für Google Images, wie man das effektiv ist, was ihr nutzen kann und nach welchen Faktoren Google Image Search die Bilder tatsächlich rankt. Die Ranking Faktoren habe ich da nicht, nicht gerade. Aber wir haben eine Hilfe-Seite, speziell für Google Images mit den ganzen Best Practices. Das würde ich auf jeden Fall noch anschauen. Das sind an für sich die Faktoren, die für uns wichtig sind, worauf wir achten, gerade bezüglich Google Images auf die Frage, wie weit das hilfreich sein kann für SEO, ist es so, dass für die normale Suche sind die Bilder natürlich weniger relevant, weil die sind ja nicht sichtbar in den normalen Suchergebnissen. Wenn hingegen Benutzer eher bildlich suchen, wenn sie zum Beispiel über Google Images gehen und Inhalte suchen möchten, die ihr habt, wenn man zum Beispiel auf Google Images und jemand geht zu Google Images und sagt, ich möchte jetzt gerne mal rote Koffer sehen, dann ist es natürlich praktisch, wenn man seine rote Koffer dort platzieren kann und dann können Benutzer zu euch kaum über das Bild an und für sich. Das ist aber eine Sache, die hängt sehr von der Art der Website ab und von der Art und Weise, wie Benutzer mit euren Inhalten umgehen, wie sie nach diesen Inhalten auch suchen. Es kann sein, dass in einzelnen Situationen geht fast niemand über Google Images eure Inhalte suchen und in anderen Situationen gehen sehr viele über Google Images eure Inhalte suchen. Das andere, was jetzt neu noch ein bisschen dazu gekommen ist, ist ein bisschen die Vermischung von beiden, nämlich in Discover ist es so, dass, wenn wir ein großes Bild zeigen können, haben wir einfach gesehen, dass mehr Leute eher auf diesen Beitrag klicken. Das heißt, wenn ihr viel traffic über Google Discover habt, da macht es wahrscheinlich auch ein bisschen sehen, dass man auf die Bilder achtet und darauf achtet, wie man diese präsentiert und zeigt auf der eigenen Website, dass man da vielleicht auch überlegt, mit diesen Max Image Preview, Metatag zu arbeiten, ob man da jetzt ein großes Vorschaubild auch erlauben möchte oder nicht, weil gerade in Discover sehr viel schöner aus mit einem großen Vorschaubild. Das sind mal die Sachen, wo ich darauf achten würde. Dann die andere Frage ist noch bezüglich Websitehygiene. Das haben wir wohl in der letzten Session nicht geschafft, bis dahin. Okay. Ich glaube, das gehen eher so in die Richtung quasi, ob es sich lohnt, die Alten und quasi nicht mehr relevanten Inhalte einer Website zu löschen oder ob man die einfach beide halten soll. Was etwa das? Genau. Hi, John. Gut, dass wir die Frage mal kurz durchsprechen. Also für mich sind halt eben so zwei Faktoren da natürlich entsprechend. Einmal die Crawlability der Seite selber, weil natürlich somit automatisiert einlaufende News von der DPA und so weiter und sofort auf Publisher Seite fühlt sich der Seitenindex ja immer weiter, immer weiter. Auf der anderen Seite aber damit natürlich auch eine gewisse Relevanzerhöhung, weil man natürlich mehr Content zu diversen Themen eben hat. Klar muss man dann halt eben sehen, dass so sage ich jetzt mal unwerter Content oder so klassische Zweizeiler News etc., das ist in meinen Augen eher irrelevant, so was kann man gut aussortieren. Aber wie ist da das Verhältnis, frage ich mich in der Gewichtung, also was trägt wirklich mehr oder was zeigt sich eigentlich deutlicher eben, so dass man eine Relevanzerhöhung durch mehr Content hat und eher eine Contentbereinigung Website Hygiene machen, dadurch die Crawlability erhöht. Was würde da eher wichtiger sein oder was würde es dann eine Empfehlung, wie du sagen könntest? Ja, ich denke es hängt sehr von der Webseite ab, ob sich lohnt das ein bisschen auszuräumen oder nicht und von den Art von Inhalten, die man hat. Also ich denke, vielleicht grundsätzlich würde ich mal die Frage der Relevanz zusammen und sagen grundsätzlich, gerade bei Nachrichten Websites schauen wir einerseits die Website insgesamt ein bisschen an, aber wir schauen eher auf die einzelnen Seiten, die da vorhanden sind. Das heißt, es ist nicht so, dass wenn ich 5000 Berichte habe dass meine Website mehr relevant ist als wenn sie 500 Berichte hat und es ist nicht so, dass man da quasi Relevanz verliert wenn man Sachen löscht, die eigentlich nicht mehr so wichtig sind. Und von dem her ist es schwierig zu sagen was man genau machen müsste, aber ich denke die Frage von Crawlability ist sicher eine Frage. Die Frage der Gesamtqualität einer Website spielt da vielleicht auch noch eine Rolle, wenn man viele Berichte hat, die quasi über Agenturen hereinkommen die eigentlich die gleichen Berichte sind wie alle anderen haben wenn das viele Seiten sind mit sehr wenig Inhalten dann sind das vielleicht Sachen, die man rausnehmen könnte und dann kann man vom Crawling her das Ganze ein bisschen besser anschauen mit der verbesserten Crawlability können wir natürlich neue Sachen auch viel schneller aufholen und an für sich ja, das sind eigentlich so die Hauptelemente da. Das heißt für die meisten Websites die vielleicht mal mit einer übersichtlichen Menge von Inhalten sind spielt das wahrscheinlich keine große Rolle wenn ich von 3.000 Seiten auf 2.000 Seiten herunterkürze hingegen wenn ich eine Nachrichten- Website bin und von 3 Millionen auf 2 Millionen zurückkürzen kann dann kann das natürlich schon einen Einfluss auf das Gesamt Crawling und auf die Geschwindigkeit von 9 Inhalten wie schnell das ins Index kommt. Hilft das ein bisschen? Ist keine klare Antwort oder nein? Nee, aber das geht schon so in die Richtung wie ich mir auch gedacht habe also erstmal eine qualitative Bewertung natürlich von den Inhalten die wir da haben sind es halt Duplicates die auf 28 anderen News-Plattformen eben auch vorhanden sind et cetera, dass man einfach mal eine logische nachvollziehbare Bewertung einfach macht und dann guckt ob man das einfach in einem gesunden Maße eingrenzen kann was ist jetzt tatsächlich das gesunde Maße, weil tatsächlich um ein vollständiges Inhaltsangebot eben abzubilden gehören vielleicht auch mal kleinere News dazu, also sagen wir zum Beispiel im Sportbereich so eine Newsticker und so weiter und sofort, da fliegen ja dann gerne mal so Einsatz, Nachrichten bzw. 2-Zahler eben auch mit rein die aber tatsächlich auch eine gewisse Aussage haben können oder haben kann die man vielleicht doch besser behält und deswegen fällt dann da oder ist es nicht wirklich eindeutig zu determinieren was ist nicht der wertige Content oder wie kann man da eben dann wegschneiden vom Ende des Tages geht es dann auch wieder man testen müssen ein bisschen einen gewissen Punkt aber ja also danke schon mal für die Antwort alle dass halt eben Crawlability würde ich tatsächlich dann halt eben so vor also ein bisschen vorgelagert sehen tatsächlich eben weil wir dann eben auch ein paar Millionen Seiten eher reden als nur von ein paar hundert oder paar tausend und da ist das dann sicherlich sinnvoller ich würde auch ein bisschen auf den den Traffic von der Google Suche achten bei diesen einzelnen Seiten und da sieht man ja dann auch sehr schnell wenn das vielleicht mal Artikel sind die gewisse Alter haben und die nie Traffic aus der Google Suche geben dann spielt das ja auch an für sich auch keine Rolle für euch, ob man die jetzt behält oder nicht weil sie kriegen ja, sag ich mal eh kein Traffic was man machen kann ist auch mit no index arbeiten, was man sagt, gut ich lösche sie nicht erst, ich setze sie auf no index vielleicht für eine gewisse Zeit damit solche die über eure Website zu euch kommen quasi über die interne Suche das immer noch finden können und dann hat man natürlich auch wieder ein paar Metrics mehr die man anschauen kann, wo man sagen kann gut wir haben sie auf no index gesetzt aber sind trotzdem noch viele Leute da hingegangen das heißt, vielleicht sollten wir sie doch nicht löschen, vielleicht sollten wir sie doch nicht auf no index setzen wenn man das im großen Rahmen anschaut kann man natürlich die einzelnen Seiten nicht so anschauen, aber all diese Zahlen und Metricen helfen dann vielleicht eher einfach ein Ort zu finden wo man sagt, alles was diese Zahlen in dem Bereich hat ist etwas was wir vielleicht löschen oder das wir auf no index setzen für ein Jahr und nach einem Jahr nehmen wir diese Bereiche dann wieder und überlegen war das okay auf no index oder müssen wir die erst rücksetzen super, danke okay wir haben Listical erstellt zu den besten Filmen auf Netflix darin verlinken wir unter anderem auf Filmkritiken und haben auch die entsprechenden Filme bei Netflix würdest du das problematisch sehen wenn wir sehr oft auf Netflix verlinken wir dachten, das wäre im User Interesse da sich den User dort direkt auf seine Watchlist setzen kann also ich denke Netflix freut sich sicher wenn ihr viel auf Netflix verlinkt aus unserer Sicht ist das total euch überlassen wenn ihr findet, dass diese Links für eure Website Sinn machen wenn das für Benutzer gut klappt dann ist das ja eigentlich ein Mehrwert den ihr da liefert und von dem her würde ich das nicht irgendwie unterdrücken nur weil das sehr oft auf eine Website verweist das ist ja auch wenn man zum Beispiel im Affiliate-Bereich arbeitet und mit Amazon arbeitet dann hat man vielleicht auch viele Links die zu Amazon gehen und das ist ja total okay es ist ja ein Teil von dem Wert den ihr den Benutzern liefert dass sie es einfacher macht diese Inhaltsstücke direkt zu finden die Frage von Crawling Content-Indien haben wir angeschaut wir passen regelmäßig unser Seitentitel an um den Benutzer klarzumachen wenn es Informationen gibt diese werden auch automatisch aktualisiert zum Monatwechsel ändern wir zum Beispiel immer den Monatsnamen im Page-Titel nun crawlt Google diese Seite jedoch manchmal seltener sodass Mitte August noch Stand Juli 2020 steht wie kann man Google dazu bringen das schneller zu übernehmen macht es Sinn jeden Monat zum ersten das Last-Modify-Date das Heikmat-Datei anzupassen oder ist das eher schlecht also ich würde vielleicht mit der Seignap-Datei würde ich allgemein das dann anpassen wenn ihr die Hauptinhalte angepasst habt das heißt wenn ihr durch eure Systeme die Inhalte aktualisiert habt dann würde ich das Änderungsdatum setzen in der Seignap-Datei egal was jetzt auf dem Titel da entsprechend steht und so können wir da auch einigem sollten wir einigermaßen Informationen auch quasi regelmäßig nachkommen können bezüglich dem Page-Titel alleine ich könnte mir vorstellen dass unsere Systeme, wenn sie eine Seite crawlen uns hat sich nur der Titel verändert dass unsere Systeme da vielleicht einfach ein bisschen langsamer auf so etwas reagieren weil sie denken die Hauptinhalte haben sich eigentlich nicht verändert das ist etwas was bei uns denke ich mal eher einfach als Optimierung gemacht wird dass wenn wir vom Crawling her die Seite neu crawlen und denken ja gut das ist alles das gleiche wie vorher dann müssen wir diese Informationen nicht im Index auch alles weiterreichen aber zur grundsätzlichen Frage wie kann man Google dazu bringen quasi alle Seiten immer schneller zu crawlen das ist nicht so wahnsinnig einfach da kommen verschiedene Faktoren quasi da zusammen oft wird das unter dem Thema Crawl Budget zusammengefasst wir haben auch einen Blog-Post über Crawl Budget mal gemacht wo wir diese verschiedenen Sachen dazu nehmen einerseits ist es natürlich der Bedarf von Google quasi wie viele Zeiten möchten wir crawlen von eurer Website und das hängt ein bisschen davon ab von der Gesamtqualität von der Website von der Geschwindigkeit mit der sich die Inhalte tatsächlich ändern innerhalb der Website wo wir dann versuchen festzustellen so und so viel müssten wir crawlen damit wir da auch wirklich auf einem Stand bleiben der für Benutzer wenn sie in der Suche sind auch einigermaßen passt das ist mal die eine Variante die andere Seite zu dieser Geschichte ist natürlich dass wir nicht alle Websites beliebig auf crawlen können weil die Server das natürlich nicht so wahnsinnig toll finden da versuchen unsere Systeme automatisch quasi ein Niveau zu finden wo wir sagen können das verträgt der Server gut und wenn wir sehen dass der Server zum Beispiel langsamer wird oder wenn er Server Fehler zurück gibt dann crawlen wir halt ein bisschen weniger häufig wenn wir sehen dass der Server da gut damit zurechtkommt wenn die Antwortseiten relativ schnell sind dann können wir das auch ein bisschen erhöhen und das sind dann quasi diese beiden Seiten die ein bisschen damit hinein spielen einerseits der Bedarf wieviel möchten wir gerne crawlen und andererseits wieviel finden wir dass wir crawlen können ohne dass wir irgendwelche Probleme verursachen auf dem Server aber das ist ein bisschen mehr ein Detail auch in dieser Blogpost die wir damals mal geschrieben haben wo man das ein bisschen auch anschauen könnte dann noch eine Frage für eine PWA wenn man die Sprach wenn man den Sprachswitcher bedient so sieht man hinter.com sehr kurz die Parameter redirect gleich eins und Language gleich französisch zum Beispiel und dann schließlich wird das wieder weitergeleitet auf die Hauptversion die Sprache ist auch französisch es gibt also keine Sprachverzeichnissen und die Sprache wird anscheinend auch durch die Spracheinstellung des Brows ermittelt das ist für SEO problematisch also ferner auch wenn man die Sprachversion einer Webseite per JavaScript erledigt grundsätzlich ist es für uns sag ich mal problematisch also ich mein hängt immer davon ab wie problematisch man das sieht aber wir würden die verschiedenen Sprachversionen nicht sehen wenn die gleiche URL verwendet wird mit unterschiedlichen Sprachvarianten das heißt wenn die gleiche URL einmal aufgerufen auf französisch die Inhalte gibt einmal aufgerufen auf englisch die Inhalte gibt wir indexieren diese Inhalte einmal und wir nehmen die Variante die wir kriegen das heißt wir würden auch kein Sprachswitcher quasi bedienen und quasi folgen und schauen was da alles passiert sondern wenn wir einen Link auf eine Sprachversion finden und das ist ein separator URL dann können wir diese Sprachversion crawlen und indexieren und können dann diese Inhalte in der Sprache entsprechend indexieren wenn hingegen das über ein Link auf eine Seite geht und da wird ein Cookie gesetzt und dann gibt es ein redirect zurück das ist etwas was wir nicht verfolgen können weil Googlebot für sich keine Cookies verwendet und von dem her in der Situation wahrscheinlich mit eurem PWA dort können wir wahrscheinlich nur eine Sprachversion indexieren wenn Googlebot crawled ist es glaube ich so dass wir gar keine Sprachvariante angeben das heißt wenn ihr denkt ah das ist ein Benutzer aus Amerika und greicht die englische Version ausliefert für uns dann indexieren wir halt die englische Version wenn jemand aus Frankreich quasi die französische Version sehen würde und wir würden dann die Variante auf französisch nie indexieren können ja das sind an für sich so die Seiten da also aus unserer Sicht ist es nicht kritisch problematisch aber wir würden einfach diese Sprachversion nicht sehen und das wäre ja an für sich auch schade okay zeitlich sind wir bald gegen Ende vielleicht überlasse ich euch mal noch das Wort falls irgendwelche Fragen noch da sind ja ich hatte da noch eine Frage okay folgendes wir haben seit geraumer Zeit das ist bei uns abnimmt mit den Seiten die schon bereits von Google gefunden worden sind über die Zeitmaps das heißt also wir haben eine Zeitmaps mit 10.000 Seiten eingereicht und davon hat er dann irgendwann auf einen Schlag so um die 5000 Seiten nach und nach gecrawled und jetzt sind sie rausgeflogen und sie sind weder irgendwie in irgendeiner Auflösung drinnen die positiv wäre oder sonst was sondern ist einfach so das Google die in der Suchkonsole einfach sie sind nicht mehr da es ist nur noch eine Seite von der Zeitmap genommen und wir haben keine Fehlermähnungen nichts bekommen wir sind auch gerade ahnungslos fast da jetzt eigentlich los ist obwohl wir nichts geändert haben an der Zeitmap also das ist seit Monaten sehr gut gewesen grundsätzlich ich weiß nicht wie das bei euch jetzt im genauen da aussieht aber grundsätzlich ist es so dass mit der Indexierung kann es so Schwankungen geben das heißt gerade bei einer größeren Website kann es durchaus sein dass wir mal 10.000 Seiten indexieren und dann im laufe der Zeit vielleicht auf 5.000 zurückgehen und dann wieder hoch auf 20.000 so etwas diese Fluktuation kann es immer geben und das ist das hängt an für sich von unseres Systemen ab die versuchen da quasi optimal maß zu finden für die Indexierung von den einzelnen Websites ich vermute dass es ungefähr das was da jetzt sich ein bisschen einpendelt bei euch dass wir da nicht genau sicher sind wieviel es auch mit der effektiven Indexierung und das ist etwas wo wenn wir sehen dass die Inhalte eigentlich gut funktionieren in der Suche wenn wir gute Signale für diese Inhalte haben dann wird sich das auch wieder ein bisschen steiger also ich denke wenn gerade wenn ihr jetzt keine genauen Fehlermeldung gesehen habt in Search Console über die Sitemap Dateien dann ist es nicht ein technisches Problem sondern einfach unsere Systeme die Versuchung festzustellen wieviel sollen wir da effektiv indexieren ja interessant ist halt nur dass man halt gesehen hat über ein Monat hinweg dass es immer weniger wurde und jetzt haben wir halt eine Seite drin und eine Seite ist ein bisschen schwierig das ist ein bisschen wenig auch in der Argumentation ein bisschen schwierig zu sehen ja ok klickt sich das gut ist der Content gut also mit einer ist man ein bisschen schwer zu finden also von der gesamten Website ist jetzt nur eine Seite noch indexiert also von unserer Sitemap es eine indexiert und ansonsten sind irgendwie wie Google auch immer die Seiten der Gerichtheit über Verlinkungen was sind so um die 2000 techniziert ok ich schau mal nach ich glaube du hast immer deinen Domainnamen irgendwo angeben genau da schau ich mal nach das klingt schon ein bisschen sehr wenig ok perfekt ok haben wir noch Zeit für eine Frage? ja weh Klaus ja Heijan ich war jetzt die ersten 10 Minuten nicht da vielleicht hast du sie schon beantwortet wenn wir zum Beispiel zusätzliche Links setzt wie Text setzt wie Sponsored geht da der bot trotzung noch dem Link nach oder bremst er dann an der Stelle also so ein nofollow und Sponsored Link Tag würde das dann ausbremsen oder nicht? wir würden da ich sage mal in den meisten Fällen würden wir keine Signale weitergeben an dieser Seite das ist nicht eine Garantie dass wir sie nicht crawlen würden das heißt wenn sie nicht gekrawlt werden soll würde ich bei robots Text arbeiten wenn es ok ist wenn sie nicht gekrawlt wird dann kann man das an für sich so lassen es geht auch um die abfrage von Budget also wenn der bot dem Link folgt dann haben wir von unserem Partner wie so ein Budget aufgeraucht dass wir natürlich den User zur Verfügung stellen wollen deswegen trage ich dann ok ich spreche mal mit den Techies um das sich mit robots.txt machen lässt denk schwierig weil dynamisch aber was man manchmal auch machen kann ist dass man ein Art Redirektor einrichtet auf der eigenen Website gerade für solche Situationen wo quasi nicht durch gekraut werden soll der Link und dass man diesen Redirektor dann auf robots.txt quasi blockiert ok das klingt spannend ok vielen Dank dafür cool ich glaube zeitlich sind wir so ziemlich am Ende es sind noch ein paar Fragen da ich schaue mich dann noch ein paar Antworten dazu schreiben kann aber vielen Dank fürs Kommen vielen Dank für die vielen Fragen und hoffentlich sehen wir uns ein von den nächsten Hangouts wieder mal Danke bis dahin, tschüss tschüss allerseits