 Herzlich willkommen allen in den Call. Ich bin hier gar nicht der Wichtige, ich bin Holm aus Google Berlin. Aber wir haben aufgrund vieler Anfragen, die aus allen Richtungen kamen, mal John gefragt, ob er für einen Search-Hangout zur Verfügung steht, zu aktuellen Themen. Und das ist jetzt die Gelegenheit, in der nächsten Stunde hier unseren Experten dafür am Mikrofon und am Lautsprecher zu haben, John Müller aus der Schweiz. Und ich würde auch direkt an dich übergeben, John. Eingewählt sind jetzt diverse Publisher aus der Region Dach, die sicherlich völlig unterschiedliche Fragen haben werden. Aber au revoir. Perfekt. Okay, dann legen wir mal los. Es sind schon einige Fragen eingereicht worden. Ich habe die alle mal auf YouTube rankopiert, die ich direkt bekommen habe. Andere haben auch weitere Fragen dazu gebracht. Ich denke schon mal, die Fragen, die eingereicht worden sind, sind wahrscheinlich schwierig, alle voll durchzukriegen. Aber ich gehe sie mal relativ schnell durch, wenn ihr zu einzelnen dieser Fragen weitere Informationen haben möchtet. Einfach nur anhalten und dann versuche ich ein bisschen mehr dazu zu geben. Einige Fragen sind ein bisschen lang. Ich versuche die ein bisschen abzukürzen, einfach damit wir da ein bisschen schneller durchkommen. Die erste Frage ist bezüglich quasi Sichtbarkeitsänderungen bei Core Updates. Bei einigen Websites scheint das sehr schnell zu gehen, bei anderen nicht so schnell. Woran liegt das? Das ist eigentlich nicht irgendwas Spezielles auf unserer Seite, dass das irgendwie schnell oder langsam gehen soll. Manchmal geht das halt ein bisschen schneller, manchmal ein bisschen weniger schnell. Teilweise vermute ich auch, dass die Tools, die die Sichtbarkeit messen von anderen Websites, natürlich die Messungen ein bisschen anders machen, als wir sie machen würden, oder dass man sie zum Beispiel in Search Console oder in Analytics sehen würde. Aber anfühlig ist es normal, dass bei einigen Websites diese Änderungen schneller kommen, bei anderen ein bisschen weniger schnell. Unser Domain hat 19 Millionen Backlinks. Wie sollen wir mit quasi schlechten Backlinks oder mit disavow arbeiten? Grundsätzlich würde ich sagen, wenn ihr nicht gezielt irgendwas macht mit Backlinks, wenn ihr nicht wisst, dass vielleicht ein SEO von früher links gekauft hat oder irgendwelche Sachen mit links gemacht hat, dann würde ich mir da keine großen Gedanken machen. Dann würde ich das, weiß ich nicht, alle paar Monate vielleicht mal grob durchgehen, anschauen. Wenn wirklich problematische Muster dort erscheinen, dann würde ich einfach domainmäßig in der disavow-Datei arbeiten. Aber ich würde dann nicht versuchen, jeden einzelnen Link anzuschauen und zu überprüfen. Bei SophieLinks macht das eigentlich nicht wirklich Sinn. Und wir versuchen ja wirklich nur, die wirklich problematischen Sachen zu erkennen. Und es ist uns total klar, dass jede Website, die im Web betrieben wird, diverse Links zu sich zieht im Laufe der Zeit. Wir denken, dass uns YMYL-Inhalte, also your money, your life-Inhalte in der Domain-Autorität runterziehen. Da haben wir nicht genug Content, genug guten Content liefern können und wir auch keine Experten haben. Und was kann man da grob machen? Also gerade, ich denke jetzt bei user-generated content, wie kann man da am besten vorgehen? Ich denke, das ist schwierig, immer mit user-generated content. Aber grundsätzlich ist es auf unserer Seite so, dass wir da keinen großen Unterschied machen, ob das jetzt user-generated Content ist oder Content, den ihr selber erstellt. Sondern wir schauen das, was auf der Website veröffentlicht wird, an und nehmen das als Basis für unsere Indexierung und für die ganzen Ranking-Algorithmen. Und wenn ihr das Gefühl habt, dass die Inhalte nicht so wahnsinnig toll sind, dann würde ich schauen, ob man das irgendwie verbessern kann. Aber es ist nicht so, dass man da einfach mit dem Matter-Tag arbeiten kann oder dass irgendwie eine einfachen Art und Weise irgendwie durchsortieren kann und aufräumen kann, sondern man muss das wirklich von Fall zu Fall ein bisschen selber anschauen. Und ich würde da eher in Richtung gehen, dass man da vielleicht selber irgendwelche Usability-Studies macht, dass man einfach mit anderen Benutzern der Webseite mal zusammenarbeitet und überlegt, was könnte man machen, damit die Webseite wirklich insgesamt viel klarer darstellt. Hallo John. Die Frage kam von mir von gute Frage. Ist ihr wahrscheinlich bekannt, dass wir uns in einem Klassisch-User-Generated-Content und was wir halt eben auch festgestellt haben ist, also wir werden halt im Jomanier-Belief-Bereich, gerade im Medizinischen- oder Finanzbereich, werden wir nie den besten Content quasi, weil wir einfach keine Experten haben, zur Verfügung stellen. Und deswegen haben wir uns dazu entschlossen, diese Content-Elemente komplett von gute Frage zu entfernen. Haben uns aber halt gefragt, wie weit kann das gehen, weil die Quality-Water Guidelines wurden ja letztens auch aktualisiert aus Richtung Fitness, Ernährung, Verschwörungstheorien. Und würdest du dann auch eher tendieren dazu, diese Bereiche komplett einfach von der Plattform dann lieber rauszunehmen, als dass wir quasi so Halbmissen auf der Plattform haben? Also bei uns heißt Eliminieren tatsächlich dann diese Inhalte auch auf 410 zu setzen und die wirklich von der Plattform rauszunehmen. Was natürlich auch, klar, sehr viele Inhalte von uns betrifft. Aber wir haben schon auch damit angefangen und haben festgestellt, dass uns das ganz gut tut auch. Aber wie weit würdest du da gehen? Also auch was andere Bereiche, Fitness, Ernährung. Und wir können einfach wissen, von Nutzer-Erfahrungen automatisiert einfach nicht trennen. Das ist eine gute Frage, nicht möglich. Wir kriegen extrem viele Fragen pro Tag rein. Und die Moderation versucht natürlich, das Est möglichst, die Qualität sicherzustellen. Aber es ist nicht alles ganz klar möglich. Ja, ich weiß es nicht. Ich glaube, da hätte ich keine zauber Antwort, wie weit man das machen soll. Was ich mir vielleicht auch überlegen würde an eurer Stelle ist, mit Noindex zu arbeiten. Dass man sich da quasi irgendein Zwischenschrift schafft, dass man sagen kann, das sind Inhalte, die wir wirklich indexiert haben wollen. Das sind Inhalte, die wir vielleicht nicht genau wissen, wie wir damit umgehen wollen. Und dann andere Inhalte, die man wirklich ganz rausnehmen kann. Dann kann man wenigstens auch sehen, ob innerhalb der Website, ob immer noch genug Leute auf diese Inhalte gehen. Man kann sich überlegen, ob man irgendein Rating-System einrichtet, dass die zwar auf der Website vorhanden sind, wenn jemand innerhalb der Website sucht, aber dass sie dann nicht für die Indexierung verwendet werden. Und dass man sich da so irgendwie in Zwischenstelle versucht, reinzuholen. Ich denke, mit den Quality Rater Guidelines würde ich das nicht sehen, was wirklich eins zu eins umgesetzt wird in unseren Algorithmen, dass wir da irgendwie ein Algorithmus haben, der Fitnessinhalte, wirklich nur detailliert überprüft. Sondern das sind eher allgemeine Richtlinien, die wir für die Quality Rater haben. Super. Danke. In die Richtung gehen wir auch gerade aktuell schon. Super. Ich glaube, die nächste ist auch von euch wegen Subdomain und Unterverzeichnis für Sex- bzw. Liebeinhalte quasi die Frage, ob man das irgendwie rauslagern soll oder separat behandeln soll. Aus unserer Sicht ist das natürlich nicht immer notwendig, sondern wir versuchen hauptsächlich zu unterscheiden zwischen Inhalten, die von Safe-Search gefiltert werden sollten, solche, die nicht gefiltert werden sollten. Und wenn man das sauber organisieren kann in einem separaten Verzeichnis oder in einem Subdomain, dann hilft uns das auf jeden Fall. Aber ich vermute, viele von diesen User-Generated-Content-Inhalten würden gar nicht erst in die Kategorie fallen, dass sie von Safe-Search gefiltert werden. Sondern es ist wahrscheinlich so ein Misch von Inhalten, die relevant sind für Personen, die direkt nach diesen Themen suchen. Aber es ist nicht so, dass man die herausfiltern müsste, wenn jemand mit Safe-Search suchen würde. Ja, unsere Theorie ist nur, dass eben uns diese Masse an grenzwertigen Content, der zwar für Nutzer relevant ist, aber vielleicht die seriöseren Interhalte quasi runterziehen könnte. Würdest du sagen, es könnte schon der Fall sein, weil ich glaube, dieselbe Frage oder eine ähnliche Frage gab es im März auch noch schon mal auf der SMX. Und da war deine Empfehlung, das dann lieber auf ein Verzeichnis auszulagen. Aber würdest du sagen, dass es vielleicht doch sicherer ist, das dann irgendwie auf ein Subdomain zu schieben, kann man natürlich schon machen. Ich denke, wenn das jetzt ganz allgemeine user-generated Content sind, blogs von anderen Benutzern mit Bildern und allen Möglichen dabei, dann würde ich das wirklich ganz klar prämen. Einfach damit man ganz sicher ist, dass irgendetwas von Safe-Search, von der Seite her, nicht auf eure Website oder auf den Rest der Website zurückkommt. Aber wenn das nur, vielleicht mal Textinhalte sind, eine Vorung oder eben in diesen Frage-Antworten-Bereichen ist, dann sehe ich das als weniger problematisch an bezüglich Safe-Search. Und dann würde ich dann eher sagen, Unterverzeichnis ist auch eine Idee, dass man das so macht oder dass man es vielleicht auch gar zusammenlässt. Mit dem Subdomain hat man das einfach viel genauer quasi abgetrennt. Okay, super, danke. Dann eine Frage zu White Label-Inhalten aus der Kommunikation von Google in Bezug auf White Label-Thema lässt sich ableiten, dass das Hauptproblem darin besteht, Domains einfach an Dritte zu vermieten. Verstehen wir das richtig? Ich denke, aus unserer Sicht, das Hauptproblem, gerade im Bereich White Label, also wenn man zum Beispiel, und dann ein Bereich hat, wo man nur Coupons hat oder wo man andere Sachen hat, die wirklich ganz getrennt sind, aus unserer Sicht ist das Hauptproblem, dass diese Inhalte oft vermischt werden, dass wir dann den Unterschied zwischen den Nachrichtenbereich und den Coupon-Bereich zum Beispiel nicht sauber erkennen können. Und das macht es uns dann schwierig, die beiden Bereiche wirklich relevant zu zeigen in den Suchergebnissen. Und was wir da geraten haben, ist, dass wir möglichst diese Bereiche jetzt einfach separat anschauen und wie an und für sich unterschiedliche Teile halt anschauen für das Ranking. Das heißt, nur weil man im Coupon-Bereich auf einer Website hat, die sonst einigermaßen gut bekannt ist für Nachrichteninhalte, heißt nicht, dass dieser Coupon-Bereich automatisch viel besser rankt in den Suchergebnissen. Und ich denke, aus unserer Sicht macht das eigentlich soweit auch Sinn. Ich glaube, die Frage geht in Richtung, wir arbeiten sehr eng zusammen mit unseren Partnern, die diese Bereiche machen, ist das trotzdem problematisch. Für uns ist es auch schwierig, wenn diese Bereiche wirklich so vermischt sind. Und deswegen versuchen wir das in den Algorithmen ein bisschen besser zu trähen. John. Hier sitzen Julian und meine Kollegen vom Stern. Wir hatten die Frage eingereicht und gerade einmal an der Stelle die Rückfrage. Inwiefern ist es aus eurer Sicht gerade vermischt? Also einfach, weil alle Themen auf Stern.de stattfinden, denn Vergleiche und Gutscheine finden bei uns ja in einem Folder statt getrennt von dem restlichen Content. Inwiefern kann man das noch irgendwie optimieren? Ich denke, getrennt ist eigentlich schon okay. Also ich sehe das nicht unbedingt das etwas, was man optimieren muss auf eurer Seite, sondern wir versuchen diese Inhalte wirklich separat anzuschauen, damit wir die auf eigenständig im Ranking zeigen können. Und das ist anfühlt nicht eine Sache, wo ich sagen würde, man muss das optimieren oder besser verstecken oder irgendwie anders verschachteln, sondern das ist eigentlich, aus unserer Sicht versuchen wir das gerade so zu machen, dass wir die separat betrachten. Es war halt nur in unserem Fall sehr auffällig, dass wir vom Einwaffen nächsten Tag in den Sichtbarkeit sehr stark runtergegangen sind und man ist Business hinter und insofern stellt sich natürlich bei uns immer die Frage, ob wir irgendwie das Ganze noch besser aufsetzen können, damit auch ihr sagt, das ist für Nutzer jetzt irgendwie die maximale sinnvolle Variante. Ja, ich denke, es ist allgemein für uns schwierig, wenn man so sehr unterschiedliche Inhalte zusammen nimmt auf eine Website. Wenn wir wissen, dass das alles Nachrichteninhalte sind, dann für unsere Algorithmen, wenn auf einem großer Teil, vielleicht mal ein Coupon-Bereich dabei ist. Das sind Sachen, die sind einerseits für uns allgemein vom Ranking her problematisch, andererseits wollen wir auch einfach sicherstellen, dass die ganz unterschiedlichen Teile von Websites auch wirklich separat betrachtet werden, damit sie quasi gegeneinander entsprechend in der Konkurrenz auch klar dastehen. Das heißt, dass wir fast dafür aufbauen müssen, den wir eigentlich mit Stern schon haben. Bedeutet, vielleicht noch eine Rückfrage, Bedeutet, wir haben eine Marke auf der Marke. Irgendwo ist ein bisschen echo. Ich glaube, die Koalition hat die Fokus. Jetzt muss es gehen. Die Frage wäre, wir haben für Stern jetzt in dem Fall einen Maken-Trust aufgebaut, der aus Google-Perspektive aber sich vor allen Dingen auf das News-Geschäft bezieht und nicht so sehr auf all die anderen Bereiche, die wir auch machen, also mit Gutscheine und Vergleiche. Das sind zwar Subfolder, die keine News sind, aber das sind ja nicht die ersten Subfolder, die wir machen, die keine News sind. Und da wäre jetzt die Frage, also aus eurer Perspektive müssten wir einen ähnlichen Trust mit der Marke aufbauen, wie wir es für News schon haben oder was ist die Anforderung dann an der Stelle? Ja, an und für sich schon. Was ist die müssten quasi selbstständig für sich auch darstehen können? Das heißt, das so genannte Wide-Level-Update hat eigentlich gar nichts mit Wide-Level zu tun, sondern nur das einzelne Verzeichnung des Subdomains und so weiter getrennt von einander zu lernen. Ich denke, man kann das aus einem Mischung von diesen beiden Bereichen zählen. Also es ist sicher mit den Wide-Labels ist das sicher ein Thema geworden, was immer mehr besprochen wurde und dementsprechend auch aus etwas angesehen wurde, wo wir erkannt haben, dass es eher ein Bereich ist, woran wir arbeiten müssen, aber es ist nicht so, dass wir allgemein sagen, oder Subdomains müssen jetzt stärker getrennt werden, sondern wir versuchen wirklich zu erkennen, was gehört zusammen und was sind für sich ganz separate Bereiche. Okay, schon. Darf ich da eine Frage stellen bei Valentin von Fokus? Und was heißt denn das jetzt konkret? Also sollen Publisher keine Wide-Levels machen? dürfen wir generell nicht kooperieren mit irgendwelchen externen Partnern oder wie ist Google's Sicht auf? Also mir fehlt so ein bisschen die Klarheit, wie man mit dem Thema umgehen soll. Also ich meine, es ist ja nichts Ungewöhnliches, dass eine Zeitung von mir als kleinere Zeit gemacht oder sowas. Wie ist da Google's Sicht auf die Geschichte? Vielleicht noch ergänzen wir. Wir haben, also ich habe das so verstanden, dass ihr verhindern wollt, dass viele Publisher mit dem gleichen Partner kooperieren und dann übertriebenermaßen vielleicht zehnmal das gleiche Suchergebnis nur auf einem anderen Publisher ist. Wenn aber der Publisher und da hänge ich so ein bisschen an dem Vermischt sein, wir suchen uns ja Partner aus, die auch inhaltlich in den Connect machen. Also jetzt nehmen wir Gutscheine oder andere Dinge und dann werden wir ja da arbeiten wir ja dran, diese Dinge stärker zu integrieren in das Angebot. Also würden stärker vermischen, weil wir sagen, Nachrichten passt zum Beispiel, eine Finanznachricht passt zu einem Finanzvergleich, Finanzprodukte vergleichen, weil der Nutzer gleich eine Lösung angeboten bekommt. Insofern ist aus meiner Sicht die Vermischung ja sinnvoll und würde auch für den Nutzer und damit für Google heißen, dass da was zusammenspielt. Ich denke, ja, es sind vielleicht ein paar Sachen, die da jetzt gerade zusammenkommen. Einerseits ist es nicht so, dass wir sagen, ihr dürft das nicht machen. Es ist nicht so, dass wir das etwas sehen würden, was gegen die Webmaster- Richtlinien ist. Ihr könnt die Inhalte veröffentlichen, wie ihr wollt. Also es ist nicht so, dass wir irgendwie vorschreiben würden, ihr müsst das anders machen. Sondern es gibt bei uns wirklich eher darum, dass es einfach vermischt wird, wenn wir unter einem Domain sehen, dass da ganz unterschiedliche Inhalte sind, dann versuchen wir, das möglichst auch als unterschiedliche Inhalte anzuschauen und separat zu ranken. Es gibt sicher Bereiche, wo dieser Unterschied ein bisschen fließender ist. Ich weiß jetzt nicht mit Finanznachrichten und Finanzvergleich. Könnte ich mir vorstellen, dass das vielleicht in die Richtung geht. Aber in vielen Fällen sehen wir einfach, dass man da eine andere Webseite innerhalb vom gleichen Domain hat und aus unserer Sicht würden wir versuchen das anzuschauen, wie eine andere Webseite hat. Das ist ähnlich wie wenn man ein Domain wie Blogger hat und unterschiedliche Blogs darauf hat, dann ist das zwar alles im Blogger-Domain, aber an für sich sinkt das separate Websites, die wir separat anschauen müssen. Würde aber heißen, wir sollten das dann komplett auf eine andere Domain ziehen, wenn wir solche Partnerschaften haben. Ich würde nicht sagen, ihr müsst das so machen, aber wir würden versuchen das anzuschauen, wie eine separate Webseite. Und wenn ihr das auf dem gleichen Domain macht, einfach aus Marketing gründen, aus Branden gründen, ist das an für sich euch überlassen. Das macht ja manchmal auch Sinn. Aber ich denke, das ist eine Frage, die kann man wahrscheinlich noch stundenlang besprechen. Vielleicht kann man am Ende noch ein bisschen zeigen. Eine Frage wegen REL Sponsored und REL UGC. Wie schaut es mit Affiliate Links aus? Benötige ich jetzt nur mehr noch REL Sponsored oder soll ich noch NoFollow dazu tun? Aus unserer Sicht ist REL Sponsored an für sich das Richtige für Affiliate Links. In vielen Fällen erkennen wir die Affiliate Links sowieso und da ist es nicht extrem kritisch, aber speziell markieren kann, dann würde ich mit REL Sponsored arbeiten. Zum Launch eines neuen Portals habe ich 2 Fragen. Warum rennten wir mit unserem neuen Nachrichtenportal ein Monat nach Launch immer noch sehr selten? Schwierig zu sagen. Ich kenne euer Nachrichtenportal nicht. Es ist schwierig zu sagen, was genau da passiert. Es ist eine relativ kurze Zeit, wenn ich vergleiche zu anderen Nachrichten-Websites, die schon extrem lange da sind und das ist nicht unbedingt der Fall, dass wir sagen würden, man muss eine gewisse Zeit auf dem Markt sein, sondern es ist einfach so, dass wenn man jetzt schon länger an einer Webseite arbeitet, dann sammelt man ja gewisse Signale und Links im Laufe der Zeit und dann ist es für uns einfacher zu erkennen, wie wir das einverziehen und wie die Kriterien müssen unsere Inhalte erfüllen, um in Discover ausgespielt zu werden. Gibt es Tipps, um Inhalte für Discover attraktiv zu machen? Hundert für sich ist Discover aufgebaut, auf Inhalten nie normal in der Suche erscheinen und wir versuchen da eher zu erkennen, welche Themen für diese einzelnen Benutzern jeweils relevant sind. Also es ist nicht so, dass man das nicht unter Tag verwenden muss, sondern wir versuchen da alle möglichen Inhalte zu bringen. Ich glaube, bei den Richtlingen für Discover empfehlen wir auch die Google News-Richtlinien anzuschauen, aber es ist nicht so, dass man in Google News sein muss, um in Discover gezeigt zu werden. Discover Refer in Analytics wird es da was geben. So weit, wie ich das gesehen habe mit meinen Besprechenden mit den Kollegen auf der Discover-Seite, ist die Idee da, dass der Refer für Discover eigentlich der gleiche sein soll wie für Google Search. Ich weiß, es gibt leichte Unterschiede teilweise, je nachdem wie Discover Inhalte gezeigt werden. Ich vermute, längerfristig wird das in die Richtung gehen, dass der Refer gleich ist, wie für die normale Suche. Im Moment kann man vielleicht mit einzelnen Tricks noch ein bisschen besser was erkennen. Man kann ja den Performance von Discover Inhalten in Search Console separat anschauen. Dann noch eine Frage zum Google News Update, über die Erstberichterstattung. Ja. Ich höre irgendeine Stimme ganz wager, aber nicht richtig. Kollege, hört es mich jetzt besser? Ja. Das war der Google Search-Konsulsache. Natürlich sehen wir dieses Discover-Ergebnis in der Google Search-Konsole. Das ist auch sehr praktisch. Aber als Publisher sind wir alle News getrieben und ich finde es sehr gut, dass man es zur Zeit unterschieden merken kann anhand des Referers, ob etwas in das Cover gerade ist oder ob etwas in der Suche zu finden ist. Ich glaube, das geht sehr, sehr vielen so. Es wäre sehr schön, wenn es weiter so bleibt oder eher deutlicher wird, was wir machen in dem selben Referer, wie für die Suche. Vielleicht kann man das so anbringen. Ich bin mir sicher, dass werden ganz viele genauso sehen. Ich finde das an und für sich auch so. Aber nicht alle wirklich. Was wir helfen würden, ist, wenn ihr ein bisschen zusammenstellen könnt, was für euch der Vorteil wäre. Außer quasi, dass wir jetzt mehr Daten haben und dass wir das genauer sehen, das ändert es für euch, wenn ihr die Discover Benutzer mit dem separaten Refer direkt sehen könnt. Kann man da, ich weiß nicht, Inhalte besser optimieren, kann man bessere Inhalte erstellen, die vielleicht relevanter sind. Was ist der Vorteil an und für sich für die Google Benutzer, wenn ihr diese Refererangaben habt? Vielleicht fällt euch irgendwas ein und wenn ihr mir das mal zuschicken könnt, dann gehe ich das gerne auch mit dem Team nochmal anschauen, ob man das vielleicht nicht doch irgendwie umstellen kann, dass man da etwas sehen kann. Wunderbar, danke, machen wir gerne. Super, okay. Dann noch zu Google News mit dem Erstberichterstattungsupdate. Ich habe da leider keine Informationen dazu. Da weiß ich nicht genau, was da alles bei Google News läuft. Ich glaube, es sind ein paar Fragen so gekommen. Dann ich bin Berater von Medienhäusern in Deutschland. Einige meiner US-Kunden betreiben Content-Portale gemeinsam mit drittem Bereich Q-Pons und lifestyle Content. Ich glaube, das haben wir schon ein bisschen angeschaut. Die Einstellung Status als europäische Presseveröffentlichung vererbt sich vom Hauptdomain unsere Website ist historisch gesehen viele von privat betriebenen Subdomains. Die Subdomains sind von der Vererbung auch betroffen, vor allem aber nicht unter Presseveröffentlichungen. Wie kann man die austragen? Ich glaube, das geht nicht so einfach. Was man wahrscheinlich machen müsste ist ja, ich weiß auch nicht, die Subdomains separat verifizieren und dann entsprechend die Einstellungen dort entsprechend umzustellen. Aber wahrscheinlich geht das nicht so einfach. Ich schaue das mit dem Team noch mal hier an, ob man da irgendeine Einstellung finden kann, dass man das mit der Vererbung vielleicht anders einrichten kann. Ich denke, das ist ein bisschen schwierig, weil wahrscheinlich ist der Fall, den ihr da habt mit Unterverzeichnissen oder Subdomains eher selten, aber vielleicht kann man da trotzdem eine Lösung finden. Dann bei den Robotsmetathag heißt es minus 1 kann ein Spezialwert für Maxnippet gesetzt werden, wenn keine Textbegrenzung gesetzt werden soll. Welchen Sinn hat das beziehungsweise was ist ein vernünftiger Wert? Grundsätzlich ist es auch überlassen, wie ihr das haben wollt. Der Snippet, der dargestellt wird, ist kein Rankingfaktor. Das heißt, es ist wirklich einfach nur die Art und Weise, wie euer Suchergebnis in den Suchergebnissen präsentiert wird. Und manche wollen vielleicht ein bisschen mehr Text haben, manche ein bisschen weniger Text. Welchen Wert ihr dort einsetzen wollt ist an und für sich euch überlassen. Was ich da vielleicht auch überlegen würde, ist, ob man mit der Data-No-Snippet arbeiten möchte, wo man bestimmte Textteile direkt vom Snippet zurückhalten kann. Das wäre vielleicht auch eine Variante in einzelnen Fällen. Aber grundsätzlich ist das etwas, wo wir versuchen, keine Zahl als Empfehlung zu geben, sondern wir wollen das wirklich euch überlassen, wie ihr das haben wollt. Man kann sicher mal die Suchergebnisse jetzt anschauen und überlegen, wie viel Buchstaben da ungefähr gezeigt. Aber grundsätzlich ist das euch überlassen. Das war vielleicht eine ganz kurze Rückfrage von meiner Seite, John. Gibt es einen Maximalwert? Sonst könnte ich auch 1.000 oder 2.000 Zeichen eintragen und dann hätte ich eine ganz gute Präsenz auf der Serb. Da hier Richtung Ziel, das glaube ich auch so ein Stück weit, gibt es so eine Obergrenze sozusagen. Das ist an und für sich das Gleiche wie bei normalen Snippets. Also für uns einfach die Maximallänge, die ihr aus eurer Seite vertreten wollt. Es heißt nicht, dass wir zu dieser Maximalgrenze geben. Das heißt, in den meisten Fällen ist es ja, ich weiß auch nicht, aus externen Untersuchungen, irgendwie zwischen 180 und 320 Buchstaben, irgend so was liegt das im Moment. Und wenn wir, sag ich mal, 320 Buchstaben zeigen würden und ihr gebt das Maximalwert 1.000 Buchstaben an, dann zeigen wir trotzdem 320, die wir da jetzt zeigen würden. Und die Länge, die wir zeigen ist normalerweise auch abhängig von dem Suchergebnis. Also von dem, was gesucht wird und was wir natürlich finden auf der Website. Manchmal versuchen wir ein bisschen längeren Snippets zu zeigen, weil wir das Gefühl haben, so können wir den Benutzer eher präsentieren, warum diese Seite jetzt gerade passt. Manchmal reicht es, wenn wir einen kürzeren Snippet zeigen. Okay, danke. Für diese Einstellung insgesamt bezüglich europäischer Presseveröffentlichung sieht man das in Search Console oder wann nicht. Es ist so, wir haben das versucht in Search Console zu platzieren, dass es nicht in den Weg kommt von normalen Benutzern. Das heißt, wenn man diese Einstellung noch nie gemacht hat, dann sieht man diese Einstellung in Search Console nicht, sondern man kann über den Hilfezentrum zum Beispiel gehen und dort den Link entsprechend klicken und so zu dieser Einstellung kommen. Wenn man die Einstellung einmal verwendet hat, dann wird sie auch weiterhin sichtbar sein in Search Console. Das ist ähnlich wie mit Disavow links, in dem, dass wir das Gefühl haben, dass die meisten Websites brauchen diese Einstellungen wahrscheinlich nicht und deswegen versuchen wir die dann nicht groß bei den Einstellungen immer zu zeigen, weil das Verwirrt Benutzer dann einfach nur, wenn viele Einstellungen sehen, die sie eigentlich nicht brauchen. Welche Folgen hat es, wenn man die Einstellung deaktiviert? Wenn man die Einstellung deaktiviert, dann ist diese Website einfach nicht mehr auf der Liste der europäischen Presseveröffentlichungen auf unserer Seite. Das heißt, je nachdem, wie die Suchergebnisse gezeigt würden für europäische Presseveröffentlichungen, könnte das natürlich ein Einfluss haben. Konkret ist das ja, glaube ich, in Frankreich so, dass demnächst das neue Gesetz in Kraft tritt, wo wir dann für Benutzer in Frankreich für Websites, die auf dieser Liste sind, standardmäßig glaube ich, keinen Text mehr bezeigen würden, seitdem man hat das speziell markiert, dass man einen Text mehr bezeigen möchte. Für andere Länder weiß ich nicht, wie das rechtlich dann aussehen wird. Dazu noch eine kurze Rückfrage. Wenn man sich dann abnimmt, und man ist standardmäßig angewählt worden von euch, hat das dann auch eventuell eine Auswirkung auf die Bewertung bei Google News. Also kann es auch sein, dass Google dann sagt, okay, ihr seid dann vielleicht gar kein Newspublisher mehr, vielleicht ist das unabhängig voneinander. Ja, das ist unabhängig voneinander. Es ist auch nicht so, dass wir, ich glaube, die Stand, weil das Problem auf unserer Seite war, dass wir keine Liste bekommen haben von Websites, die wir so betrachten sollen. Also haben wir da versucht, eine Liste selber zu erstellen. Und das ist nicht unbedingt eine Liste von den Newspublisher. Manche sind ja nicht in Google News dabei, und sind trotzdem europäische Presse veröffentlichter. Und manche sind bei Google News drin, aber sind eigentlich nicht nicht Presse Websites. Zum Teil sind ja auch Blogs bei Google News dabei. Und das sind ja dann trotzdem unterschiedliche Websites. Und das heißt, diese Einstellung ist aus unserer Sicht wirklich nur für diesen Zweck da, zum Festlegen, seid ihr so etwas oder seid ihr das nicht? Okay. Unseren Betrachtungen nach scheint besonders die Click-to-Rate auf ein Artikel eine große Rolle zu spielen, und damit vor allem Boulevardesque-Titel. Als seriöser Newspublisher wollen wir allerdings eher neutrale Titel in Nachrichtenkontext formulieren, kann es im Sinne von Google Discover Science so einen starken Fokus auf Clicky Titel Titels zu legen. Gibt es neben Click-to-Rate noch weitere Bewertungskriterien? Meines Wissens haben wir eigentlich noch gar keine Bewertungskriterien für Google Discover irgendwie bekannt gegeben. Von dem her weiß ich gar nicht, ob ich jetzt dazu stimmen würde, dass überhaupt Click-to-Rate dort ist. Aber auf jeden Fall würde ich da die Titel so gestalten, wie sie zu euren Websites passen. Und das kann natürlich so ausfallen, das kann so ausfallen, das ist an für sich eher euch überlassen. Dann gleich noch mehr mit Google News und Discover. Das haben wir gleich ein bisschen angeschaut. Kann es sein, dass eine manuelle Maßnahme vorliegt, ohne dass diese über Search Console gemeldet wird. Gibt es Möglichkeiten, das zu prüfen bzw. auszuschließen? Wir versuchen eigentlich schon alle manuellen Maßnahmen direkt in Search Console zu zeigen. Dafür ist es eigentlich auch da. Und gerade bei manuellen Maßnahmen ist es ja auch wichtig, dass wir entsprechend Rückmeldung von euch bekommen, wenn etwas nicht richtig gemacht wird, bzw. eine Veränderung gemacht haben, das neu überprüfen wollte. Und dementsprechend versuchen wir da schon, alles in Search Console zu zeigen. Es kann sein, dass es noch irgendwelche uralten manuellen Maßnahmen gibt, die da nie in Search Console gezeigt wurden. Aber das ist etwas, was ich sehr, sehr selten sehe. Vielleicht, ich weiß nicht, einmal im Jahr oder so, finde ich so etwas, wo auf unserer Seite irgendwas mal markiert wurde und das nie in Search Console sichtbar war. Aber in den allermeisten Fällen ist das eigentlich alles da drin. Wenn ihr etwas sieht, wo ihr das Gefühl habt, da ist vielleicht irgendwas manuelles bei Google, könnt ihr mir das gerne mal zuschicken, dann kann ich das anschauen. Aber wie gesagt, in den meisten Fällen ist das alles an für sich automatisiert. Dann noch einige Fragen zur Verwaltung. Wie gesagt, da habe ich nicht wahnsinnig viel. Wir haben in deutlichen und nachhaltigen, nachlassenden Performance aus Discover festgestellt. Da habe ich eigentlich nicht groß Informationen dazu, wie sich das verändert. Ich finde das spannend mit Discover, weil da ja keine Keywords dabei sind und man sieht ja nicht, woran Leute Interesse haben. Aber ich denke, das macht es natürlich auch ein bisschen schwierig, dass man da schlecht feststellen kann, wann macht man das Richtige oder welche Inhalte sollte man mehr produzieren, welche sollte man weniger produzieren. Da muss man fast separat irgendwelche User-Studies machen. Ganz kurz, genau die Frage kam von uns. Wir haben eben tatsächlich am Anfang September doch ein deutliches Nachlassen des Traffic-Lebos festgestellt. Da ist man natürlich immer so ein bisschen auf der Suche. Liegt es an uns? Oder ist es doch vielleicht gab es zu diesem Zeitpunkt relevante Veränderungen, wenn man das weiß, dann haben wir zumindest die Fehler so schon ein bisschen besser steuern. Generell, also wenn du das jetzt bestätigen kannst oder nichts dazu sagen kannst, fein. Aber wir haben generell so ein bisschen das Gefühl, dass das Cover auf jeden Fall auch ein sehr, sehr lernendes System ist. Dass die Anzahl der Impressions zurückgegangen ist. Die Anzahl der Kriegs letztlich auch. Aber wir haben eben gesehen, die CTR ist nach oben gegangen in dieser Zeit. Und da war eben so ein bisschen Gethse von uns. Ihr werdet wahrscheinlich darauf achten, die Inhalte auszuspülen, die bei den wirklich geringer Ausspielungen auch besonders gut klicken. Und wirklich, aber seit das Cover jetzt über die letzten Monate ganz gute Nutzerdaten gesammelt, um sozusagen da in diesem Bereich einfach effektiver und effizienter zu sein, was dann eben für den einzelnen Publisher bedeuten kann. Er hat sozusagen innerhalb von das Cover. Wenn wir jetzt mit dieser These richtig liegen, wissen wir, es ist nichts technisches bei uns oder wir machen nicht grob irgendwas falsch, weil wir haben unsere Content- strategy, indem sie jetzt nicht wirklich stark ändert. Wenn du sagst, dass es total quatsch, auch das Thema CTR spielt wahrscheinlich keine Rolle, dann müssen wir natürlich immer ein Stück weit in eine andere Richtung denken. Aber wie gesagt, unser Empfinden ist, dass das Cover ein sehr lernendes System ist. Und wir mit diesen Volatilitäten wahrscheinlich also, das Cover ist schon relativ neu und entsprechend werden da auch, denke ich mal, größere Veränderungen immer noch dran gemacht. Das heißt, ich würde schon vermuten, dass viele Websites einfach schwankungen da sehen. Das heißt, bis wir da ein bisschen besser einpendeln können, wie genau, wie das zeigen sollen in Discover, könnte ich mir schon vorstellen, dass es manchmal ein bisschen besser geht, manchmal ein bisschen schlechter geht. Und es ist ja dann auch nicht so, dass alle Publisher vielleicht mal weniger Sichtbarkeit in Discover sehen würden, sondern das sehen dann halt einige ein bisschen mehr und andere ein bisschen weniger, je nachdem, wie sich halt diese Algorithmen einpendeln. Ich denke, mit Click to Rate würde ich allgemein ein bisschen das immer mit Vorsicht betrachten, weil vielmals ist es ja so, dass Sachen, die einen hohen Click to Rate haben, nicht unbedingt wirklich besonders hohe Qualität haben. Und da ist es aus unserer Sicht schon wichtig, dass wir nicht blind auf Click to Rate oder irgendwelche anderen Signale so achten, sondern wir müssen wirklich schauen, dass wir den Mix auch richtig treffen. Dass man nicht einfach nur Sachen zeigt, die jetzt immer von Benutzern angeklickt werden, sondern dass wir wirklich auch vielleicht mal Informationsinhalte bringen, dass man ein bisschen Hintergrundsinformationen auch bringen kann und dass man da einfach mit Mix von verschiedenen Inhalten bringen kann. Und ich denke, das ist relativ schwierig. Das habe ich, ich glaube, auf YouTube haben sie da mal eine Studie veröffentlicht. Ich weiß nicht, wann es war, vor ein paar Jahren, wo sie dann wirklich auch gemerkt haben, dass gerade, wenn Empfehlungen nur über Click to Rate kommen, dann werden alle möglichen, ich weiß nicht, spekulativ in Inhalte oder wirklich einfach problematische Inhalte eher veröffentlicht und eher gezeigt, die eigentlich zum Portal oder zum System selber nicht unbedingt hilfreich sind in Bezug auf der Gesamtqualität. Ich denke, das sind Sachen, da schauen wir sicher auf verschiedene Signale und versuchen festzustellen, wie kann man das so vermischen, dass es wirklich für Benutzern, die auf Discover gehen, eineseits informativ ist, vielleicht auch ein bisschen unterhaltsam, ein bisschen Hintergrundsinformation, vielleicht auch ältere Sachen dazu, neue Sachen dabei, dass man da einfach diesen Mix trifft. Entschuldigung, John. Und viel grad wo du das Stichwort Qualität genannt hast, noch mal eine ganz kurze, konkrete Rückfrage zum Wide Label Thema auf. Kannst du einen Satz dazu sagen, und zwar, wenn du sagst, ihr bewertet das separat, in dem jeweiligen Fall dann auch immer die Qualität angeguckt und gebt dem ganzen Ranking oder es ist keine qualitative Bewertung des Contents bei Vergleichen und Gutschein. Na ja, ob ihr euch die Content-Qualität angeguckt habt in den einzelnen Verzeichnissen und daraufhin eine Sichtbarkeit oder ein Ranking vergebt oder ob ihr einfach pauschal sagt, das ist eine News-Seite, die sollte eine Ranking-Signale geben. Wir machen das sicher nicht pauschal, sondern wir versuchen die Bereiche einfach zu trennen und versuchen dann die ganzen Ranking-Signale, die wir haben, die ein bisschen auf Qualität auch zeigen würden, dann für diese Bereiche separat zusammen. Also es ist nicht so, dass wir sagen würden, das ist eine News- Website, die darf keine Cubons haben, deswegen müssen wir die Inhalte ganz entfernen aus den Vergebnissen, sondern wir versuchen das einfach zu trennen und sagen, da ist eine Website mit News-Inhalten, da ist eine Website mit Cubon-Inhalten, wie müssen wir mit diesen einzelnen Teilen einzeln umgehen. Ich glaube, die Fragen haben wir soweit durch, die eingereicht worden sind, da haben wir jetzt wieder Zeit für weitere Fragen von euch allen, vor allem als alle still. Okay, sorry. Ja, hier ist Ethel von Zürich aus. Ich wollte die Fragen, es gibt bei Google News die Möglichkeit, eine Nachrichtenquelle eigentlich zu folgen. Inwiefern hat das, also das wäre dann natürlich später Personalisierte suchen, wiefern hat das dann ein Einfluss auf die Ergebnisse, die dieser User später sieht? Ich weiß nicht, wie das bei Google News gehandhabt wird. Also meines Wissens hat das nur ein Einfluss auf Google News, also es nicht so, dass er auf die normale Websuche Einfluss hätte. Aber wie das innerhalb von Google News aussehen würde, wüsste ich nicht auf Anhängung. Aber es hat auf jeden Fall kein Einfluss auf die normale Websuche. Dann hätte ich nochmal eine Frage zu Content-Konsolidierung beziehungsweise Content-Bereinigung. Das ist ja immer so ein bisschen ein gewisses Content-Inventar an. Von veralteten News-Inhalten und Publish- oder Webmasters stehen dann irgendwann vor dem Dilemma zu sagen, okay, mit Blick auf Rollbudget beispielsweise macht es Sinn, gegebenenfalls Inhalte zu löschen. Die vielleicht keinen Traffic mehr bringen, aus organischer Sicht. Andererseits kann es natürlich auch sein, dass man so viel löscht, das falsche löscht, gegebenenfalls der Trust ein bisschen leidet bei einem dieser Contentunterbau sozusagen notwendig ist. Eigentlich ist das nicht eine Frage, was wären so die sinnvollen Kriterien, anhand deren man so eine Entscheidung treffen sollte, welche Content sozusagen zu löschen sind oder zu entfernen sind. Und im Zweifel, wenn man das eben schwer entscheiden kann, was würdest du sagen, ist dann eben vielleicht auch besser zu sagen, man behält, stattdessen man löscht und verhält nicht in diesen Aufräumen waren, weil für das Rollbudget gar nicht mehr so das relevante Kriterium ist. Und die dritte Frage dazu ist löschen oder umleiten. Also macht es eben vielleicht auch Sinn gegeben, nicht auf die Staatsleite, aber vielleicht auf passende Themenseiten. Okay, mal kurz schauen, wie man das am besten anpacken kann. Also ich denke, grundsätzlich macht es schon Sinn, dass man ab und zu überlegt, welche Inhalte man wirklich noch aufheben will und welche nicht. Das ist ja eigentlich für jede größere Website immer wieder mal ein Thema. Ich denke, aber die Überlegungen mit Crawlbudgets sind nicht so wahnsinnig kritisch. Das heißt, ich würde mir solche Überlegungen eher machen in Bezug auf, was möchte ich auf meiner Website präsentieren und nicht unbedingt bezüglich auf Crawlbudget. Weil mit Crawlbudget versuchen wir schon, das Crawling der gesamten Website anzuschauen. Aber es ist ja so, dass Inhalte, die jetzt älter sind, die sich lange verändert haben, das sind ja Sachen, die crawlen wir nicht sehr häufig. Das heißt, wir schauen die vielleicht einmal im halben Jahr an und ob diese Inhalte dann existieren oder nicht, spielt eigentlich keine große Rolle. Das heißt in den meisten Fällen, wenn das jetzt ältere Inhalte sind, sind sie eher sowieso nicht so relevant, wir crawlen sie nicht so häufig. Das heißt, auf das Gesamt Crawling der Website hat das eher einen kleinen Einfluss. Was man machen könnte, ist wirklich das Gefühl hat, dass all diese älteren Inhalte trotzdem zu häufig gecrawlt werden. Das sieht man ja auch in den Log-Dateien. Könnte man die zum Beispiel auf einen separaten Host auslagern, das heißt auf ein Subdomain oder ein anderes Verzeichnende, anderen Domain, damit wir das wirklich als separaten Host anschauen können und dass wir den Crawlbudget separat für die Hauptinhalte haben und für das Archiv zum Beispiel. Und wenn man das so trennt, dann ist das vom Crawling-Budget her natürlich schon mal eigentlich sauber getrennt. Das heißt, wir crawlen die Hauptzeiten mit dem Tempo, was wir für die Hauptapp-Site machen würden und für die Archiv-Website oder Subdomain können wir das dann entsprechend auch separat koordinieren. Ich denke, ich würde eher in die Richtung gehen, als dass man sagen würde, wir löschen einfach alle alten Inhalte, weil gerade bei den Nachrichten-Website sind es ja auch Inhalte, die einen gewissen Wert auch weiterhin haben. Das heißt, in 20, 30 Jahren will man vielleicht trotzdem mal sehen, wie hat sich das Wetter entwickelt, welche Nachrichten waren damals im Gespräch, was war damals relevant, wie wurde das angeschaut, diese gewissen Themen und wenn man die Inhalte dann einfach löscht, also ich würde das eher so irgendwie machen, dass es halt trotzdem auf der Website vorhanden ist, irgendwo, aber dass es vielleicht halt nicht im Vordergrund steht, wenn man das so ein bisschen abtrennen will. Also eher im Bereich Archiv nehmen. Wenn man sie doch löscht, dann würde ich die sauber mit meiner 404-Seite löschen und nicht unbedingt mit deinem Redirect. Auf einer 404-Seite kann man ja trotzdem Informationen bringen für Benutzer. Man kann trotzdem schauen, in welchem Bereich der Website war, dass kann ich vielleicht Informationen zu diesem Bereich geben. Kann ich vielleicht erklären, wo ähnliche Inhalte jetzt aufhindbar sind. Das sind ja alle Sachen, die kann man auf einer 404-Seite machen. Wenn man das mit einem Redirect macht, ist es so, dass wir diesen Redirect wieder folgen müssen und dass wir dann vom Crawling-Budget her, dann müssen wir natürlich wieder lernen, dass dieser Redirect bedeutet, dass die Inhalte entfernt worden sind. Nicht, dass dieser Redirect wichtig ist, dass wir den regelmäßig wieder anschauen. Von dem her würde ich eher schauen, dass man Richtung 404 geht und das einfach so sauber löscht, wenn man sie wirklich löschen will. Aber eben wie gesagt, ich würde zumindest aus Crawling-Sicht allein nicht sagen, man muss diese Inhalte löschen und gerade bei Nachrichten-Websites würde ich eher dazu tendieren, dass man die Inhalte irgendwie beibehält. Wenn man das Gefühl hat, das sind Sachen, die auch längerfristig werden. John, hier zu hätt ich eine Rückfrage. Du hattest gerade den Status Code 404 genannt. Ist es der, den du auch empfehlen würdest oder wäre es der 410er? 404, 410 sind beide eigentlich okay. Was aus unserer Seite passiert oder warum dieser Unterschied überhaupt erstmal aufgekommen ist ist, gerade bei 404 ist es etwas, was manchmal temporär stattfindet. Das heißt, man hat irgendein Server-Fehler und der gibt auch einmal 404 zurück, aber die Inhalte sind nicht wirklich gelöscht. Das heißt, bei einem 404 schauen wir meistens vielleicht zwei, drei Mal nach, ob diese Inhalte wirklich gelöscht sind, bevor wir sie ganz aus dem Index nehmen und bei 410 geht das an und für sich direkt. Längerfristig betrachtet ist der Unterschied eigentlich irrelevant. Das heißt, wenn es für euch schwierig ist, 410 auszuliefern, dann würde ich einfach mit 404 normal arbeiten. Wenn es für euch wichtig ist, dass die Inhalte wirklich schnell entfernt werden aus den Suchergebnissen, würde ich sowieso eher mit dem URL-Entfernungstool arbeiten und nicht mit dem Status Code versuchen, das ein bisschen zu optimieren, sondern dann mit dem Entfernungstool kann man wirklich sagen, ich möchte, dass das jetzt sofort entfernt wird und dann innerhalb von ein paar Stunden wird das entfernt. Wenn man mit dem Status Code arbeitet, dann geht das halt ein paar Tage oder ein paar Wochen, je nachdem, wie viele Seiten das entsprechend sind. Aber ich würde sagen, der Unterschied 404, 410 ist ein bisschen überbewertet. Theoretisch gibt es schon einen großen Unterschied, aber praktisch gesehen macht das meistens kein großen Einfluss. Okay, danke schön. Ich habe eine Frage noch dazu. Und zwar, gerade bei so archivierten oder älteren Inhalte, gehen wir mal davon aus, ich habe die jetzt zum Beispiel auf eine neue Domain umgezogen und diese Inhalte funktioniert dann plötzlich deutlich besser, liegt es dann eher an einem Content oder dass die Domain neu bewertet wird? Kannst du dir sowas erklären? Ja. Wahrscheinlich ist es eine Mischung. Ich denke, es ist immer so, wir schauen natürlich schon, wie diese Inhalte verlinkt werden innerhalb der Website und versuchen, das ein bisschen besser zu verstehen. Und wenn man ein Stück Inhalt von einem Domain auf einen anderen Domain nimmt, dann ist quasi die Umgebung von diesem Inhalt eigentlich schon ein bisschen anders. Und da kann es schon sein, dass die Inhalt viel besser erscheinen in Suchergebnissen oder dass sie vielleicht auch manchmal viel schlechter erscheinen in Suchergebnissen. Okay, Dankeschön. Okay, da haben wir noch fünf Minuten Zeit. Wenn keiner sonst eine Frage hat, würde ich noch eine Frage stellen. Und zwar noch mal zum Thema Double Kid Content. Es ist natürlich ein Thema, mit dem sich gute Frage immer wieder beschäftigen muss. Ist aber natürlich eine extrem schwierige Problematik, war so es, Fragen zusammen zu führen, macht halt für den User wenig Sinn, weil wir die Ähnlichkeiten teilweise unterschiedlich sind, der Nutzer antworten auf Nutzer und dann plötzlich hat man immer eine Frage, die hat 3.000 Antworten. Das macht halt nicht so viel Sinn, deswegen haben wir unseren Focus eher auf die Content-Qualität gelegt. Würdest du sagen, dass man trotzdem sich das Thema Double Kid Content nochmal angucken sollte? Oder würdest du sagen, dass man den Focus eher auf der inhaltlichen Qualität lässt und sagt, okay, mal ein paar Duplikate wird es weiterhin immer geben oder Ähnlichkeiten, aber Hauptsache diese Inhalte, selbst wenn sie relativ hochwertig? Ich würde schon eher auf die Qualität achten. Und wenn ihr auf die Qualität achtet, könnt ihr das natürlich auch ein bisschen steuern, gerade mit Double Kid Content, dass wenn ihr merkt, dass etwas qualitativ hochstehend ist, wenn das besser verlinkt wird innerhalb der Website, dann ist es für uns ja sowieso kein Problem da, dass wir da ähnliche Inhalte sehen, die quasi gleich bewertet sind, sondern dann sehen wir dass das etwas für euch sehr relevant ist und das sind vielleicht ähnliche Fragen, das ist eigentlich auch okay. Double Kid Content ist meistens dann ein Problem, wenn man wirklich Inhalte von verschiedenen Quellen einfach eins zu eins weiter kopiert. Ich denke, das ist bei euch ja nicht unbedingt der Fall. Nein, das sind einfach nur ähnliche Content-Elemente letztendlich, aber definitiv komplett anderer Inhalt von anderen Nutzern. Aber in der Masse macht es natürlich schon was aus, dann letztendlich. Okay, aber dann lieber Qualität. Dankeschön. Okay, weitere Fragen. Ich hätte noch eine Frage, die vielleicht ein bisschen was mit Double Kid Content zu tun hat, aber in erster Linie eigentlich mit dem Canonical Tech und zwar ganz insbesondere wenn man Multi Location Publishing betreibt und das nicht international, sondern eher national, das heißt vielleicht eine Webseite in Berlin agiert, eine in Hamburg agiert, ob es da schlau ist, den Canonical sozusagen zu instrumentalisieren, auch in großem Stil und das dann wirklich für eine große Anzahl von Webseiten zu benutzen um dort dann die Themen auch sozusagen zu lenken. Oder ob man da sagt, Google weiß schon was sie tun und sozusagen da die Themenstärkung der Suchmaschine zu überlassen, sozusagen. Man kann anfühlen sich beide diese Varianten machen, aber ich denke wenn ihr die Möglichkeit habt mit dem Canonical zu arbeiten und wirklich auch irgendwie feststellen könnt, welche dieser Websites für dieses Thema am relevantesten ist, dann würde ich definitiv damit arbeiten weil mit dem Canonical könnt ihr dann auch gezielt angeben, dass alle Signale die sich für dieses Inhaltsstück sammeln, dass sie auf diese eine Website gehen sollen. Und damit stärkt ihr ja diese Inhalte von dieser einen Website. Und dadurch können wir dann eher diese Inhalte dann entsprechend auch zeigen, wenn jemand nach diesem Thema sucht. Das heißt, ohne Canonical ist es ja so, dass die Websites quasi untereinander ein bisschen wie in Konkurrenz stehen. Auch wenn sie den gleichen Artikel, sag ich mal, haben, stehen sie an und für sich in Konkurrenz. Und mit dem Canonical gibt die an, dass all die Signale für diese einzelnen Websites, die vorhanden sind, sollen auf die Version konzentriert werden, die ihr aussucht. Und das muss nicht immer die gleiche Website sein. Das kann ja vielleicht nach Themen unterschiedlich sein oder nach Standort kann das unterschiedlich sein, wenn jetzt irgendetwas in einer Stadt fest passiert, dass ihr dann vielleicht sagt, gut, diese lokale Version ist der Canonical für dieses Stück Inhalt und eine andere Version ist vielleicht Canonical für andere Inhalte. Aber wenn man das machen kann, würde ich das auf jeden Fall empfehlen, weil so habt ihr dann einfach viel stärkere Inhalte, die weniger in Konkurrenz miteinander stehen. Ja, dazu eine Frage, hört man uns? Ja. Okay. Ja, Timo Röske, mein Name vom Relektionssexwerk Deutschland. Das knüpft so ein bisschen an die Frage an, mit dem Nachrichtenportal, was nach einem Monat immer noch nicht ringt. Wir haben auch sehr viele Partner-Portale und das wird auch alles mit Canonical versehen. Aber trotzdem sehen wir sehr oft das Artikel von unserem primären Portal, sag ich mal, nicht ranken und stattdessen Partner-Portale von Google vorzugt werden. Gibt es da noch was anderes, was man für sich zum Canonical Tag irgendwie noch machen könnte? Wir schauen Sachen an mit der Canonicalization. Das heißt, wir nehmen den World Canonical dazu, wir nehmen die interne und externe Verlinkung dazu. Wir nehmen Sachen wie HF-Land dazu, also wenn da verschiedene Länder-Version vorhanden sind. Sitemaps spielt auch ein bisschen eine Rolle. Je mehr man all diese Signale wirklich klar irgendwie darstellen kann, dass sie auf die Version zeigen, was wir als Canonical haben wollen, umso eher können wir dem auch folgen. In vielen Fällen, wenn das jetzt Nachrichteninhalte sind, dann werden wir die einzelnen Seiten allgemein relativ wenig Signale haben, dann hilft uns ein World Canonical schon sehr stark, aber das heißt nicht, dass ein World Canonical immer alles übertrümpft, was sonst da ist. Das heißt, wenn jetzt ein Artikel alle externen Links angezogen hat und ihr den World Canonical bekommt, dann ist das immer noch eine Frage von trauen wir den Links, die sagen, dass das die Hauptversion ist, oder trauen wir den Canonical, der sagt quasi, die andere ist die Hauptversion. Danke. Bitte. Okay, ich glaube zeitlich sind wir so ziemlich am Ende angelangt. Viele Diskussionen, viele Fragen, super. Wenn ihr mehr Sachen bezüglich Discover gerade mit dem Refer schicken könnt, was ihr damit anstellen würdet, wie euch das helfen würde, die Inhalte besser zu gestalten, dann wäre ich sehr dankbar. Ich denke, das hilft immer, wenn man ein bisschen Argumente aus der Praxis hat und das mit dem Team anschauen kann. Ansonsten haben wir, glaube ich, ein weiteres deutsches Hangout am Donnerstag geplant. Freitag ist immer der englische Hangout. Also wenn noch weitere Fragen dazukommen. Okay, dann schalte ich mal die Aufnahme hier aus.