 Okay, herzlich willkommen beim heutigen Google Webmaster Essentials-Sprechstunden-Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trends Analyst hier bei Google in der Schweiz und Teil von dem, was wir machen, sind solche Webmaster-Hangouts für Webmasters, Publisher alle, die Inhalte im Web veröffentlichen, die sie gerne mit der Suchmaschine finden lassen möchten. Wie immer, wenn einer von euch loslegen will mit einer ersten Frage, seid ihr gerne dazu eingeladen. Ansonsten sind da auch verschiedene Fragen, die schon eingereicht worden sind vorher. Okay. Sonst, wenn noch irgendetwas aufkommt, einfach melden. Also, fangen wir mal an, eine Frage zu PWA und Single-Page App in Google News im organischen Bereich scheint die dynamischen Technologie zu funktionieren, bei Google News scheint es noch Probleme zu geben. Gibt es echt welche Maßnahmen, sodass die Rankings bei Google News beziehungsweise in den Oneboxen kein Problem mehr sind? Gut, Rankings können wir nie garantieren. Grundsätzlich aber gerade bei Inhalten, die Rendering benötigen, damit sie überhaupt sichtbar sind, ist es so, dass es da manchmal ein bisschen länger gehen kann, bis diese Inhalte wirklich auch gerendert werden und indexiert werden. Bei den meisten Web-Inhalten ist das weniger kritisch. Bei Nachrichten ist es aber wahrscheinlich so, dass ihr eure Inhalte möglichst schnell von Google verstanden haben wollt und da lohnt es sich wahrscheinlich dann in Richtung Dynamic Rendering zu gehen, sodass ihr quasi das Rendering auf eurer Seite schon vorausmacht, sodass Google und Google News die vorgerenderte Version eigentlich direkt verwenden kann, sodass wir da direkt die Inhalte beim ersten Zugreff holen können, dass wir diese Inhalte dann direkt auch zeigen können in Google News, in den Oneboxen überall erlaubt. Das heißt, gerade bei Seiten, die sich sehr schnell und häufig verändern, wo ihr die neuen Inhalte möglichst schnell indexiert haben möchtet, würde ich da anraten, in Richtung Dynamic Rendering zu gehen. Ich bastle gerade an einer Website die Produkte untereinander vergleicht. Die Vergleiche basieren allerdings überwiegend auf umfangreiche Tabellen, Diagrammen und Produktlistings. Könnte ich Probleme mit dem Panda aus wegen dem Content bekommen, wenn ich keinen Text, sondern nur Tabellen und Diagramme auf einer Seite habe? Das sollte eigentlich total unproblematisch sein. Ich würde aber trotzdem dafür sorgen, dass ein bisschen Text auf diesen Seiten besteht, damit wir wissen, wie wir diese Seite ranken sollen. Das heißt, für was soll diese Seite in den Suchergebnissen erscheinen, wenn das wirklich nur eine Tabelle ist mit verschiedenen Eigenschaften und manchmal ist ein Haken dabei und manchmal kein Haken dabei, dann ist es sehr schwierig für uns zu verstehen, für was sollen wir diese Seite in den Suchergebnissen zeigen. Und von dem her hilft uns jeder Text eigentlich schon. Es ist nicht so, dass man da einen Roman dazu schreiben muss, aber ein bisschen Text hilft uns schon. Werden Tabellen, die ähnlich zueinander sind, als duplige Content gewertet und gibt es eigentlich intern duplige Content. Zum Beispiel, wenn ich eine Kategorie den Text aus meinem eigenen Lexikon erneut benutze. Tabellen, die ähnlich sind, was wahrscheinlich da passiert ist, wie der einzelne Stichwörter oder diese Tabellenzellen sehen, dass sie mehrfach vorkommen auf einer Website, aber in der Regel ist das total unproblematisch. Beziehung bezüglich internen duplige Content, das gibt es durchaus, dass wir da verstehen, dass Stücke von Text mehrfach auf einer Website vorkommen können. Das ist aus unserer Sicht total normal. Was einfach passiert in den Suchergebnissen ist, wenn wir ansonsten zum Beispiel den gleichen Snippet zeigen würden für unterschiedliche Ergebnisse von eurer Website, dann würden wir normalerweise die anderen ausblenden und einfach einen von diesen Seiten zeigen in den Suchergebnissen. Das heißt, wenn ihr fünf Seiten habt, die für eine gewisse Sucherfrage an und für sich den gleichen Resultat zeigen würden in den Suchergebnissen, wählen einfach einen von diesen aus, zeigen den und die anderen blenden wir aus. Und das ist ja eigentlich nichts Problematisches, es ist nicht irgendwie eine Bestrafung, es ist nicht, dass wir vom Web-Spam her das irgendwie schlechter ansehen. Wir denken einfach, es macht wenig Sinn, wenn wir den Benutzer fünfmal das gleiche zeigen in den Suchergebnissen. Wenn man Produktseiten hoch aufgelöster Bilder auf einer CDN verlinkt, geht dann der Page-Rank verloren. Zum Beispiel, wenn ich mit A, href auf die CDN verlinke und dann im Image Tag die andere, die quasi kleinere Auflösungbilder so einbinden in der Seite, das anfühlt sich überhaupt kein Problem. Das ist etwas, das machen sehr viele Websites so, dass man da die Bilder direkt verlinkt, dass man unter Umständen höher auflesendes Bild so verlinkt, was auf unserer Seite in der Regel da passiert ist, wir finden beide dieser Bilder und können beide dieser Bilder in den Bildersuchegebnissen zeigen. Wenn das wirklich das gleiche Bild ist, einfach in verschiedenen Auflösungen, erkennen wir aber auch, dass das die gleichen Bilder sind und klacken die wie ein bisschen zusammen. Und oft ist es so, wenn man dann ein Resultat antriegt in der Bildersuche, dann werden die anderen Varianten von diesem Bild auch dargestellt, so dass man sieht, dass die Anfälligungen anfällig auch gefunden worden sind. In der Regel helfen uns höher auflösende Bilder eher beim Erkennen, worum es geht in der Bildersuche und das sind auch Sachen, die wir versuchen bevorzugt in der Bildersuche aufzuzeigen. Aber es macht natürlich nicht Sinn, dass man die höchste auflösendsten Bilder immer auf den Seiten einbindet. Von dem her ist diese Aufbau mit verschiedenen Auflösungen von Bildern total normal. Man kann auch mit dem Picture-Element arbeiten und so verschiedene Auflösungen direkt für dem Browser bereitzustellen, damit man da, wenn jemand mit einem wirklich hoch auflösenden Browser kommt, dass man da diese Bilder dann auch direkt laden kann. So, hängen wir uns ein bisschen rauschen, schalte dich mal stumm. Okay, also weiter zu Index No-Follow. Wenn ich ein Index No-Follow mit einem Canonical Link kombiniere, dann gilt das No-Follow nur für die Quellseite oder auch für das Ziel. Ja, es gilt nur für die Quellseite, d.h. dort, wo Index No-Follow eingebunden worden ist. Ich möchte, dass Google auf den Links auf der Quellseite nicht folgt, falls der Canonical nicht angenommen wird oder gerade verarbeitet wird. Auf der Zielseite soll Google aber alle Links folgen. Geht das so, das kann man so machen. Normalerweise muss man das nicht so machen, weil wir mit dem Canonical eh weiterarbeiten können. Aber man kann das doch auch so machen. Ich vermute, dass vom Praktischen her, dass es keinen großen Einfluss hat, ob man das so macht oder nicht. Ich vermute, dass es sich nicht groß lohnt, das so einzubinden. Aber man kann das doch auch machen, wenn man das Gefühl hat, dass man da die Links ein bisschen besser steuern möchte. Wir haben ein massives Problem bei der Reindexierung unserer Shopseiten, nachdem durch einen Fehler unsere Stage-Umgebung offen war und Google angefangen hat, das Stage zu indexieren und unsere eigentlichen Juras aus dem Index geschmissen hat. Nun ist das geschlossen und ich habe die Ergebnisse im Cash gelöst. Aber die ursprünglichen richtigen Seiten werden zum Teil nicht wieder indexiert. Was kann man da machen? Es hängt ein bisschen davon ab, wie ihr die anderen Sachen jetzt gelöscht habt. Also was unter Umständen, je nachdem, was genau passiert ist, passieren kann, ist, dass wir diese beiden Varianten gesehen haben und dass wir aus irgendeinem Grund die Stage-Umgebung genommen haben und für einzelne Seiten, die als Canonical gewählt haben und wenn man da diese Situation hat und man nimmt dann mit dem URL Entfernungstool die Stage-Umgebung raus, dann ist die zwar in den Suchergebnissen nicht mehr sichtbar, aber immer noch als Canonical gewählt für diese einzelnen URLs. Und dann wird es durchaus so sein, dass da erstmal keine Inhalte vorhanden sind in den Suchergebnissen für diese bestimmten Anfragen. Und im Laufe der Zeit, wenn wir die normale Website wieder neu crawl, neu indexieren, werden diese URLs dann als Canonical gewählt und die erscheinen dann wieder in den Suchergebnissen. Also unter Umständen könnte das jetzt so abgelaufen sein. Das ist etwas, das behebt sich an und für sich automatisch im Laufe der Zeit. Was man machen kann, wenn das wirklich problematisch ist, ist es mal einfach diesen URL Entfernungsantrag erstmal wieder rausnimmt. Dann kommen die URLs, die mit der Stage-Umgebung quasi indexiert sind, als Canonical gewählt worden sind, erstmal wieder in den Suchergebnissen hinein, so dass ihr auf jeden Fall wieder sichtbar seid in den Suchergebnissen, zwar mit den falschen URLs, aber wenigstens seid ihr da sichtbar. Und wenn jemand auf diese URLs klickt, könnt ihr dann immer noch auf die normale URLs weiterleiten oder ihr könnt mit dem Canonical Tag arbeiten und so, dass wenn wir diese Stage-Umgebung noch mal crawlen würden, dass wir dann den Canonical langsam wieder zurückwechseln würden auf die richtige Version. Das ist wahrscheinlich das schnellste, was man da machen kann. Vom praktischen her, was man natürlich auch machen kann, ist alles Mögliche daran setzen, dass man die normalen URLs wieder aus Canonical zurückbekriegt. Das heißt, dass man die in eine Sign-App-Datei einbindet und so einreicht, dass man schaut, dass sie wirklich sauber intern verlinkt sind. Das unter Umständen, je nachdem, wie man das eingebaut hat, dass man auf redirects hat von der Stage-Umgebung zur bevorzugten Canonical Version, dass man da die ganzen hreflang links, wenn man die hat, auf der Website entsprechend auch einrichtet, dass sie auf die Canonical Version zeigen. Alle solche kleinen Signale, die uns helfen, wir wirklich da die richtige Version aus Canonical wählen können. Aber das ist etwas, das je nachdem dauert es halt auch ein bisschen Zeit. Für die wichtigsten Seiten einer Webseite können wir das relativ häufig neu bearbeiten. Kann man das im Teil täglich machen. Für andere Seiten in der Webseite kann es schon sein, dass es da ein bisschen länger geht, dass es vielleicht ein paar Wochen geht, vielleicht sogar ein paar Monate geht, bis wir die alle wieder als Canonical zurückgeholt haben. Und das unter Umständen ist das vielleicht problematisch. Und vielleicht macht es da in einem solchen Fall, dann halt sehen, dass man sagt, gut, ich nehme den URL-Entfernerungsantrag erst mal wieder zurück, damit wenigstens irgendetwas von meiner Webseite in den Suchergebnissen erscheint. Mir betreibt mein Online-Store in Deutschland, Österreich und der Schweiz, wo wir REL Canonical und HFLang bei den drei Domains korrekt gesetzt haben. Bekommen wir in Search Console verfehlen URLs, der ART-Domain, die Meldung Duplicate submitted, not selected as Canonical. Und dann da zwei Beispiele. Hast du eine Idee, wie man Google davon überzeugen kann, dass diese URLs aufgenommen werden soll? Es sind da zwei Sachen, die ein bisschen zusammenkommen, die das vielleicht ein bisschen verwehrend machen. Einerseits, wenn diese Seiten wirklich sehr ähnlich sind, und ich habe die mal kurz vorher angeschaut, und die sehen auf Anlieb eigentlich so gut wie identisch aus, dann ist es eigentlich normal, dass unsere Systeme, die als Duplicate empfinden, und jeweils nur eine dieser beiden indexieren. Das macht einem für sich Sinn. Das macht es ein bisschen einfacher für die Verarbeitung. Es hilft einem für sich auf beiden Seiten ein bisschen dafür. Allerdings sieht man dann natürlich solche Meldungen in Search Console. Was da auch passieren kann, ist, dass selbst URLs, die als Duplicate empfunden werden, richtig dargestellt werden in den Suchergebnissen. Das heißt, wenn wir erkennen können, dass da mit HFLang zwischen diesen beiden Versionen sauber verlinkt ist, dann können wir trotzdem die alternative URL, die per HFLang angegeben ist, zeigen in den Suchergebnissen. Ich habe jetzt hier nicht kontrolliert, ob das der Fall ist, aber was man zum Beispiel machen kann, ist einfach auf der entsprechenden Google-Version zu schauen, in welches diese URLs gezeigt werden. Wahrscheinlich wird es so sein, dass wir, obwohl wir die als Duplicate sehen, dann trotzdem noch die Richtige zeigen können. Wir sind trotzdem daran, das Ganze ein bisschen besser zu gestalten, auf unserer Seite ein bisschen da, ich weiß nicht, das so zu machen, dass es ein bisschen einfacher ist, für Webmaster das sauber anzugeben und dass wir das ein bisschen besser verarbeiten können, nicht so verwirrend darstellen. Und von dem her ist solcher Feedback wieder jetzt eigentlich sehr hilfreich. Wenn ihr sieht, dass wir trotzdem die falsche Version in den Suchergebnissen zeigen für die einzelne Länderversion, dann wäre ich froh, wenn du mir vielleicht einzelne Suchernfragen mal zuschicken kannst, dann kann ich die hier mit dem Team anschauen und da kann man überlegen, wo klemmt da etwas. Ist das etwas, was ihr auf eurer Seite vielleicht verbessern könnt oder etwas, was wir auf unserer Seite verbessern können? Eine Sache, die ihr immer machen könnt in solchen Situationen ist natürlich dafür zu sorgen, dass die Inhalte wirklich unterschiedlich sind. Weil wenn sie unterschiedlich sind, würden wir sie auch nicht als Doppelcard an Zusammenfall. Das heißt immer wieder, dass Google messen könne, wie lange die Verweildauer auf einer Seite ist und ob der User sich dann noch weiter durch die Website klickt. Wie ist das technisch umgesetzt? Meines Wissens machen wir das nicht. Und dem her wüsste ich jetzt nicht, wie das umgesetzt ist. Ich denke, wenn man als Webmaster diese Angaben haben möchte und die in vielen Fällen machen, die ihr schon seht, weil man dann ein bisschen mehr erfahrt, was der Benutzer macht, was die Benutzer als wichtig empfinden innerhalb der Website, dann würde ich das mit Google Analytics machen. Wir verwenden Google Analytics nicht für die Websuche. Deshalb gibt es viele verschiedene andere Analytics-Programme und nur weil Google Analytics auch von Google gemacht ist, können wir trotzdem die Daten nicht weiter verwenden für die Websuche. Wir müssen über die neuen Announcements zum Webmaster Talk informiert werden. Seit des Google Plus nicht mehr gibt, funktioniert Erfolgen, noch nicht mehr. Google Plus gibt es noch eine Weile. Es ist noch nicht ganz ausgestorben. Ich weiß noch nicht, wie wir das längerfristig machen mit den ganzen Fragen und Anmeldungen für die Webmaster Hangouts. Aber irgendeine Lösung finden wir da schon noch und die Website funktioniert. Google Plus eigentlich soweit noch normal weiter. Was einfach ist, ich weiß nicht, mit dem folgenden Topf im YouTube-Kanal, ist es so, dass wir manchmal diese Hangouts als ganz öffentlich hineinstellen und dann kriegt man sofort eine Meldung, wenn die eingebaut werden auf YouTube und manchmal stellen wir die quasi nur als Listing ein, dass diejenigen, die wissen, wo das ist, die das über Google Plus gesehen haben, die sehen das dann direkt so. Das hängt ein bisschen davon ab, wie sichtbar die Hangouts sein wollen. Wir hören ab und zu von unseren YouTube-Benutzern, dass sie da nicht über jeden einzelnen Hangout informiert werden möchten, sondern eher die normalen Videos hervorgehoben haben wollen. Es gab hier erst die Einführung von Discover.google.com in den Datenquellen von Google Analytics. Wird es in Zukunft auch möglich sein, in Google Analytics in Traffic von Google News ausweisen zu können? Ich weiß nicht. Ich weiß nicht, wie das bei Google Analytics gehandhabt wird und auch nicht, wie das mit Google News funktioniert. Ich habe gemeint, dass Google News eigentlich schon normalen Refer hat und dementsprechend wahrscheinlich auch direkt so aufgeführt wird in Google Analytics. Ich weiß allerdings nicht, wie das mit den neuesten Änderungen bei Google News zusammenfällt. Ich habe für einige Kunden FAQ-Seiten oder Sektionen erstellt und das mit Accordians realisiert. Kann es sein, dass Google mit diesen Accordians ein Problem hat? Oder was könnte man sonst da machen bei diesen Accordians? Für sich ist es total okay, wenn man das so macht. Wichtig ist aus unserer Sicht, dass die Inhalte schon geladen werden, wenn die Seite geladen ist. Das heißt nicht, dass wenn man auf ein Accordian klickt, um das so aufzuklappen, dass dann erst vom Server die Inhalte abgefragt werden und dann die dargestellt werden in der Seite, sondern dass wenn die Seite aufgebaut wird, dass Accordian mit den Inhalten an und für sich schon erstellt ist im HTML und durch das Klicken auf ein Accordian wird das dann einfach halt sichtbar gemacht oder halt unsichtbar gemacht. Und in solchen Fällen können wir diese Inhalte ganz normal herauslesen und die können wir dann auch zeigen in den Suchergebnissen. Das sieht man ja eigentlich relativ gut, weil zum Beispiel nach einer Antwort direkt sucht, dann sollten diese Seiten eigentlich auch erscheinen in den Suchergebnissen. Wenn sie nicht erscheinen, dann ist es eher ein Problem mit der Seite selber, dass wir die aus irgendeinem Grund nicht sauber indexieren können. Aber die Technik, dass man so aufklappbare Bereiche hat innerhalb einer Seite, das ist eigentlich vollkommen okay aus unserer Sicht. Eine Frage zu Dynamic Rendering. Ich arbeite für einen Shop und benutzen für unsere Kategorie-Seiten Dynamic Rendering nun ist es so, dass die Sortierung dieser Produkte in den Kategorien auf beiden Versionen der Seiten unterschiedlich ist. So dass Google zur Kategorie passende Produkte andere Produkte sieht als der User, wie sehr dürfen sich die Versionen quasi unterscheiden. An und für sich ist das weniger ein Problem. Wichtig ist für uns einfach, dass wir die Links zu den einzelnen Produkten finden können und wie die Sortierung da gehandhabt wird, ist eigentlich weniger problematisch. Ich würde der Einfachheit halber möglichst diese Seiten gleich gestalten, einfach damit man das Ganze auch ein bisschen einfacher warten und debatten kann, falls irgendwo etwas mal schief geht. Aber ansonsten ist es eigentlich okay, dass man da leicht unterschiedliche Sortierungen hat. Gerade wenn man auch irgendetwas mit Personalisierung macht oder wenn man den Standout von Benutzer kennt und dann eher lokale Ergebnisse zum Beispiel in dieser Liste oben darstellt, ist das an für sich total okay. Wichtig ist eben einfach, dass wir die einzelnen Produkte wirklich auch finden können und dass wir die Links zu diesen Produkten direkt sehen können in diesen Kategorien-Seiten, weil wenn wir diese Links nicht mehr finden, dann können wir die einzelnen Produkte nicht mehr so gut indexieren und das wollt ihr wahrscheinlich nicht haben. Vielleicht grundsätzlich zu Dynamic Rendering für solche, die das noch nicht kennen. Das ist eine Technik, wie man Seiten, die zum Beispiel komplizierte JavaScript-Funktionen verwenden, so gestalten kann, dass Googlebot eher eine statische HTML-Version kriegt, wenn diese Seite aufgerufen wird und das Benutzer dann per JavaScript die Umgebung aufgebaut bekommen. Und das Ziel dabei ist einfach, dass Googlebot ein bisschen schneller zu den Inhalten kommt und nicht erst die Seite rendering muss, um diese Inhalte und die Links zu den einzelnen Produkten zu finden. Und Dynamic Rendering kann man natürlich auch für alle möglichen anderen User-Agenz machen. Gerade wenn man jetzt Information-Seiten hat, die per JavaScript aufgebaut werden, macht es natürlich auch Sinn, dass man eine statische Version vielleicht für die verschiedenen Social-Media-Crawlers bereitstellt, vielleicht auch für andere Suchmaschinen, sodass all diese verschiedenen Systeme, die Inhalte relativ schnell und sauber verarbeiten können. Kann es sein, dass ein Canonical eines Redirects an die Redirect-Quelle vererbt wird? Verstehe ich jetzt nicht ganz genau, wie du es meinst. Ich weiß nicht, ob du hier wegen dem Hangout bist. Sieht glaube ich nicht so aus. In Search Console wurde eine URL angegeben unter Duplicate. Google hat eine andere Seite als der Nutzer, als kanonische Seite bestimmt. Bei der URL-Krüffung sei ich, dass es sich um das Canonical des Redirects handelt. Seite A hat kein Canonical, Seite A wird gelöscht und auf Seite B weitergeleitet. Seite B hat ein Canonical auf Seite C. Google meldet, Seite A hat ein falschen Canonical auf Seite C. Schwierig zu sagen. Ich weiß nicht genau, wie das bei dir jetzt da alles zusammenkommt. Aber grundsätzlich ist es so, dass wir wahrscheinlich diese Seiten A, B und C in einer Gruppe sehen würden als mögliche Canonicals. Und dass wir da die verschiedenen Faktoren ein bisschen zusammenzählen und uns überlegen von diesen drei Seiten, welche sollen wir als Canonical nehmen. Einerseits nehmen wir Redirects dazu. Je nachdem, ob das ein temporär oder permanenter Redirect ist, ist es natürlich die Zielseite oder die Quellseite. Wir nehmen Real Canonical dazu. Wir nehmen die interne Verlinkung, eine Interne Verlinkung dazu. Hreflang, also möglichen anderen Signale, kommen ein bisschen dazu auch. Aufgrund von all diesen Signalen versuchen wir dann herauszufinden, welches dieser Seiten als Canonical am besten geeignet ist. Und vom Ranking her hat das keinen Einfluss. Es ist wirklich einfach eine Frage von der URL, die dargestellt wird, in den Suchergebnissen. Und ich vermute, dass hier von diesen drei Seiten, da aus irgendeinem Grund vielleicht jetzt im Moment alles ein bisschen mehr für die Seite A spricht. Und obwohl dann, weil Canonical vielleicht ist, der dazukommt und da auf die andere Seite B oder C halt weiter zeigt. Und das kann euch auch so vorkommen, wenn da verschiedene Faktoren im Spiel sind und die Faktoren nicht alle aufeinander abgestimmt sind, und da wirklich sauber sagen kann, das ist eigentlich die Version, die der Webmaster haben möchte. Und in der Regel ist das auch eben, wie gesagt, unproblematisch, weil wir da eigentlich nur die URL verändern, die dargestellt wird in den Suchergebnissen und dass wir dann nicht vom Ranking her eine große Veränderung sehen würden. Ich hätte noch eine Canonical Frage, wenn das geht. Okay. Also wenn ich jetzt eine partners Liste habe dann haben wir mal fünf Seiten. Und ich jetzt eine Seite habe, die einen Teil von dieser paginierten Liste enthält. Erkennt Google diesen Teil, welcher Canonical Setzer auf die erste Seite, dass das ein Teil von dieser paginierten Liste ist oder also faltet Google praktisch diese Menge an Seiten zusammen und erkennt dann, wenn ich einen Teil daraus nehme, dass das zusammengehört. Wie würde das praktisch aussehen? Also du hättest zum Beispiel eine Liste von Produkten und die Seite 3 in dieser Liste wäre separat. Zum Beispiel habe ich eine Kategorie mit einer Größe von Flaggen und dann gehe ich noch und kategorisiere weiter. Also bilde Runterkategorie mit Europa oder Asien oder Afrika. Aber Afrika, Europa, Asien gehört ja zu dieser ersten übergeordneten größeren Liste. Also funktioniert das dann auch? Also erkennt Google praktisch, dass diese 100 Seiten dann zusammengehören und dass Afrika ein Teil von diesen 100 Seiten ist. Was wahrscheinlich passieren würde, ist, dass wir da die einzelnen Textbereiche innerhalb der Seite erkennen würden, dass sich schon mal sonst wo auf der Webseite vorhanden sind. Und das hat eigentlich keinen negativen Einfluss. Was einfach höchstens passieren könnte, ist in den Suchergebnissen, wenn man zum Beispiel nach einer Flagge aus einem von diesen Ländern sucht, dass wir einfach einen von diesen Seiten zeigen würden in den Suchergebnissen. Das heißt, wir würden dann nicht zum Beispiel flacken weltweit, flacken Europa und dann flacken Schweiz zeigen, sondern wir würden dann vielleicht, weiß ich, von einem Land oder von einer dieser Kategorien, die die Seite zeigen in den Suchergebnissen. Das sollte ja, also in der Regel macht das eigentlich nichts aus, das passt eigentlich gut so. Es ist auf jeden Fall nicht nachteilig, wenn man das so hat. Ist ja oft so, dass Produkte in verschiedenen Kategorien sind oder Unterkategorien und dann sind sie auf verschiedenen von diesen Listenseiten, das ist eigentlich total normal. Damit müssen wir auch umgehen können. Also muss man nicht großartig noch irgendwie in Kanäle gesetzen, sondern lässt das einfach so laufen? Ja, also ich würde einfach überlegen, wie viele Unterkategorien man indexiert haben möchte, dass sie ähnlich wie mit Filtern, wenn man mit, wie heißt es, mit Faceted Navigation arbeitet, dass man sich einfach ein bisschen beschränkt und sagt, für die Indexierung nehme ich jetzt, sag ich mal, zwei Stufen der Kategorisierung dazu. Und alles andere ist zwar auf der Website drauf, aber vielleicht auf No Index gesetzt oder mit dem Canonical auf eine oberhöhrstehende Kategorie verwiesen. Einfach das für die Indexierung, dass man wirklich sich auf das beschränkt, was man denkt, macht wirklich auch Sinn für die Suche. Und wie wichtig ist denn jetzt, also praktisch, wenn jetzt eine No-Index-Seite da ist, im unteren Bereich, wenn es ein Link verweist auf diese No-Index-Seite, dann sagst du ja immer, dass dieser Link ins Nichts führt. Also wie weit gibt es denn überhaupt noch diesen Page-Rank oder Link-Juice, was vererbt wird? Was ist wichtig, die Qualität oder eher dieses Link-Juice? Ich würde eher auf die Qualität setzen. Okay, alles klar, ja. Mal schauen, was damit passiert auf Twitter. Aber ich denke, grundsätzlich macht das schon eher Sinn, gerade wenn man jetzt eine Website aufbaut, dass einerseits vom technischen Herd, dass sie einfach crawlbar ist, und das ist sie ja meistens auch gegeben, selbst wenn man da verschiedene Unterkategorie nicht indexieren lässt. Danach ist wirklich einfach die Qualität sehr wichtig. Okay, eine Frage zu Google Optimize. Unterscheidet Optimize zwischen menschlichen Besuchern auf der Website und zum Beispiel Search Machine Crawlern. Ich weiß es nicht. Also ich glaube, Google Optimize ist ja so eine Art AB-Test-Unggebung. Meines Wissens haben sie das so eingerichtet, dass es auch sauber mit Suchmaschinen geht, aber ich habe da keine direkte Erfahrung mit Google Optimize. Da müsste man eher beim Analytics-Team vermute ich mal mal nachfragen oder im Analytics-Forum. Du hast dir letztes Mal meine Ferienpark-Seite angesehen, um mir geraten, vor allem mein gesamtes Link-Netzwerk zu reduzieren, also die Verlinkung untereinander. Und dafür stärkere Seiten, auf weniger, dafür stärkere Seiten zu konzentrieren, habe ich schon sehr viele Verlinkungen gelöscht. Frage mich nun aber, wie weit es generell gut oder schlecht ist, eigene Seiten untereinander zu verlinken. Grundsätzlich ist es total okay, eigene Seiten untereinander zu verlinken, da wenn die soweit relevant sind, macht das allen für sich Sinn. Ich denke, in deinem Fall ist es wenig eine Frage von den Links zwischen diesen verschiedenen Websites, sondern einfach die gesamte Menge der Websites allen für sich. Und da würde ich vielleicht ein bisschen überlegen, wie kann man einfach die Menge der Websites ein bisschen reduzieren, damit man wirklich einfach weniger und dafür stärkere Websites insgesamt hat. Also nicht nur die Anzahl Seiten, sondern auch die verschiedenen Websites selber und nicht nur quasi die Verlinkung zwischen diesen einzelnen Websites, sondern wirklich, dass man sagt, ich habe jetzt viel weniger Websites, dafür viel stärkere Websites, die dann auch qualitativ viel höher stehen sind. Ich denke, das ist immer ein bisschen schwierig, wenn man so niche Websites aufgebaut hat, aber das macht schon aus unserer Sicht Sinn, dass man da wirklich einfach starke Websites hat, die bekannt dafür sind, im Augen unserer Algorithmen für ihre gute Qualität, wo wir dann auch wirklich vertrauen können, dass die Inhalte, die wir bei euch finden, dass man die sauber in den Suchergebnissen zeigen kann und dass sie gut bei Benutzern ankommen, dass das wirklich etwas ist, was alle sehen wollen. Und wenn das aufgeteilt ist auf viele verschiedene kleine Websites, ist das viel schwieriger für uns irgendwie so zu erfassen. Ach, wir haben da im Chat noch ein paar Sachen. Wir haben eine mehrsprachige Website, teilweise wird von Google in Kroatien noch die deutschen Seiten vorne angezeigt. Wie schaffen wir es, dass Google die richtige Seite vorzieht? Wichtig für so etwas ist wirklich der hreflang, also der Link zwischen den verschiedenen Seiten, also nicht den Websites, sondern den einzelnen Unterseiten an für sich, dass wir da sauber erkennen können, dass wenn jemand diese Seite in den Suchergebnissen sehen würde, sollten wir eigentlich die anderen zeigen, wenn der Benutzer zum Beispiel in Kroatien ist. Und manchmal ist es schwierig, diese hreflang-Feldbindungen sauber aufzubauen. Ich würde auf jeden Fall in Search Console schauen, wie da das Ganze erfasst wird und wo vielleicht noch irgendwelche Fehler vorhanden sind. Ich weiß, in Search Console ist es ein bisschen schwierig, weil es bezieht sich auf die indexierten Seiten. Das heißt, es geht immer eine gewisse Zeit, bis sich da etwas verändert, wenn man Veränderungen an eigenen Websites macht. Aber da sieht man am ehesten auch, wie das von Google soweit gefunden wird. Was unter Umständen auch sein kann, gerade wenn du ansprichst, dass wir zum Beispiel die falsche Sprachversion finden. Ich vermute mal, dass das ein bisschen auf das hinausgeht, dass man da die falsche Sprachversion auch darstellt. Manche Websites haben ein sehr ausgeklügeltes System, dass sie automatisch die Sprache anpassen an den Benutzer. Das kann für uns Probleme verursachen, weil Googlebot crawled in der Regel aus einem Standort, normalerweise aus Amerika. Wenn ihr zum Beispiel für die kroatische Websites deutsche Inhalte liefert, wenn der Benutzer nicht aus Kroatien kommt, dann nehmen wir vielleicht schnell an, dass diese Seiten anfühle sich auch auf Deutsch sind und merken gar nicht, dass da vielleicht eine kroatische Version auch dabei wäre. Und da wäre ich da einfach sehr vorsichtig, dass man dafür sorgt, dass wirklich die einzelnen Sprachversionen auch direkt aufrufbar sind und direkt indexierbar sind, sodass wir es sehr gut erkennen können, dass es eine Version in kroatisch und das eine Version in deutsch. Und mit dem hreflang sehen wir dann, dass diese verknüpft sind, dass sie zusammengehören, dass wir die austauschen können, wenn sie ihnen Suchergebnisse zeigen würden. Dass wir trotzdem sauber erkennen können, dass es jetzt wirklich eine kroatische Seite. Man kann das ein bisschen abtesten mit einer Seitabfrage in den Suchergebnissen. Und bei den erweiterten Sucheinstellungen kann man, glaube ich, angeben, die Länder- oder die Sprachversion. Und so sieht man auch, welches diese Seiten für diese verschiedenen Kombinationen gezeigt werden. Wir haben ein größeres Rebranding hinter uns, kann ich dir die genauen Informationen für ihr E-Mail geben, ob Google das auch mitbekommen hat. Am einfachsten per Google Plus, dann kann ich das mal anschauen. Aber in der Regel, wenn das sauber gemacht ist, wenn die Website von einem Domain zu anderen weitergeleitet ist, mit den Schritten, die wir im Hilfe-Center haben, dann sollte das eigentlich total unproblematisch sein. Dann eine andere Frage, wir sind an Ihrem Brand, die zufälligerweise den gleichen Namen hat wie ein großes US-amerikanisches Institut. Bei der Brand-Search rankt oben entsprechend derzeit die amerikanische Seite, die vermutlich aber für den Standort Deutschland, die jetzt weniger relevant ist, gibt es aus deiner Sicht weitere Maßnahmen, die wir ergreifen können, um unsere Homepage zu verbessern, außer das Feedback und Homepage Optimierung. In der Regel sind das Sachen, die sich im Laufe der Zeit einpendeln und die ein bisschen dem widerspiegeln, was normaler Benutzer vielleicht auch erwarten können. Und gerade, wenn man jetzt neu ist und es gibt bestehende andere Websites, die zu diesen gleichen Wörtern zum Beispiel ranken, dann hat man halt einfach diesen Schwierigkeit, dass Google erst mal erfahren muss, ja, warte mal, für Benutzer in Deutschland gibt es jetzt diese Seite, die ist besonders relevant für das gleiche Keyword, wie diese amerikanische Seite vielleicht relevant ist in anderen Teilen der Welt. Und das sind Sachen, die brauchen einfach eine gewisse Zeit, bis das wirklich sauber erkannt wird. Ähnlich ist es auch, wenn man sozusagen Schreibfehler aus Brandnamen nimmt, dann dauert das einfach eine gewisse Zeit, bis sich Benutzer und unsere Algorithmen daran gewöhnt haben, dass wenn man diesen Schreibfehler eingebt in den Suchergebnissen, dass wir dann nicht das automatisch korreieren sollen und auf die richtig geschriebenen Variante weiterleiten, sondern dass wir erkennen sollten, dass halt, das sind zwei unterschiedliche Sachen, die müssen wir unterschiedlich auch in den Suchergebnissen zeigen. Und das macht es immer ein bisschen schwieriger vom Branding her, aber ich denke, das ist außerhalb vom Internet, außerhalb der Suchmaschinen genauso kompliziert. Da muss man erst mal, gleich mal dieses Brand ein bisschen aufbauen, ein bisschen bekannter machen, sodass wirklich auch Benutzer und die verschiedenen Algorithmen, die da am Werk sind, richtig stark erkennen können, das sind unterschiedliche Konzepte und die müssen wir auch unterschiedlich vielleicht den Suchergebnissen zeigen. Und das ist nicht etwas, was wir manuell anpassen würden. Das heißt, Feedback an uns zu schicken und sagen, hey, wir sind jetzt neu und heißen zwar gleich wie die anderen, aber wir sind für Deutschland oder in unserer Region zuständig. Das ist nicht etwas, was wir manuell da anpassen würden, sondern wir müssten wirklich über unsere Algorithmen das im Laufe der Zeit lernen. Okay. Inwieweit kann der Einsatz von Erzents negativ auf das Ranking einer Seite auswirken? Man sollte sich above the fold nur dosiert einsetzen, aber abgesehen davon verringert nach so jeder Erzentsklick die Verweildauer eines Nutzers. Ja, im above the fold Bereich ist es für uns natürlich wichtig, dass wir die eigentliche Inhalte auch finden, dass wenn jemand aus den Suchergebnissen auf die Seite klickt, dass wirklich das auch auffindbar ist, was da versprochen wurde in den Suchergebnissen. Aber ansonsten kann man das natürlich einsetzen, wie man will und wie man die eigene Website monetisiert. Das ist eigentlich euch überlassen, das ist nicht etwas, wo wir sagen würden, ihr müsst das so oder so machen. Grundsätzlich müsst ihr einfach bedenken, dass jegliche Art von Werbung die auf euren Seiten hat vom Benutzer her gesehen, auch fast wie ein Stück Inhalt gilt für diese Seite. Das heißt, wenn ihr besonders schlechte Werbung auf diesen Seiten platziert, dann sieht der Benutzer natürlich einerseits eure normalen Inhalte, andererseits die ganze schlechte Werbung und das macht vielleicht schwierig für Benutzer, eure Seiten weiter zu empfehlen. Aus unserer Sicht, wir sehen ja in der Regel, wir sehen ja auch nicht, und von dem her ist es natürlich egal, wie ihr das einbindet. Ich würde da wirklich eher auf Benutzer verhalten, ein bisschen achten und das so anschauen. Die Startseite einer Domain ranked beim wichtigsten Keyword überhaupt nicht. Das Keyword ist um Domainnamen enthalten. In Text geht es eindeutig um diesen Begriff und auf den meisten Backlinks aber eine durch die interne Verlinkung viel schwächere Unterseite bei diesem Begriff. Woran könnte es liegen? Was kann man da machen? Schwierig zu sagen, ohne die Seite wirklich zu sehen, aber was ich schon ab und zu gesehen habe, ist, dass man das ein bisschen übertreibt mit der Startseite in manchen Fällen und das da schon ein bisschen Richtung Keyword das Ganze dann hingeht. Das heißt, gerade wenn du schon erwähnst die Startseite, das Keyword ist um Domainnamen enthalten in Text geht es eindeutig um diesen Begriff. Dann klingt das schon ein bisschen so als ob da alles in Richtung Keyword Staffing gilt, das heißt, dass die Startseite wirklich übertrieben für diese Wörter optimiert ist und dementsprechend kann es schon sein, dass unsere Algorithmen das anschauen ist, dass es irgendwie komisch aussieht. Wir wissen nicht genau wie wir diese Seite in den Suchergebnissen zeigen sollen. Auf jeden Fall scheint es sich nicht natürlich um diese Keyword zu halten, sondern etwas ist da speziell, da müssen wir ein bisschen vorsichtiger sein. Was ich schon gesehen habe, ist das Websites, das so mal angenommen haben und dann einfach die Startseite ein bisschen weniger optimiert haben für diese Keywords. Vielleicht nicht in jedem Link nochmal das Keyword dazugenommen und im Futter irgendwie zigmal erwähnt, sondern ein bisschen natürlicher die Texte und die Inhalte gestaltet haben und das Ranking dann sich auch ein bisschen verbessert haben. Das heißt, ohne eure Seiten jetzt zu kennen, würde ich jetzt mal in diese Richtung tippen. Wenn das aus eurer Sicht wirklich nicht der Fall ist, dann würde ich vielleicht auch mal im Webmaster-Hilfe-Forum das posten und mal schauen, was die anderen dazu machen. Manchmal ist es ja so, dass man selber die Seite anschaut, das ist nicht Keywords dafür hin, das habe ich ja nur 200 Mal erwähnt, das Wort da und andere gucken das an und sagen, was, das ist hier viel zu häufig und dann kann man mit diesem Feedback vielleicht auch mal zumindest mal versuchen. Wir wollen unsere Variere HR-Bereich umbauen und die Stellenanzeigen nach Standorten fliedern. Wir haben aber einige Stellen, die zu 80% identisch an all unseren drei Standorten ausgeschrieben werden. Siehst du die Gefahr von Double-Pick-Content und für ein Jahr ist der Canonical-Tact die sinnvolle Variante, dem entgegenzuwerten oder kann das Google gut unterscheiden, dass dreimal Junior Software Developer an drei Standorten wird und werdet das nicht, dass Google kann. Ich sehe da kein Problem. Ich denke, das kann man durchaus so gestalten, dass man da dreimal das Gleiche an verschiedenen Standorten hat. Wir sehen ja auch die Adresse auf diesen Seiten und können das an und für sich gut unterscheiden. Ich denke, da würde ich jetzt nicht spezielles machen. In einem Webmaster-Hangart war die Empfehlung, Parametrie die jubel zu kanonisieren, damit der Link-Juice nicht geschnitten wird. Was kann man tun, damit Google diese URLs nicht indexieren. Normalerweise sollte Google diese URLs nicht indexieren, sondern nur den Canonical liegt der Grund, vielleicht darin, dass der Canonical nicht passend ist oder auf die domain unterschiedliche Angaben aufgefunden werden. Ja, könnte sein, dass wir da einfach unterschiedliche Informationen haben zu diesen URLs und dann dass wir deswegen vielleicht eine andere URL aussuchen. Es kann natürlich auch einfach sein, dass wir diese URLs noch nicht neu verarbeitet haben. Das heißt, gerade wenn du diese Canonicalisierung jetzt neu gemacht hast seit einigen Wochen, kann es natürlich sein, dass diese URLs nur alle paar Monate neu gekraut werden, gerade wenn das tiefere URLs in der Website sind, dauert das manchmal ein paar Monate bis wir die neu verarbeiten und erst dann wird das jeweils verarbeitet. Und das ist normalerweise nicht etwas, was man irgendwie forcieren muss. Wenn wir die nicht so häufig kreieren, dann sind die auch nicht so kritisch aus unserer Sicht, dann ist da mit dem Canonical auch nicht so wahnsinnig viel herauszuholen. Aber wenn man jetzt seine Site-Abfrage macht oder mit der URL solche URLs gezielt sucht, kann es natürlich sein, dass man sie immer noch so finden könnte. Von dem her denke ich, die Einrichtung stimmt soweit, dass man mit dem URL Canonical dort arbeitet oder dass man mit dem URL-Parameter Handling Tool arbeitet und dann ist es wahrscheinlich eher einfach eine Frage der Zeit, bis wir das sauber auch verarbeitet haben. Wie viele Links sind auf einer Seite zu viel? Wir haben ein Online-Shop mit Mega-Menu und 400 Links plus nochmal 150 Links auf Produktzeiten zu Varianten. Ist das ein Problem? An und für sich ist das weniger problematisch. Gerade bei solchen Menus erkennen wir das sehr schnell als boilerplate-Inhalt. Das heißt, wir sehen relativ häufig, dass solche Inhalte sich vermehrt auf einer Website hinten und dass wir uns vielleicht eher auf die Hauptinhalte konzentrieren können. Von dem her sehe ich da eigentlich nicht so ein großes Problem. Zumindest vom technischen her ist es durchaus so, dass wir da tausende Links auf einer Seite problemlos verarbeiten können und das problemlos auch weiterverfolgen können. Von dem her würde ich mir da nicht allzu viel Sorgen machen. Aber wenn er in Richtung usability schauen und überlegen, ob das so weit klappt, ob das gut geht mit diesem Riesenmenu mit Links zu allen Varianten oder ob es vielleicht andere Varianten gibt, die von usability her vielleicht ein bisschen besser wären. Aber vom SEO her zumindest aus Google-Sicht sehe ich mit der Menge Links innerhalb der Website eigentlich keine Probleme. Eine Frage dazu. Empfiehlst du, dass die Boilerplate dann auf jeder Seite gleich ist? Also die Navigation oder kann die Navigation dann auch zum Beispiel wenn du jetzt in eine Unterkategorie reingehst, dass die sich nochmal öffnet? Das wäre dann eine andere Navigation. Google würde ja dann wiederum eine andere Naviation erkennen. Würdest du das grundsätzlich nicht empfehlen, so anzugehen und dass die Navigation auf jeder Seite gleich ist? Das gibt beides. Wir können vom Boilerplate das auch trotzdem erkennen auch wenn sich das Live anpasst das ja häufig auch der Fall zum Beispiel mit diesen Sidebar-Links wo ein Teil dann gleich ist und ein Teil wechselt sich dann jedes Mal aus. Man quasi neue Inhalte hat, die verlinkt werden so und das anfühlt sich total normal. Okay. Könntest du noch die Frage davor beantworten weil du hast jetzt irgendwie den Canonicals weil ich hatte da noch eine zusätzliche Frage gehabt. Okay. Das ging schnell. Ob im Mobile First Index sich irgendetwas an Canonical Prüfung geändert hat? Nein. Das hat sich eigentlich nicht zu ändern. Über 2000 Canonicals nicht kanonisiert. Inhaltlich nicht gleich, aber gleiche Suchintention. Eigentlich mit Mobile First Indexing hat sich da mit der Canonicalisierung nichts verändert. Sollte eigentlich alles gleich sein. Ihr habt ja glaube ich auch responsive URLs, oder? Dass ihr die gleichen URLs habt für Mobile and Desktop, oder? Ja genau, ist das gleiche. Aber irgendwie seit dieser Umstellung sinkt halt diese alternative Seite gefunden in der Search Console immer weiter runter. Also 2000 sind jetzt fast weg irgendwie weiß ich nicht. Also ich hab halt diese Varianten kanonisiert auf die Hauptprodukte und hatte gehabt im August, aber jetzt irgendwie seit September ist wieder, sinkt wieder alles irgendwie. Du hast ja auch gesagt, dass sich das immer mit der Zeit ändern kann, aber Ja, auf jeden Fall mit Mobile First Indexing sollte das nichts zu tun haben. Ich vermute, dass die mobile Version ist ja die gleiche, oder? Wenn ihr responsive Design habt ist zumindest auch vom html her gibt es ja dann keinen Grund, dass man die anders behandeln sollte. Aber unsere Algorithmen bewerten solche Sachen im Laufe der Zeit eigentlich immer wieder neu. Und das ist wahrscheinlich auch eine normale Anpassung, die wir da vornehmen mit der Indexierung. Also ich versuche durch die Canonicals irgendwie diesen Link-Juice zu retten. Da du ja schon vorher gesagt hast, dann lieber auf die Qualität achten. Denke ich noch, probiere ich doch noch mal die No-Index-Variante aus. Okay. Mal schauen, da im Chat ist noch eine lange Frage. Wir haben sehr viele Seiten indexiert. Wir prüfen das Ranking dieser Seiten monatlich ab. Für einzelne Suchabfragen schwankt unser Ranking zwischen den Monaten sehr stark. Aber fällt uns schwer, die relevanten Seiten zu identifizieren und den Content-Fokussierter Google zu konzentrieren. Wir haben dynamische Ergebnisse für Millionen von Anzeigen. Ja. Rankingschwankungen sind auch für sich normal. Da habe ich keine Zauberantwort, wie man das vermeiden kann. Manchmal ist es natürlich auch so, gerade wenn man das Ranking selber kontrolliert, dass ihr etwas kontrolliert, was vielleicht nicht so wahnsinnig relevant ist für normale Benutzer. Wenn normale Benutzer es so nicht suchen, dann stört das bei normalen Benutzer auch nicht, ob das Ranking jetzt ein bisschen hoch oder runter geht. Aber in der Regel sind Schwankungen im Ranking eigentlich normal. Wir passen ja unsere Algorithmen regelmäßig an. Das Internet verändert sich die ganze Zeit und man kann es durchaus sein, dass das Ranking hoch und runter geht. Gerade wenn man viele Seiten hat, kann das so vorkommen. Siehst du, als schwerwiegendes Problem für den Google Crawler, wenn URLs als No-Index gekennzeichnet sind, unabsichtlich in der Seitenarbeit halten sind? Oder ist das eher ein kosmetisches Problem? Ja, das ist eher ein kosmetisches Problem. Aus unserer Sicht sieht das ein bisschen komisch aus, wenn man sagt, die URLs wollte indexieren, aber ihr wollt sie doch nicht indexieren mit dem No-Index. Und deswegen melden wir das in Search Console, aber das ist nicht etwas, das einen Einfluss auf den Rest der Website haben würde. Was wären die Themen, worauf man sich für 2019 im SEO-Bereich fokussieren sollte? Das gibt wahrscheinlich ein eigenes Hangout, das wir mal machen könnten. Ich denke, so auf die Kürze habe ich da jetzt nichts, was ich so zusammenfassen könnte. Wie bekomme ich die HTTPS-Version einer Website in den Google News Publisher Center, wenn vorher die HTTPS-Version angemeldet war? Weiß ich nicht, wie das ein News Publisher Center gehandhabt wird. Müssten wir beim News Team mal nachfragen. Wir pangen ein Experiment um hochwertigen Content im Gesundheitsbereich, grob umrissen verschiedene englische Quellen, maschinell verstehen, übersetzen, aggregieren, neu miteinander zu verknüpfen und dann redaktionell überarbeiten. Falls das Experiment gelingt, möchten wir die Texte auf Google indexiert haben. Wir würden darauf Hinweisen, welche Quellen genutzt werden. Das ist ein Duplicate Content oder was muss man machen? Grundsätzlich, wenn Inhalt übersetzt werden, ist das nicht Duplicate Content für uns, weil das sind ja andere Texte. Aber ich wäre da ein bisschen vorsichtig, wenn man jetzt versucht, viele Inhalte automatisch neu zu verarbeiten, neu zu kombinieren und daraus zu hoffen, gerade medizinisch bereit, dann hat High Quality Content angeschaut. Genau, das ist meine Frage gewesen, John. Genau das habe ich den Leuten, die diese Idee hatten, auch gesagt. Aber das ist genau der Punkt. Ich werde das begleiten und schauen, ob das wirklich hochfertig ist. Also es geht mir prinzipiell um zwei Dinge. Einmal, es geht darum, dass die Referenzen klar sind, dass das kein Content-Claw sein soll. Und dass es auch wirklich auch hochfertig ist. Ist es hochfertig oder nicht, ist eine extrem objektive Geschichte von daher. Ich würde es gerne als Experiment mal machen. Aber mir ist ein bisschen unwohl dabei. Jetzt stellen wir das online und schauen mal, was passiert. Das ist ein Bereich von unserer Firma, der ganz klein ist. Das ist ein Testbereich, aber der könnte alles andere kaputt machen. Von daher möchte ich lieber als zehnmal vorsichtig sein. Ich denke, das ist der richtige Ansatz. Einfach das vorsichtig anschauen und erst mal genau überprüfen, ob das wirklich etwas produziert, was wir getan haben wollen. Die Idee ist wirklich, das wäre Content, dass wenn man nicht im Fach ist und nicht perfekt eng gespricht, würde man diesen Content keinen Zugang zu diesem Content. Auch mit Google Translate und so weiter, eine hohe Qualität. Aber im Endeffekt hätte man diesen Zugang nicht so aufbereitet. Das ist der Mehrwert, den man bieten möchte. Man kann es mal ausprobieren. Mal schauen, ob man da etwas Gutes hinkriegt. Ich würde es nicht ganz ausschließen. Dann schaue ich mir Qualität mal an und sie Zitate reinzubringen, dass sie Quellen anzugeben. Das ist eine gute Sache. Danke schön. Ich muss leider los. Vielen Dank fürs Kommen. Vielen Dank für die vielen Fragen. Wenn noch weitere Sachen aufkommen, seid ihr gerne dazu eingeladen, beim nächsten Hangout mitzumachen und warum die einzustellen. Dann wünsche ich euch noch einen schönen Tag und bis zum nächsten Mal. Tschüss.