 OK, herzlich willkommen. Bei den heutigen Webmaster-Central-Sprechstunden-Hangouts. Mein Name ist Johannes Müller. Ich bin Webmaster Trends Analyst bei Google hier in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster-Hangouts, wo Webmaster und Publisher kommen können und Fragen stellen können, alles rund um die Websuche. Es sind ja einige von euch jetzt hier. Wir hatten gleich einen kleinen Fehler im Kalender drin, aber das sollte jetzt wieder OK sein. Wenn einer von euch anfangen möchte, zeige ich dir gerne dazu eingeladen. Ja, ich hatte direkt eine Frage. OK, es geht um die letzte Webmaster-Sprechstunden-English, was mich ein bisschen verwirrt hat, dass du gesagt hast, dass aus dem No-Index auch manchmal jetzt nicht unbedingt ein No-Follow auf eurer Seite wird. Zum Beispiel, wenn jetzt noch immer sehr, sehr viele Links auf diese No-Index-Seite zeigen, dann würde Google trotzdem noch immer den Links auf der Seite folgen. Gibt es denn dafür irgendwie eine Beschreibung? Also, weil ich bin davon ausgegangen, dass automatisch irgendwann No-Follow, auch selbst auf höheren Kategorie-Seiten, dass Google automatisch No-Follow macht. Ja, es ist kompliziert, dass ich denke, was einfach teilweise passiert ist, wenn man No-Index sehen, dann versuchen wir die Seite aus dem Index herauszunehmen. Wenn wir sehen, dass die Seite aber sehr stark verlängt ist intern, dann schauen wir die Seite natürlich noch mal schnell an und dann irgendwann im nächsten Moment holen wir sie wieder rein in den Index und sehen die Links dann wieder, die da sind. Und dann erst im späteren Moment wird dann diese No-Index wieder verarbeitet. Und es wird wieder alles aus dem Index herausgenommen. Das heißt, sichtbar in den Zufallgebnissen ist das natürlich nicht mit dem No-Index, aber wir haben die Daten einfach bei uns im System irgendwo. Das heißt, bezüglich dem No-Follow auf diesen Links ist es nicht so, dass man sich darauf verlassen kann, dass die immer dabei sind. Das heißt, dass wir diesen Links immer folgen können, weil es kann sein, dass wir diesen Seiten aus dem Index ganz rausnehmen. Es kann aber auch genauso gut sein, dass wir diese Links weiterverfolgen im ersten Moment. Das heißt, wenn du willst, dass diese Links wirklich nie verwendet werden, würde ich einfach den No-Follow nehmen auf den Seiten. Wenn es für dich nicht so kritisch ist, dann würde ich das einfach mit No-Index lassen, sodass das aus dem Index herausfällt, aber dann trotzdem gebraucht werden kann, wenn das notwendig wird. Also kann ich davon ausgehen, dass Seiten so im hinteren Bereich von der Web-Seite dann irgendwann ein No-Follow bekommen, aber jetzt in den Kategorien, wenn 10.000 Links draufgehen, dass das immer wieder verarbeitet wird. Also so habe ich das jetzt verstanden. Genau. Okay, alles klar. Ja, alles klar ist wahrscheinlich ein bisschen übertrieben da, aber im Grunde genommen ist es einfach so, dass wenn wir in No-Index sehen, dann denken wir, zumindest längerfristig sehen wir das an und sagen, gut, wahrscheinlich müssen wir diese Seiten gar nicht erst verarbeiten, wenn sie gar nicht in den Suchergebnissen erscheinen sollen. Und dann ist einfach dieser Zeitbereich zwischen dem Moment, wo wir die Seite gesehen haben, Teil davon verarbeitet haben und wo wir sie dann ganz rausgenommen haben aus dem Index. Das ist dann einfach das, was ein bisschen, sag ich mal, unsicher ist, wie das verarbeitet wird. Vom Endbenutzer her ist das natürlich eindeutig. Das heißt, wenn in No-Index da ist, zeigen wir das nicht in den Suchergebnissen. Das ist einfach die Frage, wie die Inhalte dort verarbeitet werden, ob sie erst noch gespeichert werden oder nicht. Das ist meistens eher eine Frage von, wie Google das intern verarbeitet. Aber wenn man natürlich sehr stark auf diese Links achtet, die auf diesen Seiten sind, dann will man natürlich ein bisschen genauer wissen, was passiert da eigentlich. John, das Thema hast du ja auch schon öfters beantwortet. Es besteht ja immer noch sehr große Verwirrungen, was die Paginierung angeht von Seiten. Ich muss sagen, ich mache das ja selten ein paar Jahren. Ich bin tatsächlich jetzt auch immer noch immer weiter verunsichert, was die beste Lösung ist. Zum Beispiel, ich habe ja verschiedene Zeitungskunden und die haben meinfängende Seite, eine Themenseite über FC Bayern München. Es gibt tausend Artikel über FC Bayern München und die sind eben auf paginierten Seiten. Der Nutzer blättert sich vielleicht mal durch. Aber natürlich möchte ich nicht, die Themenseite paginierte Version 38 im Google-Index haben. Darum hat man das bisher ja immer so genannt, mit noindex.follow. Aber jetzt das, was ihr seit einem halben Jahr jetzt sagt, auch was du eben gesagt hast, sagt einfach, das ist einfach Quatsch. Das ist nicht die richtige Anrat, weil die Seiten, die auf dieser Seite 38 wird eh nicht von euch verarbeitet und den Links wird eh nicht gefolgt. Das heißt, wir können es uns sparen eigentlich, oder? Ja, ich denke, er hat einen gewissen Moment, lohnt es sich oder muss man einfach davon ausgeben, dass die Seiten nicht weiter verfolgt werden? Und was ist das denn dann, oder gibt es offiziell tatsächlich da mal ein Statement, Dokumentation dazu, wenn ich 10.000 Artikel habe, ich möchte die alle noch verlinkt wissen irgendwo, und zwar mache ich das ja in der Art Archiv oder Themenseiten Paginierung oder sowas. Was ist denn der offizielle Ansatz, wie man das am besten macht, sodass der Google-Bot die ab und zu noch mal, den Links noch ab und zu mal followed? Wichtig ist einfach, dass wir diese Links finden können irgendwo. Das heißt, bei längeren Kategorienseiten, wenn die Inhalte wirklich nur über diese Seiten verlinkt sind, dann muss man die halt indexiert lassen. Was wir normalerweise auch empfehlen, ist, dass man eine Art Querverlinkung macht, dass wir auf jeden Fall auch von einem Artikel, dann die anderen Verwandten Artikel auch irgendwie finden können. So ist es dann weniger kritisch, wie tief das wirklich verlinkt wird. Das hört sich eine Theorie sehr schön an. Jetzt habe ich aber nicht 10.000 Artikel, sondern ich habe eine Million Artikel bei Zeitungskunden. Und ich kann nicht sagen, dass jeder Artikel absolut in der Querverlinkung verlinkt ist, weil es gibt auch noch andere Anforderungen, zum Beispiel natürlich Aktualität oder die Redakteure wollen spezielle Artikel verlinken. Das heißt, die Wahrscheinlichkeit, dass viele Artikel überhaupt nicht verlinkt sind, auch nicht querverlinkt sind, ist sehr groß, wenn ich nicht das schematisch mache. Und alle schematischen Paginierung und Archivierung, die wir bisher so gemacht haben, wurden ja auch von dir in dieser Form negiert, im Sinne von, das macht alles keinen Sinn. Wenn das wirklich so sein ist, dass diese Artikel nur über die Paginierung indexiert sind, dann müsste man die Paginierung auch indexieren lassen. Okay, aber das ist auch wiederum doof, weil dann ist es tatsächlich dann Themenseite slash fcbayern slash 38 im Google Index. Ja, wobei diese Seiten werden natürlich selten dargestellten Suchergebnissen. Ich müsste das vielleicht mal genauer untersuchen, aber grundsätzlich ist es ja so, diese Seiten sind zurecht weit unten verlinkt innerhalb der Website und vom Inhalt her ist es ja so, dass die Detailseiten eigentlich die klareren, klarer fokussierten Seiten sind. Das heißt, wenn jemand nach diesem Spiel sucht, was damals stattgefunden hat, dann ist die Wahrscheinlichkeit eigentlich recht groß, dass wir die Detailseite zu diesem Spiel zeigen würden und nicht irgendwie die Kategorienseite auf Seite 700 oder so. Wenn sie denn verlinkt ist, das Spiel von 1983, welches wir haben, was vielleicht historisch Interessant ist, aber eben die ist es eben nicht garantiert, dass die verlinkt ist. Aber die ist ja dann von der Kategorienseite, Spreckenwurf, auf der Paginierten Version irgendwo verlinkt. Ja, das heißt also, der Ansatz wäre tatsächlich, ich habe FC Bayern-Themen-Archiv zu FC Bayern, es sind 100 Seiten Paginiert, die an sich nicht so wahnsinnig viel Wert haben. Das weiß ich natürlich. Und dann rat, es ist auf Du-Index, auf Du-Follow und lasst den Googlebot durchcronen und in dem Sinne sollen wir, also natürlich hat man die nicht, die sind ja irgendwie duplikat und die haben keinen hohen Mehrwert, Canonical schließen können wir nicht nutzen, No-Index können wir nicht nutzen, Rel-Pref und Rel-Next nutzen wir auch nicht mehr. Das heißt also, gib ihm Googlebot rein, indiziere alle 100 Seiten von FC Bayern, die haben ja auch ein paar verschiedene Themenseiten und das ist der einzige Weg zur Zeit. Wir können nicht irgendwie sagen, bitte crawlen und den Links folgen, aber nicht unbedingt im Indes zeigen, weil wir haben ja dann, wir haben ja zu dem Thema dann hunderte verschiedene Themen und 10.000 verschiedene Themenseiten, die wir eigentlich gar nicht drin haben wollen, weil es die Paginiert-Seiten sind. Ja, ich meine, das Seitenabdatei hilft natürlich auch ein bisschen, aber das bringt natürlich nicht wahnsinnig viel Kontext noch dazu, aber gerade für Detail-Seiten, die sonst neben 2 verlinkt sind, ist es an und für sich schon auch eine Variante, dass wir die Seiten so zumindest finden. Aber du hast recht, wir sollten das schon ein bisschen besser dokumentieren, beziehungsweise mal auch ein bisschen genauer untersuchen. Für e-commerce-Seiten sind wir dran, da ein bisschen was zusammenzustellen, weil das ist ja auch ein ähnliches Problem, dass man viele Artikel hat in einer Kategorie und man möchte die irgendwie verlinken und man kann nicht nur über die Querverlinkung gehen, sondern man muss irgendwie die auch zur Verfügung stellen. Das ist ja eine Art HTML-Seiten-App, die man einfach gerne noch beiseite legt, ne? Genau, an und für sich. Richtig oldschool, wenn man so anschaut, ja. Nur halt mit 100.000 URLs da drunter. Ja, genau. Ich habe noch was und zwar im letzten englischen Hangout auch jemand, der gefragt hat, beziehungsweise, der da irgendwie einen Link zuschicken wollte, wo es Seiten gibt, die die Navigation rausnehmen. Also, dass es nur Inhalts-Seiten gibt, ohne Navigation und du hast davon gesprochen, dass es keine Usability mehr gibt. Also zu diesen Seiten, ich habe ja auch Seiten, die ich nur mit einer Side-Map irgendwie liste und die ranken irgendwie komischerweise auch. Das sind PDF-Dateien, da suchen vielleicht keine Ahnung, zehn Leute im Jahr danach oder so, aber es funktioniert. Was hat das denn ergeben mit dieser Navigation? Also, hast du dir das angeschaut? Ich habe immer Spam-Technik. Ich habe große weiteren Informationen da gekriegt. Aber ich kann mir nicht vorstellen, dass das ein brauchbarer Spam-Technik ist. Weil, wenn wir keine Navigation haben, dann können wir den Rest der Website gar nicht richtig crawlen. Von dem her, zumindest aus praktischen Gründen, sehe ich das ein bisschen nicht so wahnsinnig nützlich. Gerade bei PDF-Dateien ist es natürlich ein bisschen anders. Da hat man ja keine Navigation eigentlich dabei. Die sind dann irgendwo verlinkt, vielleicht auch in der Side-Map-Datei, vielleicht sonst wo, in dem Archiv oder in der Teilenbereich, innerhalb der Website, aber die haben ja keine weiteren Navigation. Und gerade für solche Seiten müssen wir natürlich schon schauen, dass wir die irgendwie speziell behandeln. Gerade bei PDF-Dateien ist ja auch ein großes Problem, dass die manchmal einfach sehr lang sind, dass man da hunderte Seiten hat. Und man muss das ja dann irgendwie vergleichbar behandeln wie eine HTML-Seite und herausfinden, was sind da die relevanten Teile von dieser langen Datei und wie kann man das indexieren? Wie kann man das in den Ranking zeigen? Ich denke, das ist ein sehr spezielles Problem. Aber gerade bei normalen HTML-Seiten, wenn man die einfach nirgendwo verlinkt und hofft, dass so die Website irgendwie in den Suchergebnissen gut erscheint, kann sein, dass man für viele Links zu einzelnen Seiten bekommt in solchen Fällen. Aber wir crawl natürlich diese Seite und kommen von dort aus nicht weiter. Das heißt, man baut vielleicht Links auch zu diesen Seiten irgendwie. Wir finden die, aber wir können diesen Wert dieser Links nicht auf den Rest der Website verteilen. Und das ist eigentlich das, was aus meiner Sicht ist es ja wie verschenkter Wert. Da kann man den Rest der Website gar nicht einrichten, dass es davon profitiert, dass einzelne Seiten schon vielleicht sehr gut sehen oder sehr gut dastehen. Und bei No Index wird, wenn es jetzt zu dieser, also wenn ihr trotzdem den Links folgt, dann würde der Patch-Rang trotzdem weitergegeben werden. Genau, ja. Okay, okay, alles klar. Ja, ich probiere jetzt auch gerade wieder No Index aus, weil Kanonicles haben auf unseren paginierten Seiten nicht so gut funktioniert. Und jetzt switch ich doch wieder nach No Index. Ja, wobei, ich würde mir da vielleicht auch wirklich überlegen, macht es vielleicht Sinn, dass man die Seiten trotzdem einfach normal indexieren lässt oder ob es da eine Variante gibt. Je nachdem, wie das bei dir eingerichtet ist, wäre das hier vielleicht auch eine Variante. Dazu vielleicht noch eine Folgefrage. Wenn man, also ich möchte möglichst wenig von diesen paginierten Seiten drin haben, Archivseiten. Was ist, gibt es in offiziellen Aussagen von Google, wie viele Links denn drauf sein dürfen auf einer Seite? Wir hatten früher mal eine Aussage, ich glaube, das waren 1000 Links, aber das war eher ein technisches Problem auf unserer Seite. Und ich glaube, aus meiner Sicht ist das behoben. Das heißt, wir haben nicht wirklich eine Begrenzung für die Anzahl Links auf einer Seite. Aus praktischen Gründen ist es natürlich so, dass wenn wir, sagen wir mal, 100.000 Links auf einer Seite sehen, dann ist es sehr schwierig, diesen Page-Rank, der auf dieser Seite ist, über 100.000 Links zu verteilen. Von dem her weiß ich nicht, ob man da aus praktischen Gründen irgendwo eine Grenze ziehen möchte. Aber theoretisch können wir da schon recht viele Links verarbeiten. Das ist also eher ein Geschwindigkeitsproblem. Wenn ich 10.000 Links auf eine UL lege, dann ist die Seite auch sehr schwer, oder? Muss nicht unbedingt sein, muss nicht unbedingt sein. Aber ich denke auch, auch eine Frage, wie wir die Geschwindigkeit anschauen von diesen Seiten. Meistens ist es ja so, dass wir ein Mix von theoretischen Werten, die wir in Vavor quasi erstellen, an praktischen Werten, die wir direkt von Benutzern sehen. Und wenn Benutzern nie auf diese paginierten Seiten gehen, dann ist es eigentlich irrelevant, ob die sehr große Seiten sehen. Das heißt also, das wäre ein Ansatz für diese Paginierung. Man könnte auf diesen archivartigen Seiten sagen, könnte eher auf den Seiten sagen. Also wenn es nur darum geht, nicht den Kontext mitzugeben, sondern tatsächlich, wir wollen, dass die irgendwo verlinkt sind, wie du eben gesagt hast, in Shops auch. Wenn ihr sagen würdet, es ist okay vom Speed her, oder von der Performance des Crawlers und des Parsers her, 10.000 Links auf so eine Seite zu legen, dann würde es viele Probleme beheben. Ich hätte dann ein bisschen Sorge, ich hatte eben Kunden zu sagen, kein Problem, 10.000 FC Bayern Artikel auf einer Archivseite, kein Problem, macht das mal. Dann wäre die ganze chronologische, das könnten der letzten drei Jahre mit FC Bayern Artikel auf einer Seite darstellen, das wäre prima, auf jeden Fall Nutzer übrigens auch, können wir oben die Nennsverzeichnisse reinbauen und sagen, nach Jahren, das wäre also ein Archiv auf einer Seite, das wäre prima, nur ich habe mich bisher nicht getrauten können, so was zu sagen, weil es hieß früher eigentlich eher so 300 Links auf einer Seite. Ja, also ich glaube früher, ja, ich glaube, wir hatten einigen eine, eine Grenze aus Qualitätsgründen, wo wir gesagt haben, 100 oder 300, äh, so etwas und aus praktischen Gründen irgendwie bis maximal 1.000, aber die beiden sind eigentlich jetzt behoben. Ich weiß nicht, wie das jetzt performen würde, so etwas, aber... Okay, könnt ihr das mal testen? Ich schaue das mal rein, ja. Es würde vielen Leuten, glaube ich, sehr viel erleichtern, also in meinem Fall wäre das fantastisch, ne? Ich glaube auch für den Nutzer wäre das prima. Ja. Das, ja, ja. Gute Idee. Gut, dann kommen wir nochmal noch zurück und dann kann ich diese Seite bauen mit dem liebsten, deinem Linksverein und der Historie von 10.000 Artikeln auf einer Seite. Okay, okay, cool, ja, cool, okay. Schauen wir mal an, was da alles reingekommen ist an Fragen noch. Wir haben ein Problem mit Subdomain-Sprachen-canonical. Unser Schweizer Website bietet vier Sprachen an, die jeweils auf einer Subdomain laufen. Aktuell wählt Google bei der französischen Subdomain fälschlicherweise die Deutsche Eurowas-canonical. Im Quellcode zeigt der Canonical richtig auf die französische Eurowas, ebenfalls sind die Side-Maps für die jeweilige Sprache korrekt mit hrflang. Was könnte da falsch sein? Ich müsste die Eurowas dort mal anschauen können. Das heißt, wenn du mir das zuschicken kannst, kannst du mir einfach per Twitter direkt zuschicken, dann kann ich das hier mal kontrollieren und schauen, was da passiert ist. Ich habe die dies für mich die Frage. Okay, super. Sonst kopier doch einfach den Link mal in den Chat hier hinein, dann kann ich den nachher mal anschauen. Okay, alles klar mache ich. Super, weil was ich mal, was ich ab und zu sehe, ist eine Vermischung von der gleichen Sprache für verschiedene Länder. Das ist manchmal ein Problem, wenn die Inhalte wirklich identisch sind, dann denkt man gut, wir helfen dir und klappen die zusammen. Aber über zwei verschiedene Sprachen sollte das eigentlich nicht passieren. Wir haben technisch exakt das gleiche Setup für italienisch und für englisch. Funktioniert einwandfrei und es ist wirklich, es ist auch zeitgleich aufgetreten. Das Problem, als jedes Problem, als ihr gepostet hattet, am 24. und wund 20. April. Mit das war auch Canonica, das war ja auch ein bisschen mit. Das Problem habe ich gelesen und wirklich seitdem ist es zack und die Seiten, die viel gecrawlt werden, so mittlerweile alle aus dem Index raus, sondern es ist auch unabhängig davon, ob es in der Seite ist, wie es technisch gebaut ist, vollkommen durch die Bank, jetzt einfach nur die französische Sprache einfach raus. Okay, es gibt zwei Sachen, also ich kenne die Website jetzt noch, ich weiß nicht genau, ob das zutreffen würde, aber zwei Sachen, die man da vielleicht auch anschauen könnte, einerseits, ob da vielleicht technisch irgendwas ist, dass wir die Seiten nicht sauber rendern können, wenn die zum Beispiel mit JavaScript aufgebaut sind und nicht sauber von Googlebot dargestellt werden können, dann kann es sein, dass wir die denken, dass diese Seiten identisch sind, einfach aufgrund von dem, dass wir nur ein beschränkter Teil der Seite rendern können. Genau, das habe ich mir auch schon angeschaut. Also das ist tatsächlich, es ist nicht der Fall, also das HTML kommt genau so zurück, dass es schon französisch deutlich erkennbar ist, Canonik ist korrekt in dem Moment und also ich meine, vielleicht, die Seite kennt so viel sogar, weil man in Zürich darüber seine Wohnung sucht, kompar ist, dann ich schicke dir mal den Link, es weiß es wirklich, es ist komisch, weil es seit dem Tag passiert ist. Und ist das mit einem Sub-Dobain gemacht oder ist das mit einem Arametal? Ja, weiß ich nicht, müsste ich mal anschauen. Ja, also auf jeden Fall sollte das nicht mit dem Problem zusammenhängen, was wir da gemeldet haben auf Twitter, weil das, was wir da gesehen haben auf Twitter, war an für sich, dass da wirklich ganz themenfremde Seiten zusammengeklappt waren, oder als Canonical dargestellt waren, nicht dass quasi innerhalb einer Website, die zwei Seiten jetzt verknüpft waren, sondern dass quasi eben so ein Wohnungssucher-Website mit einem Musikgeschäft quasi verknüpft wird. Und da haben wir die Probleme gesehen, aber dass es innerhalb quasi einer Website ist, sollte eigentlich eher etwas anderes sein. Imthematisch passt nämlich alles, es wird immer das deutsche Canonical genommen, weil wir haben ja alles Mögliche von Wohnungssuchern zu Autoversechserungen und 10.000 Dinge und es wird immer das deutsche Canonical genommen und auch ausgespielt, aber natürlich ist das, die deutsche Sprache rangt natürlich auf Französisch in dem Moment nicht und deshalb ist es, und die User, die jetzt zeigt mal, die einen Navigational-Searchs haben, die also nach komparables Mobilienmarkt suchen, die bekommen dann das Deutsch, also auch wenn sie auf Französisch suchen, bekommen das Deutsch der Ergebnis ausgespielt, ist auch eine sehr schlechte Use-Experience in dem Moment, das also von daher ist, wir haben sehr viel zu tun, dass bald den Fehler finden. Ich muss jetzt wieder rücken. Okay, super, ich schaue ich mir mal an. Bislang waren für Googlebot immer nur die Top-30-Treffer unserer Listen sichtbar. Jetzt haben wir eine Paginierung. Irgendwie ist das Thema heute das Thema. Die Top-90-Treffer unserer Listen zur Verfügung stellt. Aber die Treffer 31 bis 60 und 61 bis 90 sind auf No-Index gesetzt. Ist das jetzt quasi ein Problem oder nicht? Oder muss man Canonical arbeiten? Eben, wie wir an und für sich vorhin kurz angesprochen haben, am einfachsten ist es, wenn diese Seiten wirklich auf Artikelseiten zeigen in diesen paginierten Listen, die indexiert werden sollten, dann sollte man die Kanal mit die paginierten Seiten auch indexieren lassen. Oder zumindest dafür sorgen, dass diese Artikel untereinander saurotfähig verlinkt sind. Wenn das 90 Artikel sind auf diesen Seiten, dann kann man ja mit einem Crawler das selber einigermaßen testen. Man sieht mal relativ schnell, ob diese Artikel nur über die Paginierung aufhindbar sind oder ob die auch sonst innerhalb der Website irgendwie verlinkt sind. Wenn sie innerhalb der Website irgendwie verlinkt sind, dann ist das mit der Paginierung weniger kritisch. Wenn sie wirklich nur über die Paginierung aufhindbar sind, dann würde ich schauen, dass die Paginierung auch auf Index ist, damit wir sicher sind, dass diese Seiten auch wirklich indexiert werden können. Dann noch eine knifflige Frage von David. Wenn man bei Google.de nach Gürtelwose sucht, dann stehen auf Position 1 bis 3 immer Websites quasi von Farmhouse Firmen. Kann man da als unabhängige Website irgendwie überhaupt noch konkurrenzieren gegen solche Firmen? Ist das einfach richtig zusammengefasst? Ja, man sieht, es ist ja nach dem EAT Update August 2018 und jetzt nach dem March 2019 Update nochmal die Qualitätsschrauben angedreht worden, warum auch immer. Und tatsächlich, wenn man mal sucht, kannst du ja auch mal gucken, man sieht einfach sehr, sehr viele Treffer auf den Top 10, die keine Werbung haben. Was Schönes für den Nutzer irgendwie, wenn es denn neutraler Content ist, ich sehe sehr, sehr viel Farmer. Also auch ein sehr guter Suchbegriff, wenn man das mal berühmen möchte in Google.de, ist Reiz Husten. Da ist es tatsächlich so bei Reiz Husten, dass neun von zehn irgendwelche Medikamente sind, die vorne sind, Gehlerie Voice und Monopax Bronchikum. Das ist also die Apotheke, es steht da quasi. Und mich als Nutzer stört das, weil das habe ich nicht erwartet. Wenn ich nach Reiz Husten suche, suche ich nicht nach neun Medikamenten, die da stehen. Und es ist so, die haben zum Teil gute Seiten, absolut, die haben gute Seiten, die haben halt keine Werbung drauf, die sind sehr spezialisiert, die haben eine andere Finanzierung. Die Seiten sind, weil keine Werbung drauf ist, sehr übersichtlich, die sind sehr schnell. Und ich fürchte so ein bisschen, dass man da als ne Firma die bekloppte Werbung drauf schalten möchte. Und da muss, das sind wir uns alle einig, dass es nicht schön ist, aber es nur mal notwendig, um so was zu finanzieren, da einfach keine Chance mehr haben. Ich kann Dutzende von Beispielen zeigen, wo das so ist. Das ist sehr, sehr krass zur Zeit. Suche mal einfach nach Reiz Husten auf Google.de, das ist ganz krass. Ja, also ich finde, es gibt Vor- und Nachteile mit quasi diesem, ich weiß nicht, ich sage mal jetzt mal, wechselt er auf die, sagen wir mal, die Farmer, ich weiß nicht, dass nur die Farmer-Webseite sind, aber auch die... Nein, gar nicht nur, es sind Verwände, es sind so einfach Leute, die das anders finanzieren, Krankenkassen. Es sind aber nicht mehr die, was früher Content-Portale waren, ist jetzt die Werbe finanziert sind, sind jetzt einfach anders finanzierte Seiten, ganz stark drin. Farmer ist mir bei paar sehr negativ aufgefallen, weil es tatsächlich bereit zu ist, und wie gesagt, einfach acht von zehn oder so, sind einfach Medikamente auf Plätzen eins bis zehn. Und auch bei anderen, jetzt zum Beispiel bei Google-Rose, Impfen.de dreimal, also auf Platz eins, Platz zwei, Platz drei, und das wird von GSK finanziert, und das hat ja schon Geschmäckler auch. Ja. Ja, also ich würde sagen, aus unserer Sicht ist es auf jeden Fall nicht so, dass wir sagen, dass man da Niewerbungen haben darf, aber es ist natürlich schwierig, da eine Balance zu finden zwischen Seiten, wo man das Gefühl hat, den kann man vertrauen, dass da wirklich korrekte Informationen sind, und anderen Seiten, wo man nicht genau weiß, wer schreibt da wirklich die Artikel, wer es steckt dahinter, ist das jemand, der sich wirklich mit diesem Thema auskennt. Aber ich vermute, das sind auch Sachen, die werden sich im Laufe der Zeit ein bisschen heimpendeln, dass gerade bei, also ich weiß jetzt nicht, ob das jetzt zutrifft bei diesem genauen Thema, aber gerade bei größeren Updates, die wir machen, ist es oft so, dass wir erst mal das Update machen, und dann ein bisschen in diese Richtung gehen, und dann laufe der Zeit sehen wir, ah, eigentlich ist das jetzt zu viel in diese Richtung, wir müssen da vielleicht einen besseren Mittelweg finden, und das wird sich sicher da ein bisschen ein, hin und zurück schaukeln. Aber ich denke, solche Beispiele sind auf jeden Fall sehr praktisch für mich, weil wir sprechen ab und zu mit denjenigen, die an diesen Algorithmen arbeiten, und manchmal kriegen wir von denen auch recht gute Beispiele zu sehen, wo wir sehen, ja, das macht jetzt wirklich Sinn, diese Veränderung, aber wenn wir konkrete Beispiele haben, die wir zu ihnen bringen können, sagen können, zum Beispiel auf Deutsch, ist das jetzt eher ein Problem, weil das sind jetzt nur Pharma-Firmen, und die wollen ihre Medikamente verkaufen, und deswegen sind ihre Medikamenteninformationen quasi an erster Stelle auf ihren Seiten im Vergleich zu anderen Inhalten, die vielleicht ein bisschen, sag ich mal, neutraler sind, weil neutral ist immer ein Ansichtspunkt, aber die zumindest verschiedene Varianten anbieten, und sagen, man kann diese und diese Medikamente nehmen, oder man kann einfach eine Woche in dem Bett bleiben, und dann hat man das auch vorbei, dass man da irgendwie eine Balance finden muss. Gibt es schon ein Datum für eine, vielleicht Korrektur des March Updates? Also, habt ihr da, hört ihr schon was intern, wann das das nächstes Mal sich durchrütteln könnte? Ich weiß nicht, was wir da angeben können. Einerseits ist es schwierig, das um voraus zu sagen, weil das sich immer noch verändern kann, andererseits machen wir es eigentlich mit den meisten Updates nicht so, dass wir die Daten voraussagen. Ich hätte sein können, dass ihr sagt, ja, wir hören das schon, da kommt bald was, oder ich weiß nicht, es sind jetzt seit März, einfach drei Monate, März, April, Mai, ja, ne, zwei Monate, und wie, an welchem Zeitraum läuft noch mal so eine Korrektur ab, wenn es eine größere Korrektur ist? Also, viele Leute sagen ja in der Industrie, es gibt eine größere Korrektur, die nächstes noch, weil es einfach sehr, sehr stark gerappelt hat im März. Und das, was du sagst, bestätigt das ja. Die Frage ist nur, wie lange dort so eine Korrektur normalerweise, Korrektur schleifen? Weiß ich nicht, weiß ich nicht. Kann ich schlecht sagen. Okay. Ja, also, eben einerseits sagen wir das normalerweise nicht, andererseits ist es auch so, dass, ich habe schon so viele Schwelle gesehen, wo ich gewusst habe, morgen wird das geluncht, und dann ist es ein Monat später erst passiert. Und da sage ich auf meiner Seite auch lieber nichts, auch wenn ich wüsste, ob das jetzt morgen kommt oder nicht. Egal, kein Problem. Tatsächlich die, aber noch mal zu dem Thema Werbung. Also, die Seiten, die ranken, tatsächlich haben einfach sehr oft keine Werbung drauf und sind schnell und leicht und gut strukturiert. Gute Seiten zum Teil, man weiß halt nicht genau, was ist die Intention dahinter, warum schreibt diese Pharma-Firma hier über Impfen. Na gut, man weiß natürlich schon, warum die Pharma für über Impfen schreibt. Das ist schon sehr, sehr eindeutig, wenn GSK-Global, wie heißt die, Smith-Glicks, da über Impfen, die wollen ihren Impfstoff vertecken, völlig klar. Und ob das jetzt so neutral ist, weiß ich nicht. Da hätte ich vielleicht lieber ein bisschen Werbung auf der Seite. Aber worauf es runterkommt, ich habe das Gefühl, dass man mit schwerer, Kilobyteschwerer Werbung auf der Seite einfach kaum noch eine Chance hat. Kannst du das irgendwie bestätigen? Also, dass es einfach ein sehr starkes Gewichtsproblem ist. Weil die Seiten sind immer schneller. Weißte, wir haben irgendwie drei Schwerden. Also von Geschwindigkeit her, ist natürlich schon so, dass wir die Geschwindigkeit verwenden für das Ranking. Ich könnte mir vorstellen, dass man da auch ein bisschen vermehrt in die Richtung gehen würde. Weil wir einfach sehen, dass es immer noch sehr viele Seiten geht, die recht langsam sind. Und gerade auf Mobilgeräten sind Benutzer natürlich sehr ungeduldig. Was ich vielleicht schauen würde, ist mal überlegen, wie man das machen kann, dass man die Werbung trotzdem noch machen kann, ohne dass sie so stark die Seite verlangsamen. Es gibt ja verschiedene Technologien, die man da einsetzen könnten von Lazy Loading bis hin zu Pre-Rendering, dass man die Werbeblöcke quasi vor und bearbeitet, dass sie nicht alle per JavaScript irgendwie aufgebaut werden müssen, die man anfühle, sich einsetzen kann, um beliebige Inhaltsblöcke auf einer Seite schneller zu machen. Da gibt es eine Frage zu du hast gerade gesagt, wenn man jetzt mit Dynamic Rendering das macht, zum Beispiel. Ich habe jetzt einen Test gerade, oder der wird jetzt heute oder morgen live gehen, wo wir genau das testen, dass wir je nachdem, welcher User Agent kommt, wirklich alle Skripte, die eigentlich alle, die wir von AB-Testing-Skripten zu sämtlichen solchen Skripten, aber auch halt auch die Werbeskripte auf einem bestimmten Bereich rausnehmen werden. Das heißt, Googlebot bekommt exakt die gleiche Seite wie der User, Minus, alles, was für uns mit JavaScript noch draufgeklebt wird. Was? Das ist halt so ein bisschen... Es ist auf einer einzigen Seite, wird das halt sein, aber es ist genau die Werbung, wird das rausgeschmissen. Ja, an und für sich müssten wir die Seiten schon sehen, wie sie normaler Benutzer sieht. Es ist für uns okay, wenn wir sehen, dass die Werbung quasi per robots.txt blockiert ist, solange wir erkennen können, dass da noch ein Werboblock entsprechend wäre. Genau, der Werboblock, es wird immer noch drin sein. Die Werbung ist sowieso die meisten Lärm-Ampilter, die wir haben. Ich glaube, es gibt noch eine Frage in den Fragen von diesem Hänger, ob es okay ist, wenn die robots.txt die Werbung blockiert, weil das ist teilweise beim externen Anbieter, da können wir sowieso nichts dran machen. Ja. Von daher, das ist ein Faktor, aber das ist, ich meine, ich glaube, das ist bei der Werbung blockiert. Unsere Seite ist sehr werbelastig. Und ja, es macht die Seite langsam. Ja. Einerseits kann man das machen für das Rendering. Das sehe ich weniger Probleme vor allem, wenn wir sehen können, dass da eigentlich ein Werboblock noch entsprechend aufgeladen wäre. Was einfach mit der Geschwindigkeit natürlich zusammenhängt, ist, einerseits machen wir diese theoretischen Tests mit Tools wie PageSpeed Insights, andererseits nehmen wir natürlich auch praktische Daten, die wir zurückgemeldet kriegen von Benutzern. Also, ja, es ist Chrome, Chrome Experience Reports, weiß ich, wie die Daten da genau heißen. Die sieht man ja auch in PageSpeed Insights jetzt. Ja. Und da ist es natürlich so, wenn Benutzer trotzdem sehen, dass die Seiten sehr langsam sind, dann sehen wir das da entsprechend auch. Und dann werden wir das auch so entsprechend berücksichtigen. Das heißt, es ist aus meiner Sicht keine Lösung, dass man die Werbung, sag ich mal, einfach für GoogleBoard versteckt, weil die Seiten sind hier dann für Benutzer, sind sie ja immer noch langsam. Genau, verbrücken, das ist auch nur, um das klar zu sagen, dass das nicht die Idee gewesen ist. Ja, ja, das ist einfach so ein Side-Effect davon. Die Lage wird es einfach nur, ist mehr Heavy Rendering, was ihr machen müsst, was kein Mehrwert bringt. Das ist eigentlich die Idee dahinter. Was ich jetzt schon verstanden habe, war auch die Idee von Dynamic Rendering ist. Dass ihr eine fertige HTML bekommt, und das war's. Weil das ist im Endeffekt auch das, was die User bekommt. Genau, ja. Ja. Okay, jetzt habe ich den Faden irgendwie verloren. Obeinander. Mit Bezüglich Geschwindigkeit bei der Werbung. Ich würde schauen, dass man da möglichst auch eine Variante findet, wie man die Seiten schnell liefern kann und trotzdem noch die Werbung drauf haben kann. Wenn man das irgendwie hinkriegen kann. Ich weiß, gerade mit externen Werbepartnern ist das manchmal sehr schwierig. Dass man sagt, ihr müsst die Werbung so liefern, dass sie innerhalb von, ich weiß nicht, 100 Millisekunden geladen werden kann, ist manchmal ein bisschen schwierig. Aber das ist natürlich schon, für den Benutzer ist es ja schlussendlich egal, wo die Werbung herkommt. Man sieht einfach, dass die Seiten langsam sind. Und wenn die Benutzer ungeduldig sind, dann versuchen sie halt eine andere Seite, die vielleicht ein bisschen schneller ist. Eine Farmerseite. Ja, muss nicht unbedingt sein, aber könnte zum Beispiel sein. Ja, aber eben ich denke, gerade solche Beispiele, wenn du mehr solche hast, es klingt so, als ob du eine ganze Liste hättest. Ja, ja, hab ich. Dann, die würde ich gerne an das Team hier weitergeben, damit sie das auch mal anschauen können, damit man mal überlegen kann, muss man da vielleicht schauen, dass man diesen Mix besser hinkriegen, dass man da, das wirklich auch für Benutzer, ein bisschen, denke ich mal, so zusammenstellen kann, dass da verschiedene Publisher auch eine Möglichkeit haben, sich so einen Suchtbegriffen sichtbar zu sein. Vor allem, wenn die Inhalte an und für sich relevant und korrekt sind, dann macht das ja Sinn. Ich denke, wenn wir sehen, dass die Inhalte wissenschaftlich falsch sind und die Autoren irgendwelche, ich weiß nicht, vielleicht mal Schüler sind, die einfach nebenbei Texte schreiben und sich nicht wirklich auskennen mit diesen Themen, dann macht es wahrscheinlich Sinn, dass wir da eher die professionelleren Inhalte bringen. Aber es gibt natürlich auch viele gute Portale, die wirklich hochstehende Artikel haben, die irgendwie über die Werbung finanziert werden müssen und die trotzdem sichtbar sein sollten in den Suchergebnissen. Und das hat eben tatsächlich dieser Punkt, das ist seit März eben sehr, sehr stark durchgemischt worden, dieser Punkt. Okay, also wenn du mir mehr Beispiele schicken kannst, ich warte gerne auf deinem E-Mail und dann schicke ich das weiter an, Istin. Gerne, gerne. Super. Ich hätte da noch eine kurze Frage zu, also gerade dieses Thema Reitzusten, ich habe das gerade irgendwie angeschaut, Mona Pax, kann es auch sein, dass wenn jetzt, also Mona Pax kann man überall kaufen, und ich benutze es auch für meine Tochter, ist es so, dass Mona Pax überall in den Apotheken verkauft wird, dass automatisch dadurch vielleicht irgendwie Rückschlüsse bezogen wird, dass das gut ist und dadurch dann höher rent vielleicht? Kann ich mir nicht vorstellen. Und rent her, also sagen wir mal, es wird bei Amazon verkauft oder keine Ahnung, bei der Apotheke oder hier da und keine Ahnung überall, dass da irgendwie, also es geht doch irgendwie diese Expertise halt auch. Und wenn ja es im ganzen Internet Mona Pax auch gibt und das ist irgendwie in Bezug zu Husten, dann ist doch klar, dass das doch irgendwie dann rent, weil wie wollte ihr erkennen, dass ein Auto jetzt gut ist? Da guckt ihr doch auch nach dem Auto oder nicht? Ja, also eben wenn das, wenn das halt mal im Internet überall erwähnt wird und entsprechend auch verlinkt ist, dann kann man das natürlich schon rausholen, aber nur weil das zum Beispiel in Apotheken verkauft wird und wenn das quasi alles offline ist, ich kann mir nicht vorstellen, dass das irgendwie verknüpft wäre. Aber eben wenn das verbreitet ist im Internet sonst, dann klar, solche Signale kann man schon mitnehmen und weiter verwenden. Also das ist wie mit den Autoren dann, wenn ein Autor irgendwo in einer guten Zeitung arbeitet, dort schöner Artikel schreibt, dann oder nicht nur Auto, sondern Block oder sonst irgendwas da, wird eine Verkaufung hergestellt, ja? Ja, ja, kann man das natürlich so sehen. Und wenn das ein Autor ist, der nur offline bekannt ist, der wirklich nie online irgendwas geschrieben hat, dann sehen wir das natürlich auch nicht. Dann können wir das schlecht beurteilen aufgrund von einem Artikel, wo dieser Autor vielleicht zum ersten Mal online tätig ist. Okay, dann haben wir die Werbefrage kurz angeschaut. Dann haben wir da eine Sammlung von verschiedenen Fragen. Wie oft werden die Links in Search Console neu bewertet? Habe dort einige Spam-Links von externen Seiten blockiert, aber die werden immer noch angezeigt. Es gibt da zwei Sachen. Einerseits ist gerade der Link Report in Search Console im Moment noch stecken geblieben. Das heißt, es geht da wahrscheinlich noch, ich weiß nicht, ein paar Tage oder eine Woche, bis das wieder alles sauber läuft. Das ist eher ein technisches Problem auf unserer Seite von diesen Indexing-Problemen, die wir neulich hatten. Anderseits, wenn man in This-About-Tool Links einträgt oder wenn das Links in den No-Follow haben, dann zeigen wir die trotzdem in Search Console. Da ist einfach der Grundgedanke dahinter, dass das sind trotzdem Links, die wir auf dem Internet gefunden haben, die zu euren Seiten zeigen. Deswegen zeigen wir sie auch in Search Console. Vielleicht müsste man das irgendwann mal ein bisschen überdenken, ob man das anders machen müsste oder ob man das anders darstellen muss. Ich denke, das sind dann eher so längerfristige Überlegungen, die wir da vielleicht machen müssen. Dafür würden wir wahrscheinlich schon auch mal auf Twitter herum fragen, wie ihr das sieht, was für euch praktisch wäre. Google Discover gibt es dafür einen Extra-Bot, den man per Robots Text ansprechen kann. Meines Wissens nicht. Meines Wissens sind in Discover einfach normale Seiten, die wir sauber indexieren können, sichtbar. Das heißt, es ist nicht irgendwie speziell, quasi ergänzbar in Robots Text. Auch in Analytics ist es ein bisschen schwierig, das direkt herauszuholen. In Search Console sieht man diese Daten natürlich jetzt schon. Die Impressionen und die Clicks zumindest und die URLs, die dargestellt wurden, da kann man das ein bisschen zurückverfolgen, was da passiert ist. John, dazu will ich jetzt nicht unterbrechen in dieser Liste, aber dazu hatte ich noch eine Frage, weil ich tatsächlich da mit Discover und News und so nicht. Ich habe die Frage auch reingepostet, nur, dass du gleich noch drauf gehst um News und Discover. Es war weiter unten, du kannst ja erst mal in der Liste weitermachen. Ich möchte da nicht reinspringen. Ja, bräuchten zwei Stunden bald für diese Hangout. Okay, können wir prüfen, ob eine Seite im Mobile First Index ist, ja, mit dem URL Inspection Tool. Das heißt, in Search Console kann man die URL ja eingeben oben und dann zeigt es an, ob die mit normalen Googlebot oder Googlebot Smartphone gekraut worden ist für die Indexierung. Müssen auch Subdomains in der Domain mobile-friendly sein, um im Index aufgenommen zu werden? Ja, anfühlt sich alles, was indexiert sein muss, also alles, was man indexieren möchte, muss so sein, dass wir das normal indexieren können. Mobile-friendly ist nicht ein Kriterium für die Indexierung. Mobile-friendly ist eher etwas, was für das Ranking verwendet wird. Für den Mobile First Index schauen wir die Webseite insgesamt an. Und wenn da Teile sind, die nicht Mobile First Indexing bereit sind, dann kann es sein, dass wir trotzdem den Rest vom Domain umschalten und dass dann diese Teile dann halt nicht so gut performen in den Suchergebnissen. Mit Mobile First Indexing ist es so, dass das für Mobile und für Desktop Suchergebnisse gilt. Das heißt, die mobile-Seite wird als Basis für beide dieser Varianten verwendet. Kleinerzeigenportal, wir haben Detail-Seiten gesperrt per robots.txt, da sie meistens nur kurzzeitig online sind. Grund ist, dass wir die Kategorien-Seiten unsterken wollen, ist das aus meiner Sicht okay. Kann man aus meiner Sicht machen. Wenn die verlinkt sind von den Kategorien-Seiten, kann es allerdings so sein, dass wir die URL separat indexieren und auch in Suchergebnissen zeigen, ohne Inhalte, weil ich habe gesperrt per robots.txt. Bei Kleinerzeigen kann ich mir vorstellen, dass das weniger auf der Fall sein wird, weil diese Links von den Kategorien-Seiten sind ja nur kurze Zeit sichtbar. Hamburger Menu im Desktop ist das ein Problem, weil das so versteckt ist, nein, das ist kein Problem. Pangenierung, schon wieder das Thema. Bald brauche ich Paginierung für die Paginierungsfragen. Ich glaube, da müssen wir wirklich mal was zusammenstellen. Leistung in Search Console, quasi, wenn man vergleicht mit dem Wort Auto und vergleicht mit alles, was nicht in Auto ist, warum ist da ein Unterschied? Da gibt es an für sich der Hauptgrund für den Unterschied, ist, wenn man das per Suchbegriff macht, in Search Console, ist es so, dass wir Suchbegriffe, die selten Vorkommen, nicht einzeln auflisten. Das heißt, wenn man das Gesamthaft anschaut, zeigen wir oben als Gesamtzahl diese 2 Millionen an. Und wenn man die einzelnen Suchbegriffe zusammenzählt, dann sieht man ja oft einen Unterschied, dass das nicht irgendwie die gleiche Zahl ergibt. Gerade bei kleineren Suchbegriffen sieht man das dann sehr schnell, dass dann oben steht. Ich weiß nicht, 100 Impressionen. Man kann die drei Einträge zusammenzählen. Das gibt 50 Impressionen. Und das sind dann effektiv solche Impressionen, die sehr selten verwendet worden sind, die wir dann aus Privacy-Kründen oder aus Platzgründen bei Search Console nicht separat dargestellt haben. Das heißt, die Gesamtzahl wird nachgeführt, aber die einzelnen Einträge werden nicht so direkt dargestellt. Einer unserer Kunden hat eine Bezahlschranke eingebaut, fünfmal Aufrufen per IP-Adressor. Muss man da irgendwas Spezielles machen? Ja, wir haben ein Art Struktur-Data dafür, wie für fast alles, wo man angeben kann, wie das indexiert werden soll und zwar heißt das Flexible Sampling. Das müsste in Developer-Dokumentationen, müsste das auffindbar sein. Bezüglich Titel und Description auf den Seiten würde ich dafür sorgen, dass wirklich Titel und Description auch passend zu den Artikeln. Entsprechend dabei ist, dass Google die Seiten dann auch sauber so indexieren kann, wie diese Inhalte auf diesen Seiten wären. Weil es sonst ist natürlich schwierig, wenn alle Seiten einfach Login heißen, dann bringt das nicht wahnsinnig viel für die Sichtbarkeit in der Suche. Kannst du noch mal sagen, dieses Struktur-Data-Teil hat Flexible Sampling? Flexible Sampling, ja. Ich glaube, das ist, genau, da ist es im Hilfe-Center und da ist ein Link zur Developer-Seite noch dabei. Okay, danke. Dann die Frage zwischen Google News, Google News Android, Google Producer, Google Discover. Ja, ich bin verwirrt. Ich weiß es auch nicht. Ich weiß aus unserer Sicht, ist es so, dass viele von diesen Varianten an und für sich in die Google-Suche, im Google-Suche-Übergriff landen. Ich weiß, dass wir für einige dieser Varianten separate Refer-Haben für Analytics und das hängt ein bisschen davon ab, ob man da über den FAB oder direkt über die Suche hineingeht. Ich weiß allerdings nicht, was da das längerfristige Ziel ist, ob das Ziel ist, dass man die möglichst gut auseinanderhalten kann oder auch die möglichst aus ein Element der Google-Suche gesehen werden soll. Mein Verrümst findet schon vorher statt, nämlich das Analytics, also Auseinander-Klamüsen, wo der Trafficker kommt, ist ja eins. Aber gerade das in der Search-Konsolid Discover, was exakt, wo exakt, kommt die Aufrufe her? Die kommen vom Discover-Feed und der ist natürlich in... Der ist aber nicht der gleiche... ...in den 3 Orten eingebaut, oder? Das ist nicht der gleiche, der in der Google News Android App drin ist, ne? Der sieht so ähnlich aus, ist aber nicht der gleiche, richtig? Wenn man einen neuen Browser aufmacht, ist da manchmal was drunter oder ist das bei Google bei diesem... Also, ich bin verwirrt. Ich verwende Discover nicht. Für den ist das schwierig. Du fändest nicht Discovery, aber wo ist denn das Discovery, was du verwenden würdest? Das braucht manchmal auch, wenn man so eine Voice Search... Wenn man einfach zur Seite nach rechts zweibt, dann kommt ja so dieser Feed von allmöglichen Sachen immer angeben kann, was man sehen möchte. Und so, das ist ein Visager des Discover-Feeds. Okay, und das ist total zufällig, was ich da gezeigt bekommen, oder Google misst so mit, was ich so sehe. Aber das ist ja in der Google News App sehr ähnlich, ne? Also, Google News Android App. Ich weiß nicht, wie das bei Google News... Also, Google News, der Feed bei Google News ist meines Wissens ganz separat von dem. Weil bei Google News ist es so, dass da wirklich die Sites dabei sein müssen, die in Google News Index sind. Ich fürchte nicht, ne? Denn das ist ja noch was anderes. Da gibt es ja diese Google Slash Produce. Und das ist ja das, wo ich denke, dass es in die Google News App, Android App reingeht. Da kann man ja so Editionen erstellen. Und die Finder finde ich in Google News in der Android App wieder. Aber nicht in Discover. Okay. Interessant. Ich bin nicht einigermaßen entspannt, aber ich denke, ich bin der Einzige, der es nicht kapiert. Aber wenn du das nun nicht mal kapiert hast, dann ist es vielleicht gar nicht so einfach zu kapieren. Also, so wie ich es verstanden habe, ist alles, was bei Google News drin ist, ist wirklich spezifisch zu Google News. Und da muss man quasi im News Index dabei sein. Meines, so wie ich es verstanden habe, ist Producer quasi noch etwas getrenntes von Google News, noch eine Stufe weiter separat. Okay, wie kann man sowas nachlesen? Weil ich habe die Dekondition natürlich angeguckt von Google Producer. Und ich kapiert es nicht, wo es angezeigt wird. Das sind also Editionen, wie man erstellen kann. Ja, okay. Keine Ahnung. Also, ich mache eigentlich mit Google News relativ wenig. Von dem her ist es da schwierig zu sagen. Aber vielleicht müssen wir mal jemand von Google News haben, der den Hangout mitmacht. Wer ich dabei? Das ganz ein bisschen erklärt. Okay. Aber zumindest bei dem Discover sind, können da alle möglichen Websites dabei sein, alles, was indexiert sein kann. Aber es wäre mir wirklich interessant, das Ganze auseinanderzunehmen. Okay. Und tatsächlich dann auch, tatsächlich, was viele Leute immer interessiert, wie kann ich es auseinanderhalten? Wo kommt der Traffic jetzt her gerade? Das ist ja immer so ein bisschen sehr zufällig, weil man dann sieht guten Traffic auf Google Analytics. Und okay, das kommt irgendwie von Google. Man weiß tatsächlich, dann habe ich schon sehr viel erlebt jetzt bei Kunden. Das ist gesagt, wir haben super Traffic gehabt gestern, irgendwie Google. Aber was ist jetzt genau, warum und wie und wo der Traffic herkommt? Sehr schwierig. Und dann wartet man drei Tage, bis es in der Search Console drin ist. Und dann kann man das so ein bisschen nachvollziehen, was es exakt war. Super schwierig. Ja, ja. Okay. Gutes Feedback. Müssten wir mal schauen. Schauen wir mal kurz die Handauntfragen an. Search Quality Guidelines, Kundeninformation. Wenn die überall verlinkt sind, ist das dann nicht quasi die wichtigste Seite auf der Website. Aus unserer Sicht ist das Hand für sich total okay. Es ist normal, dass wir so die, wie heißt es, Impressum und ähnliche Information, dass die einfach im Futter verlinkt sind zwischen allen möglichen Seiten. Und da muss man eigentlich nicht spezielles machen. Das ist quasi ein Konstrukt, den wir vom Web erhalten haben. Dann eine Frage zu Follow Links zwischen Shops in verschiedenen Sprachen. Ob man das im Futter einfach so verlinken kann, das ist total okay so. Vor allem, wenn das eine Handfall-Shops sind, die zusammengehören, ist das überhaupt kein Problem. Wenn das wirklich sehr viele, ganz unterschiedliche Websites sind, dann sieht das einfach ein bisschen komisch aus für unsere Systeme, weil das dann wirklich aussieht, wie eine Sammlung von Links, die zu allen anderen Webseiten gehen. Insbesondere, was häufig dann passiert, wenn das wirklich sehr viele Websites sind, dann ist es schwierig für uns zu erkennen, was wirklich das Hauptthema ist von diesen Seiten. Das heißt, sieht dann einfach aus, wie eine Sammlung von Keywords, die unten im Futter dabei sind. Dann die Frage mit den ausgehenden Links, von solchen Seiten, sind das manchmal 50.000 Seiten und 50.000 Links entsprechend. Aus unserer Sicht ist das okay, weil das sind seit weit Links, dann ist es nicht unbedingt eine Sache von, wie groß diesen Websites sind, wie viele Links insgesamt sind, sondern wir sehen, dass von dieser Webseite einfach Links zu dieser anderen Webseite hinübergehen und das ist handel für sich okay. Gerade wenn das Websites sind, die zusammengehören, ist das unproblematisch mit normalen Links zwischen diesen Websites. Ähnlich auch zwischen verschiedenen Sprachversionen. Das macht es ja eigentlich noch mehr Sinn, dass man sagt, diese Seite auf Deutsch, Französisch, Englisch, anschauen, ist eigentlich ganz natürlich. Aber Keyword optimiert nicht, also besser nicht machen, weil es passiert dann auch, dass zum Beispiel für eine französische Abfrage der deutsche Shop kommt, manchmal. Zum Beispiel auch, dass in Deutschland oder in der Schweiz jetzt übersetzen steht, weil irgendwie ein englisches Keyword unten drin ist. Also, ich habe jetzt doch lieber mal auf nofollow gemacht, weil ich mir doch ein bisschen unsicher war. Würde es denn trotzdem Probleme geben, wenn man diese Links auf nofollow hat? Also, wenn Sie nofollow haben, dann ist es einfach so, dass wir keine Signale weitergeben. Das heißt, wenn, zeig mal, wenn eine Version von Deinem Shop sehr bekannt ist, dann ist es nicht so, dass wir da merken, ah, die Links zu der anderen Version von Deinem Shop sind ja eigentlich vielleicht auch recht relevant. Okay. Und demherr würde ich, also, denke ich, gerade, wenn das fünf Shops sind, sehe ich da überhaupt kein Problem. Dass man da einfach sagt, man verlinkt die mit einem Linken. Das sagt man, das ist der Shop für Deutschland und das sehe ich überhaupt kein Problem. Aber es ist nicht nur einfach verlinkt, also, ich besprechen schon über so eine Keyword-Optimierung. Also, zum Beispiel Flagge Australien oder, weiß ich nicht, Flaggen kaufen, zum Beispiel. Also, schon sieht, ich finde, schon sieht extrem aus, extrem, ja, das bändigt, weiß ich jetzt nicht. Aber, als ich zum Beispiel nur stehen hatte, wechseln zu flaggenplatz.at, als ich das Problem hatte, da waren, wo dann stand, wechseln zu flaggenplatz.at. Also, ja. Schwierig. Schwierig. Also, ich dachte, ich habe mich erstmal wieder auf nofollow gemacht. Ja. Also, ich würde meinen, das macht eigentlich nicht Sinn, dass man die auf nofollows setzt. Ich würde sowas normal, ganz normale Links machen. Gerade wenn das so fünf Shops sind, ist das überhaupt kein Problem. Das ist ganz natürlich. Und die Linktexte dann lieber, zum Beispiel, deutsche Sprache oder so wählen? An und für sich, die hier überlassen. Ja. Also, ich würde passen zu dem Linkziel, das entsprechend machen. Okay. Okay. Okay. Ich glaube, da haben wir so ziemlich durch, habe wieder Hausaufgaben nachschauen. Wie das mit der ganzen Paginierung ist und die ganzen medizinischen Seiten mal anschauen und mit Discovery und News, wie das alles verknüpft ist. Mal schauen, ob ich da was rausfinden kann. David hat noch gesagt, dass der eine Link nicht funktioniert. Das ist natürlich peinlich. Schaue ich mal. Auf den besten Webseiten vor. Das ist gerade so, wie war das Pausing oder so. Da hast du die Seite gewähnt und da ist der Link kaputt. Okay. Gut. Mach mal den wieder ganz. Links korrigieren geht schnell. Cool. Okay. Dann machen wir hier mal Pause. Vielen Dank fürs Kommen. Ich wünsche euch einen schönen Rest der Woche und eine gute Woche in der nächsten Woche. Und dann sehen wir uns wahrscheinlich in zwei Wochen wieder. Ja, gut. Ciao. Tschüss.