 Okay, herzlich willkommen beim heutigen Google Webmaster Essentials Sprechstunden Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Trans Analyst hier bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster Hangouts. Es sind schon einige Fragen eingereicht worden. Aber wie jedes Mal, wenn einer von euch loslegen möchte mit einer ersten Frage oder zwei, können wir gerne mit euch anfangen. Ich, ist das auch okay? Wir haben sicher auch Zeit zwischen euch für weitere Fragen von euch oder vielleicht auch gegen Ende, wenn wir alles durch geschafft haben. Okay, also fangen wir mal oben an. Eine Frage in Bezug auf das Ausblenden von Inhalten, also von Text und Links in der mobilen Ansicht. Ist das ein Problem oder nicht? Aus meiner Sicht ist das total okay. Wichtig, finde ich einfach, ist, dass mobile Benutzer irgendwie eine Möglichkeit haben, die vollständigen Inhalte auch zu sehen. Das heißt, nicht als mobile Version irgendetwas abgeben für Benutzer, das nicht wirklich 100%ig brauchbar ist. Aber ansonsten für die Indexierung bei Google ist das eigentlich kein Problem. Gerade bei Responsive Design ist es ja so, dass die Inhalte selbst im HTML dabei sind, so dass wir die auf jeden Fall auch sehen können. Eine Frage zu Hotlinking. Das Ganze kann man HDR Access ein bisschen unterbinden. Wie ist das, wenn man da eine Ausnahme für Google Cloud macht? Oder wie müsste man das machen? Normalerweise ist es so, dass mit Hotlinking gibt es da verschiedene Wege, wie man das implementieren kann. Eine davon ist, dass man mit dem Referar arbeitet. Das heißt, normalerweise, wenn man eine Internetseite aufmacht und es in Bilder dabei, dann wird diese Internetseite als Referar angegeben für die Bilder, wenn die abgefragt werden. Das ist nicht 100%ig immer der Fall, aber in vielen Fällen ist das so. Und so könnte man natürlich auch sagen, ich schalte das quasi für alle Benutzer, die dieses Bild über die Bildersuche sehen, auch entsprechend frei, dass man da zum Beispiel alle Google Domains als erlaubt einrichtet. Grundsätzlich kann man das machen aus unserer Sicht. Ich weiß nicht, wie praktisch das schlussendlich ist bzw. wie viel Aufwand das am Ende gibt im Vergleich zu dem, was man sich da vielleicht sparen kann. Vor allem, wenn man auch mit einem Content Delivery Network arbeitet, wo eigentlich die Zugriffe auf solche Bilder weniger problematisch sind. Aber wenn für euch Hotlinking-Shots ein Thema ist und etwas ist, was ihr unbedingt machen müsst, aus unserer Sicht ist das schon okay, wenn Benutzer diese Bilder trotzdem in der Bildersuche sehen können. Das heißt, wenn ihr natürlich die Bilder in der Bildersuche überhaupt haben wollt. Wir betreiben ein Online Shop und standen bei einem Keyword im Hauptplatz 1 oder 2. Nun hat der Hersteller selbst eine Seite eingerichtet und rank quasi vor uns. Was kann man da machen? Gibt es überhaupt keine Möglichkeit? Grundsätzlich ist das schon machbar, dass man auch vor einem Hersteller erscheint einen Suchergebnissen. Es ist nicht so, dass unsere Algorithmen da etwas manuell eingerichtet haben, sodass man sagen würde, die Hersteller müssen immer vor irgendeinem Affiliate oder vor anderen Online Shops stehen in den Suchergebnissen. Das ist durchaus möglich, dass man da mit einem Online Shop auch erscheint. Es ist natürlich so, dass einfach mehr Konkurrenz da ist und zum Teil sind vielleicht Hersteller-Websites auch ein bisschen stärker. Je nachdem, wie das gemacht worden ist im Laufe der Jahre, kann es natürlich schon sein, dass die eher an oberer Stelle in den Suchergebnissen erscheinen. Aber grundsätzlich steht da nichts im Wege, dass ihr auch da oben erscheinen könnt. Man sieht das zum Beispiel auch oft mit großen Wiederverkäufen, wie Amazon oder anderen größeren Online Shops. Das sind die Produkte manchmal auch an erster Stelle und die Hersteller-Websites kommen erst ein bisschen später an den Suchergebnissen. Also es ist nicht unmöglich, es ist unter Umständen allerdings nicht sehr einfach. Und von dem her könnt ihr euch natürlich überlegen, wie macht es Sinn für euch, eure Zeit einzusetzen. Ist das für euch ein Problem oder könnt ihr vielleicht etwas bieten auf euren Seiten, dass die Hersteller nicht direkt bieten? Wie kann man das dann entsprechend preisgeben auf den Internetseiten? Das sind alles so Richtung Marketing-Überlegungen, die man da machen kann, die im ersten Moment nicht unbedingt etwas mit SEO zu tun haben. Aber auf jeden Fall ist es nicht unmöglich. Ich habe drei Alte, noch halbwegs gut verlinkte Domains. Sie seit Jahren nur noch vor sich so hinlaufen. Kannst du mal nachschauen, ob die so weit okay sind. Ich habe da mal kurz die Domains eingeschaut und zum großen Teil sehe ich da eigentlich keine großen Probleme. Ich denke, das ist natürlich viel mit allen Websites, die man so hat. Wenn man da einen alten Domainnamen hat, dann ist es allerdings nicht immer garantiert, dass man dann automatisch auch gerade sehr gut erscheint den Suchergebnissen. Das heißt, diese Überlegungen, dass ältere Websites automatisch einen Vorteil haben, das ist eigentlich nicht so der Fall. Aber wenn du gute Inhalte hast, die zu diesen Websites passen und wirklich etwas Gutes da bieten kannst, kann man die natürlich schon weiter verwendet werden. In der Regel könnt ihr das auch selber kontrollieren, indem man einfach bei den manuellen Maßnahmen in Search Console nachschaut und falls eine regelmächtige Probleme gemeldet werden, kann man die natürlich beheben. Wenn das Probleme wirklich links sind, dann ist es unter Umständen vielleicht ein bisschen schwieriger. Da muss man erst überlegen, wo kommt das her? Kann ich das beheben? Will ich die Zeit dafür investieren, um das zu bereinigen? Oder ist es vielleicht mehr auffordert, dass es sich wirklich lohnt? Ja, für mich. Ich stelle schon seit einiger Zeit fest, dass bei mir fast nicht mehr gelingt mit meinen Verzeichnissen bei Suchbegriffen in der Einzahl zu ranken, während diese in der Mehrzahl teilweise sehr gut ranken. Ich habe das kurz mal angeschaut und aus meiner Sicht sehe ich da eigentlich nichts unnatürliches, was da passiert. Ich denke, unsere Algorithmen versuchen einfach zu überlegen, was wir möchten, benutzer sehen bei solchen Suchanfragen und gerade mit Verzeichnissen, wo man natürlich mehrere Varianten hat, dann macht es vielleicht eher Sinn, dass man sagt, wenn jemand gezielt nach einer Liste von Sachen sucht, dann kann ich ihn auf eine Liste von Sachen schicken. Wenn hingegen jemand gezielt nach einer einzelnen Sache sucht, dann macht es vielleicht eher Sinn, dass man den Benutzer auf eine Webseitschicken, wo eine einzelne Sache besprochen wird. Zum Beispiel bei Trampolinhallen. Wenn jemand nach Trampolinhallen sucht, dann möchte dieser Besuch Benutzer vielleicht eher gezielt zu einer bestimmten Halle gehen. Und von dem her ist es allen für sich, denke ich mal, soweit okay. Das heißt, die Mehrzahl und die Einzahl bei Suchbegriffen, das kann doch auch seinen Unterschied geben mit den Suchergebnissen. Das heißt, die Mehrzahl und die Einzahl bei Suchbegriffen, das kann doch auch seinen Unterschied geben mit den Suchergebnissen. Es gibt von Google eine Empfehlung, Lazy-Loading-Builder per NoScript einzubinden. Wie geht man eigentlich mit den Alttexten um, wenn die Bilder nicht im Viewport liegen, sondern zum Beispiel versteckt in einem Tab. Also, ich habe gesehen, bei dir ist es dann so, dass es diesen Alttext zum Teil 2-mal gibt, wenn man ihn natürlich 2-mal einbindet auf der Seite. Dass die Bilder auf der Seite, 2-mal einbindet auf der Seite. Das kann doch auch so passieren. Das heißt, wenn man per Lazy-Loading das macht, würde ich den Alttext wirklich nur gezielt zum eigentlichen Bild, also zum eigentlichen Image Tag mit diesem Bild angeben und nicht zum Platzhalterbild. Weil der Platzhalter ist natürlich einfach nur ein Platzhalter, ist ein leeres Bild. Das ist nicht so, dass wir diesen Alttext zum leeren Bild noch dazu fügen sollten, sondern eher diesen Alttext zum eigentlichen Bild dazu nehmen sollten. Ja, John, ich habe das auch gelöst. Also, ich habe ein Data-Alt hinzugefügt und beim Rennen halt das Data-Alt in das Alt reingeschoben von dem Platzhalterbild. Und das funktioniert tatsächlich so. Die nächste Frage hat sich dann eigentlich auch erledigt mit dem Scroll-Event, Google führt doch die Scroll-Event aus, habe ich gesehen. Ja, mit dem Scroll-Event ist es ein bisschen schwieriger, weil aus unserer Sicht, wir finden manchmal die Inhalte nur so, wenn wir mit einem Scroll-Event auch wirklich ausführen. Es ist allerdings sehr koschspielig für uns bei jeder Webseite ein Scroll-Event zu machen und dann zu sehen, was verändert sich da. Von dem her würde ich mich nicht hundertprozentig darauf verlassen, dass wir jede Seite, die wir render, mit einem Scroll-Event ausführen. Mit dem Intersection Explorer ist es schon einfacher, dass wir das auch wirklich so machen. Das wir da mit einem normalen Viewport arbeiten, das erst mal groß machen und das wir dann entsprechend auch sehen, ob die Bilder auf einmal sichtbar sind. Mit dem Scroll-Event kann es sein, dass wir das im Moment machen, zumindest teilweise. Ich würde mich einfach nicht darauf verlassen, dass es immer gemacht wird. Jetzt muss ich doch nur mal nachhaken. Intersection Observer wird doch eigentlich erst ab Chrome Version 52 unterstützt, aber ihr crawt doch mit 41. Oder habt ihr irgendwie so eine... Es gibt, glaube ich, ein Polyfill dafür. Das benutzt dann Googlebot auch. Genau. Damit kann man das dann ja trotzdem noch sehen. Also wer ist doch sinnvoller, Intersection Observer zu benutzen anstatt die Scroll-Events? Also zumindest längerfristig ist Intersection Observer das, was wir empfehlen würden. Ich könnte mir vorstellen, dass wir im Moment immer noch relativ häufig mit dem Scroll-Event auch arbeiten, die Sachen so kriegen. Ich würde mich einfach nicht darauf verlassen, dass es wirklich längerfristig so bleibt. Okay. Das heißt, wenn du relativ schnell vielleicht mal reagieren kannst, das klingt so, als ob du das selber im Griff hast und nicht irgendwie ein Team mit, ich weiß nicht, was verschiedenen Manager, die erstmal alles irgendwie gut heißen müssen, was sie da ändern, dann sehe ich da auch kein Problem. Wenn du dann merkst, ah, jetzt funktioniert das besser mit Intersection Observer, stellen wir das ganz um. Okay. Aber NoScript klappt auch, auf Dauer auch. Ja, ja. Ein Problem, ne? Genau. Alles klar. Okay, super. Danke. Super. Ja. Du hast mir geraten, möglichst mehrere Seiten aus meinem Netzwerk zusammenzufassen, um diese stärker zu machen. In diesem Zusammenhang würde ich einige Webseiten auflösen und die Inhalte zum Beispiel über eine, kann es da Probleme geben, wenn ich 301 von alten Domain-Sätze um den Linkpower auf die neuen Domains zu übernehmen, das könnten 10 bis 15 301 werden, die auf die gleiche Zieldomain zeigen. Da sehe ich überhaupt kein Problem. Ich denke, das ist total okay. Gerade wenn die Inhalte an für sich ersetzt werden, dann ist ein 301 eigentlich das Richtige da. Was man einfach beachten muss da, ist, dass es nicht 100%ig berechenbar ist im Voraus, wie sich das Ganze dann nachher zusammenfasst. Das heißt, wenn ich verschiedene Websites habe und die per 301 zusammenleite auf eine Website, ist es schwierig zu sagen, dass diese neue Websites dann die Summe von allen bisherigen Rankings erreicht. Sondern das wird natürlich alles neu berechnet. Aber aufgrund von diesen Redirect und den Links, die auf die alten Seiten zeigten, können wir das natürlich so entsprechend übernehmen. Und ich denke, mit dem Berechnen ist natürlich immer eine schwierige Sache. Wenn man verschiedene Websites hat, dann lässt sich das schwierig so kombinieren und im Voraus berechnen, wie das sein sollte. Ähnlich ist es übrigens auch, wenn man eine Website nimmt und Teile davon abspaltet und einzelne Websites daraus macht, kann man nicht immer 100%ig davon ausgehen, dass die alten Seiten, die abgespaltet wurden mit genau dem gleichen Rankings erscheinen, wie sie vorher waren, wenn sie mit einem Domain zusammen waren. Schon seit einigen Monaten rankt meine Seite bei der Suche nach Termen Hessen besser, als die deutlich dafür passende Seite. Hast du eine Erklärung dafür? Schwierig zu sagen, warum jetzt eine Seite bei einem Suchbegriff besser rankt. Normalerweise sind das solche Sachen, die wir mit dem Team unter Umständen anschauen würden, wo wir sagen, das ist jetzt wirklich problematisch. Ich denke, in diesem Fall ist es eher etwas, wo das Team sagen würde, das kann passieren. Ich denke, ich habe gerade bei einzelnen Unterseiten, die vielleicht nicht so wichtig sind für die Websuche, kann es natürlich schon sein, dass wir manchmal die Seite nehmen oder manchmal eine andere Seite. Manchmal nehmen wir eher eine Kategorien-Seite, manchmal die Details-Seite. Das kann an und für sich passieren. Ich denke, du hast da die richtige Richtung eingeschlagen, dass man überlegt, wie ist das intern verlinkt, wie ist das innerhalb der Website. Auf jeden Fall, dass man da intern auch wirklich klarstellt, das ist die Seite, die zu diesem Thema genau passt. Mit der internen Verlinkung, mit den internen Anchor Text, mit den Titel- und Headings auf den Seiten, natürlich auch all das. So kann man das ein bisschen steuern, aber es ist natürlich nicht so, dass man angeben kann für einzelne Seiten. Ich möchte, dass diese Seite diesen Begriff rankt und die andere Seite in meiner Website nicht. Ich habe eine Frage zum Linkwell Alternate Media Tag, bezüglich der maximalen Breite 640 Pixel. Kann man da auch einen anderen Wert einfügen? Das kann man natürlich auch machen. Normalerweise wird diese Konstruktion verwendet, wenn man eine separate mobile Seite hat. Dann versuchen wir, die Verbindung zwischen der Desktop und der mobilen Seite einerseits über diesen Tag zu finden, andererseits natürlich auch über andere Methoden. Das heißt, wenn man ein Redirect hat, dass mobile Benutzer auf der Desktop-Seite zur mobilen Seite weitergeleitet werden, das hilft uns natürlich sehr stark. Auch wenn die entsprechende Rückverbindung von der mobilen Seite zur Desktop-Seite besteht, hilft uns das auf jeden Fall. Und was man vielleicht auch überlegen könnte in einem solchen Moment, ist, ob es sich vielleicht sogar lohnt, dass man mit responsive design arbeitet, statt dass man mit separaten mobilen URLs arbeitet. Mit responsive design fallen solche Fragen ein bisschen weg. Das heißt, es bezieht sich dann wirklich auf eine einzelne URL. Und man kann dann mit den Style Sheets eigentlich arbeiten, wie man will, dass man da eine saubere mobile Version zusammenstellt. Wenn man zwischenstufen auch erstellen möchte, ist das auch viel weniger problematisch. Es existiert eine URL, wie zum Beispiel Beispielmarke 01. Nach mehrjähriger Benutzung dieser URL meldet sich ein anderer Marken Inhaber und fordert die Löschung. Der Inhaber der URL hat nun zwei Monate Zeit sämtliche Ergebnisse aus dem Internet zu entfernen, die sich darauf beziehen. Sollte das nicht möglich sein, dann gibt es eine große Strafe. Besteht die Möglichkeit, dass sie mir eine Ansprechpartner bei Google nennt, die vollständige Löschung aus dem Index beschleunigen kann. Ich denke, das ist schwierig, weil die Variante, die man da machen kann, ist mit dem URL Entfernungstool. Das heißt, wenn diese Website verifiziert ist in Search Console, kann man sagen, ich möchte meine gesamte Website von den Suchergebnissen entfernt haben. Und was dann passiert, ist, dass diese Website nicht mehr gezeigt wird in den Suchergebnissen. Im Index ist die aber weiterhin vorhanden. Und im Index wird sie zumindest über ein halbes Jahr oder auch länger weiter bestehen. Sie wird einfach nicht gezeigt in den Suchergebnissen. Entsprecht vielleicht dem, was man da erreichen muss. Aber im Index bleibt das natürlich weiter bestehen, einfach aus technischen Gründen. Das heißt, wir crawlen und indexieren die URLs einzeln von einer Website. Manche dieser URLs crawlen wir relativ schnell. Innerhalb weniger Stunden sehen wir die vielleicht neu. Und wenn wir da zum Beispiel ein No Index sehen oder ein 404, das heißt, dass die Site entfernt worden ist, dann können wir diese relativ schnell aus dem Index nehmen. Andere Seiten einer Website crawlen wir vielleicht nur alle halbe Jahr oder vielleicht noch weniger häufig. Und da geht es dann entsprechend halt so lang, bis wir wirklich auch merken, dass diese einzelnen Seiten nicht mehr existieren oder nicht mehr indexierbar sind. Und dementsprechend dauert das locker mal, denke ich mal ein halbes Jahr oder ein Jahr sogar, bis wirklich eine Website ganz entfernt ist aus dem Index. Das heißt, aus unseren Datenbanken schlussendlich. Mit dem Entfernungstools ist es allerdings so, dass innerhalb von einem Tag oder so wird die ganze Website nicht mehr in den Suchergebnissen gezeigt. Das heißt, schlussendlich ist sie nicht mehr für normale Benutzer sichtbar. In unserer Datenbank ist sie zwar schon noch drin, wir zeigen sie einfach den normalen Benutzer nicht mehr. Und das kann man recht schnell machen. Also wenn die Website verifiziert ist, ist das eine Sache von ein paar Minuten das entsprechend einzureichen. Angenommen, wir haben eine Fahrzeugkategorienseite mit über 100.000 Autos und 1.000 parkinierten Unterseiten. Welche Option würdest du für eine Beispiel URL empfehlen? Puh, okay. Also, beide sind quasi mit REL Previous und REL Next und einer mit einem Canonical, einer ohne Canonical quasi wie man da durchgehen würde. Also grundsätzlich ist mit REL Next und REL Previous schon eigentlich eine saubere Einrichtung, was man einfach bedenken muss, ist, dass der Effekt relativ klein ist. Das heißt, wir indexieren diese Seiten trotzdem, wir crawlen diese Seiten trotzdem. Das ist auf jeden Fall so, dass wenn man sehr viel verschiedene Seiten hat und dann über Filter und Parkinierungen noch mehr Seiten generiert, dann ist Googlebot sehr beschäftigt. Das heißt, egal wie man das entsprechend verlinkt mit REL Next und REL Previous, es ist immer noch so, dass da recht viel gearbeitet werden muss, bis das alles durchgegangen werden kann. Das heißt, soweit möglich würde ich schauen, dass man Googlebot einen einfachen Weg gibt, zu den effektiven Seiten zu kommen. Das heißt, dass man sich überlegt, muss sich die Filter überhaupt indexieren lassen. Wenn nicht, kann ich die zum Beispiel auf NoIndex setzen und Internet mit NoFollow verlinken. Kann man die vielleicht in Extremfall sogar per robots Text ausschließen, dass man wirklich sicher ist, dass die gar nicht gecrawled werden. Ebenso mit den parkinierten Seiten, dass man sich da vielleicht überlegt, wie viel von diesen parkinierten Unterseiten die erste Seite indexiert ist. Wenn alle meine einzelnen Detailseiten von diesen kategorien Seiten von der ersten Seite irgendwo verlinkt sind, dann ist das vielleicht okay. Das heißt, man muss dann gar nicht überlegen, wie geht quasi die Parkinierung weiter. Man sagt dann einfach gut, Seite 2 ist zum Beispiel mit NoFollow oder NoIndex und NoFollow wird gearbeitet, sodass wenn wir diese ganzen Kategorienseiten sehen, können wir uns auf die ersten paar Seiten beschränken. Wir finden alle Detailseiten von dort und können eigentlich relativ effizient uns dadurch erreichen. Das wäre eigentlich so meine grundsätzliche Empfehlung. Wenn man mit Filtern arbeiten muss oder wenn man zum Beispiel mit Parkinierung arbeiten muss, wenn man wenig Kategorienseiten hat und die Produkte vielleicht auf Seite 10 irgendwo sind, dann muss man natürlich verschiedene Sachen irgendwie in Kauf nehmen und sich überlegen, wie kann ich damit umgehen, wo muss ich vielleicht ein Grenze ziehen oder wo muss ich einfach mit Nachteilen rechnen, einfach weil ich vielleicht technisch bedenkt keine Möglichkeit habe, dass das Ganze zumgehen. Okay, danke. Aber generell jetzt mit oder ohne Canonical wäre jetzt kein Problem? Gibt es auch kein besser oder schlechter? Ich würde grundsätzlich eher mit Canonical arbeiten, wenn man das irgendwie kann, weil dann kannst du ja gezielt selber angeben, so will ich das indexiert haben. In manchen Fällen folgt mir Canonical nicht, weil wir sehen, dass der andere Signale uns sagen, das macht nicht so Sinn. Aber in vielen Fällen können wir dem so nachgehen und das hilft dir entsprechend, auch wenn du dir überlegst, was möchte ich eigentlich indexiert haben, dann geht man nicht quasi blind in dieses Feld, wo auf einmal alle möglichen Seiten indexiert sind, sondern man ist sich von Anfang an bewusst, ich möchte, dass diese Varianten indexiert werden und dann weiß man auch, wenn Canonical setzt sich auf diese Varianten und dann überlegt man sich auch eher, gut, die anderen Varianten, die kein Canonical haben, sollen die vielleicht auch nur index sein oder sollen die irgendwie anders intern verlinkt werden. Einfach das Ganze eher ein bisschen, sag ich mal, bewusst angehen, statt einfach blind, ich schmeiß mal alle Filter und Paginierungen rein und schaue, was daraus kommt. Okay, danke. Könnte ich dazu auch noch mal kurz was fragen? Ja. Also du hast ja gerade gesagt, dass man irgendwie einen Link setzen muss auf alle Produkte, also ich bin jetzt davon ausgegangen, eigentlich, dass es besser ist, die paginierten Seiten auf Index zu lassen, also zum Beispiel bei unseren Tischflagen von 1 bis Seite 50, damit irgendwie ein Link da ist. Aber so wie sich das jetzt gerade angehört hat, könnte man ja eigentlich ab Seite 2 dann auf No Index stellen und dann zum Beispiel die anderen Produkte über gekauft mithalt verlinken. Also wenn du jetzt zum Beispiel, also spielt das keine Rolle von der Tiefe, wo die Seite sich befindet, also in die Seiten, rollt oder wie man das nennt? Ein bisschen hilft das schon, wenn das, sag ich mal, weiter oben verlinkt ist. Aber wenn das bei einer paginierten Liste auf Seite 15 ist, ist das ja auch schon 15 Schritte entfernt. Oder von dem her ist es, ist es natürlich auch schon, schon eine Stufe weiter. Und manchmal hilft es auch eher, dass man sagt, gut, das sind verwandte Produkte, ich mach dann so quer Links zwischen diesen verwandten Produkten und so werden die einzelnen Produkte auch gefunden. Ich dachte, ihr faltet die Seiten irgendwie zusammen, also die 100 paginierten Seiten, dass sie dann irgendwie doch ein Einfluss, also ist da gar kein Einfluss. Nein. Mit dem Rail Next and Previous wissen wir einfach, dass sie zusammengehören. Aber es ist natürlich schwierig. Was machen wir dann? Schlussendlich damit wehen müssen die Seiten trotzdem separat indexieren. Unter Umständen erscheinen die auch separaten in den Suchergebnissen. Von dem her, denke ich, ist es eine gute Sache, wenn man sich das, sag ich mal, semantisch überlegt, welche Seiten gehören zusammen. Das sind einzelne Seiten, die sind miteinander verlinkt und wenn die Produkte erst auf Seite 15 verlinkt sind, dann muss man ja irgendwie erst mal da durchkommen. Okay. Und wenn man die, also die Seiten sofort auf No Index, No Follow setzt, ist das dann auch eigentlich schon besser, weil du hast ja irgendwann auch gesagt, dass ein No Index irgendwann auch zu einem No Follow wird, also No Index, No Follow. Ja, also ich denke, bei paginierten Seiten, wenn man jetzt auf weitere Paginierung oder weitere Filter verlinkt, würde ich schon eher mit No Index No Follow arbeiten. Einfach, dass auch für uns wirklich ganz klar ist, dass diese Varianten und alles, was von dort aus verlinkt ist, entsprechend nicht so wichtig ist für uns. Das heißt, wenn wir sie finden, können wir vielleicht mit dem Phenomenochol zurückfinden zur ersten Seite. Aber es ist so, wenn wir auf Seite 15, auf Seite 16, Seite 9000, irgendwie schlussendlich mal weiterkommen. Okay. Screaming Frog, der Crawler, der hat ja auch so ein kleines Problem, dass wenn man No Index setzt, dann crawlt er trotzdem weiter. Also er hört da nicht auf. Deswegen kann man die Seite eigentlich nicht so abbilden, wie eigentlich Google die Seite abbilden würde. Ja, ich denke, das ist natürlich schwierig. Auf unserer Seite ist es so, dass wir die Seiten mit No Index im ersten Moment indexieren und wir müssen ja die Seite irgendwie verarbeiten können. Den Links folgen wir entsprechend auch. Aber längerfristig, wenn wir sehen, dass eine Seite immer auf No Index ist, dann sehen wir das eher als ein Soft 404-Seite an und lassen die dann entfernen. Das heißt, vom Screaming Frog her wäre es alle für sich schon korrekt, wenn Screaming Frog der erste Mal weitercrawlen würde und nicht unbedingt ein No Index definitiv als No Follow auch sehen würde. Und es ist natürlich schwierig zu vergleichen, dass es der quasi kurzfristige Zustand und der längerfristige Zustand wie nehmen wir das mit einem Tool, wie Screaming Frog irgendwie abbilden. Das ist ein bisschen schwieriger da. Alles klar. Okay, danke schön. Ja, gerade mit Packenierung und Filtern und gerade bei e-Commerce Websites müsste man da vielleicht mal ein bisschen die Dokumentation ein bisschen ausbauen. Wir sind da mit dem Team im Moment dran, wie man das am besten gestalten könnte. Vielleicht ich vermute mal im Laufe vom Jahr haben wir da ein bisschen mehr Sachen, die hoffentlich vielleicht auch ein bisschen klarer sind. Aber wahrscheinlich geht das noch ein bisschen. Mit Plugin in einem Newsticker auf einer Website ist diese Seite interessanter gestalten. Der Text wird exakt übernommen. Wird aber nur ein kleiner Teil des gesamten Content sein. Wird das als Duplicate Content gewertet. Das sollte eigentlich nicht als Duplicate Content gewertet werden. Grundsätzlich ist Duplicate Content ja auch nicht problematisch. Was einfach bei Duplicate Content passiert ist, dass wir wenn wir Textblöcke finden, die auf anderen Seiten schon vorhanden sind, gezielt nach diesen Texten sucht, dann können wir erkennen, dass diese Blöcke schon irgendwo anders vorhanden sind und dann kann es sein, dass wir in den Suchergebnissen diese Seiten ein bisschen zusammen klappen. Wenn hingegen das nicht unbedingt das ist, wofür ihr ranken wollt, denke bei einem Newsticker ist das wahrscheinlich auf der Fall, dann ist das ja eigentlich okay. Dann bringt dieser Newsticker euch ein bisschen mehr Wert für Benutzer. Dann wird es auf diese Seiten gehen und das ist eigentlich auch ganz okay. Gibt es für Google einen Unterschied zwischen dem B und dem Strong Tag? Welche Variante würdest du empfehlen? Ich glaube, da haben wir vor einigen Jahren mal nachgeschaut und das war eigentlich beides als gleicher. Aus unserer Sicht beides hilft natürlich, den Text aufzuheben. Welche Variante da man nimmt, ist eigentlich einem selber überlassen. Ich habe da auch noch nie irgendwelche Probleme gesehen, dass eine Website die falsche Variante genommen hat und dann auf einmal ging irgendetwas nicht. Das sind meistens sehr subtile Unterschiede, wie wir die Seiten verstehen können. Es lohnt sich zum Beispiel auch nicht die ganze Seite, einfach in einem CSS das als normal anschauen zu lassen, sondern wir versuchen so natürlich die besonders relevanten Teile vom Text ein bisschen herauszuhören. Ist es immer noch so, dass H3 und H4 tags mehr oder weniger ignoriert werden, oder hat sich da inzwischen etwas geändert? Ich denke, das ist ähnlich wie mit B und Strong. Das hilft uns ein bisschen mehr als, wo die Seiten ist oder worum es da geht. Aber es ist natürlich nicht so, dass man automatisch an erster Stelle rankt für den Text, der da eingeparkt ist. Von dem her würde ich das einfach so nehmen, wie man das normal verwenden würde auf eine Website. Wenn man die Inhalte ein bisschen strukturieren möchte, dann macht es vielleicht Sinn, dass man damit H3 und H4 Headings arbeitet. Arbeitet Google darauf hin, in Zukunft backlinks nicht mehr wie. Ja, weiß ich nicht. Ich weiß, dass wir viele verschiedenen Faktoren nehmen für Crawling, Indexing und Ranking. Da ist es nicht so, dass links immer das Wichtigste sind. In vielen Fällen ist das durchaus so jetzt schon so. Ich könnte mir vorstellen, dass es in Zukunft vielleicht auch noch mehr in die Richtung geht. Aber wenn es genau verändern wird, weiß ich nicht. Am liebsten würde ich euch allen sagen, dass backlinks total irrelevant sind und ihr könnt euch jetzt auch eure Inhalte konzentrieren. Praktisch gesehen müssen wir natürlich die Websites irgendwie noch crawlen und auffinden. Das funktioniert oft mit links, dass wir eine Seite aufrufen. Da sehen wir links drin. Dann können wir diesen links folgen und dann schauen wir mal, wenn ich darf. Ich arbeite für eine Seite, die heißt onmeda.de. Ich berate die. Die ist eine relativ große Medizinsite, Gesundheitsseite. Die hat seit dem Medic Update 2 Drill der Sichtbarkeit und eine ganze Menge Traffic verloren. Ich kenne natürlich die ganze Literatur dazu zum Thema Medizin. Das ist eine Seite, die hat sehr, sehr lange, sehr gut für sehr viel gerankt und auch sehr gute Inhalte. Es gibt andere Seiten, die sind sehr, sehr ähnlich wie Netdoktor und andere, die vom Schema her sehr ähnlich sind. Gute Beiträge über medizinische Themen und dann Werbung. Die Seite braucht viel Werbung, weil es teuer ist. Darum sind sehr dicke, fette mit dem Traffic verwoben und zwar Sachen, wo Sexfragen gestellt werden. Also richtige, z.B. Analverkehr, wie gefährlich ist das oder einfach Sachen, die man normalerweise in Urologen fragt, die schlüpfrig sind, die nicht so schön sind. Ich habe hier ein Pickle down da. Kannst du sagen, ob so Vermengung von Sexthemen, ich will es nicht Pornonen nennen, aber es ist schon sehr nah dran, medizinischer Natur, kann das mit beitragen, dass der Qualiator oder von den Algorithmen für schlecht beurteilt wird? Ich denke, vom Thema her nicht unbedingt. Wenn dann wäre das etwas, wo es in Richtung vielleicht Safe Search gehen würde und da würdest du wahrscheinlich die Unterschiede relativ schnell erkennen. Das heißt, wenn man mit Safe Search das man da wirklich auch größere Unterschiede sieht im Ranking, aber vom sonstigen quasi von der Qualität empfinden von unseren Algorithmen sollte das eigentlich nicht großen Einflusser haben. Okay, jetzt ist es so, der Content ist ja jahrelang sehr, sehr gut angekommen, hat sehr gut funktioniert. Es sind auch wirklich gute Artikel. Das haben irgendwelche Ärzte geschrieben. Also die Artikel selber bei Herzenfragen genau so gut wie in allen anderen. Nur hat eben diese Seite plötzlich ein Schlag gekriegt wegen irgendwas. Wir tappen natürlich jetzt im Dunkeln. Es gibt viele Theorien. Was wäre das, was du noch raten könntest? Wie soll man an so eine Seite reingehen? Und wenn man Sachen ändert, man weiß ja nicht ob es wirkt und wann es wirkt. Also wenn man was ändert, gibt es eine Möglichkeit, Google irgendwie anzupinken und sagen, guck mal hier, wie haben wir das geändert? Könnt ihr nochmal den Algorithmen los schicken oder die Qualiator drauf schicken und das leiden ja die Ergebnisse, die eigentlich ganz gut sind darunter? Also mit den Qualiator ist es natürlich so, dass wir das eher verwenden, um unsere Algorithmen ein bisschen zu testen. Das heißt, die Qualiator würden nicht eine Website anschauen und sagen, die ist gut oder schlecht und dementsprechend müssen unsere Algorithmen die jetzt tiefer darstellen in Suchergebnissen, sondern wir versuchen unsere Algorithmen eher mit denen zu testen und aufgrund von EO Feedback können wir dann diese Algorithmen ein bisschen anpassen. Von dem her müsste man da nicht irgendwie manuell jemandem das zuschicken und sagen, könnt ihr das mal anschauen und uns neu einstufen, bitte. Was natürlich schon ein bisschen schwierig ist, ist einfach insgesamt diese Algorithmen da, um zu versuchen, die die Relevanz von einzelnen Webseiten zu beurteilen und zu überlegen, wie können die für verschiedene Suchern Fragen relevant sein und das sind nicht Sachen, die sich von einen Tag auf den anderen verändern oder wo unsere selbst die Qualiator Mitarbeiter da hingehen würden und sagen würden, diese Website muss jetzt die zwei, drei Sachen können unsere Algorithmen das wieder ein bisschen besser einstufen. Was aber durchaus hilfreich ist, ist, wenn wir Feedback von euch haben von den Webseitenbetreiber selber oder auch von Benutzern selber wo wir wirklich das Ganze ein bisschen auch nach empfinden können und nachsehen können für diese Suchanfragen die eigentlich relativ wichtig sind, zeigen im Moment schlechte Ergebnisse weil wir diese Webseiten nicht mehr zeigen in den Suchergebnissen, aber nicht mehr so relevant zeigen in den Suchergebnissen und das sind dann das dann Feedback, der wichtig ist für das Qualitätsteam, die das dann auch anschauen kann, sagen kann, ja unsere Quality Raiders testen zum Beispiel das jetzt, gezielt nicht vielleicht müssen wir das in unseren Tests aufnehmen, vielleicht müssen wir mehr solche Beispiele haben damit wir in Zukunft die Algorithmen feintun können damit das ein ganz ein bisschen besser gerannt hat wird und manchmal ist es auch besonders schwierig wenn das nicht in Englisch ist wenn unsere Algorithmen das vielleicht nicht 100%ig so verstehen wie jemand aus Deutschland oder jemand der Deutschsprachig ist das verstehen würde und da ist es besonders wichtig, dass wir da irgendwie Feedback auch haben für das Team Ihr habt das aber schon jeden Tag eine Seite wie gesagt, die hat für einen Keyboard wie Gürtelrose sehr lange, sehr viele Jahre, sehr gut ranked auf 1 und auf 2 und jetzt auf einmal Bums weg der Content ist ja offensichtlich in dem Artikel nicht so schlimm oder nicht schlecht, weil der war ja jahrelang gut bewertet von Google, das heißt also wie stellst du dir das vor durch den Algorithmus dass der plötzlich sagt, dieser Artikel Gürtelrose ist jetzt so schlecht dass er auf 17 ranked das kann sich schon verändern aber ich meine dass der Qualitätsempfinden und die Benutzerbedürfnisse die verändern sich auch im Laufe der Jahre auch wenn die Webseite sich überhaupt nicht verändert hat denke ich, ist das eigentlich schon zumindest denkbar dass das Ranking entsprechend auch sich verändert im Laufe der Jahre manchmal ist es so, dass es sich auch lange aufstaut und auf einmal kommt dann quasi der durchbrochene Entwicklung, dass wir das besser sehen können und dann gibt es eine größere Veränderung in den Suchergebnissen aber also für 1000 Keywords auf einmal das ist ja nicht so, dass ein Content dann irgendwie, ja ich akzeptiere das was du sagst, das ist natürlich nicht abonniert es oben auf 1, auf 2 aber wenn dann 1000 Keywords auf einmal ruckartig runtergehen, so wie ein Abriss einer tektonischen Platte dann ist ja schon, da ist offensichtlich auf einmal sehr groß passiert ja das heißt man ändert jetzt was in der Seite und was macht man dann um zu wissen ob es funktioniert oder nicht, man muss ja warten aber man weiß ja gar nicht ob das irgendwann mal sich korrigiert was ich da empfehlen würde, ist wirklich die Quality Guidelines genau durchzuschauen und zu überlegen was könnte man machen, dass man wirklich ein bisschen mehr in die Richtung geht, wo nach gefestet wird und das es kann sein, dass ihr schon sehr viele Sachen macht, vielleicht gibt es auch andere Sachen die ihr im Moment nicht macht, die man da auch übernehmen könnte und das ist meistens sind das dann nicht technische Sachen, dass man sagt, gut ich hab jetzt, ich weiß nicht, H1 verwendet statt bold, statt strong und dann sind da wirklich auch gesamtheitliche Sachen, dass man sagt wenn man die Seite anschaut, sieht man dass die seriös ist, da sind saubere Informationen zu den Autoren dabei, da kann man ein bisschen nachvollziehen wo das Ganze zusammenkommt, man versteht auch warum diese Inhalte quasi veröffentlicht werden also die Sachen die in den Quality Guidelines so auch entsprechend erwähnt werden würde ich auf jeden Fall mal durchgehen aber das Ding Wann warten, als wenn man was geändert hat, einfach abwarten? Ja ja es gibt ja nicht irgendwie einen fixen Moment, dass man sagen kann so, ich hab meine Website grundlegend verändert Googlebot muss jetzt die gesamte Website neu überprüfen was einfach auch passieren kann auf unserer Seite ist, dass wenn wir erkennen können, dass grundlegend etwas sich verändert hat auf einer Website dass Googlebot dann ein bisschen schneller crawled und sich quasi versucht diese Website neu aufzunehmen in unseren Systemen möglichst schnell, damit man da nicht so in diesem quasi Zwischenstadium steht, dass einige Sachen jetzt neu reflektiert werden im Index und andere Sachen sind noch mal im alten Zustand Okay, letzte Frage dazu Kann das an zu viel Werbung liegen? Das kann auch sein Ja, okay, schönen Dank Ja, ich würde mich da gerne kurz einmischen. Okay Ja, ich hab gemerkt, also ich hab's gerade gesehen seit August ist das ja bei euch und ich hab halt auch so seit August auch so Probleme irgendwie und ich hab halt immer mehr gesehen, wenn man eine Seite für ein Thema hat dass das wirklich was bringt ich hab gerade geguckt nach der Gürtelrose ich hab ja glaube ich 42 Seiten ich hab jetzt nun Zeit in Abfrage gemacht und vielleicht ist da irgendwie so der Hund begraben dass ihr zu viel über das Thema schreibt wenn mich eine Seite hat eine ausführliche Seite irgendwie ja, das kann natürlich sein da bin ich natürlich dran, wie gesagt ich berate die Firma gerade erst seit Februar und das heißt, ich guck mir das alles an aber es gibt tatsächlich, es gibt Forum-Einträge dafür, weil Leute im Forum eben gefragt haben, was ist Gürtelrose und wie geht's da hin und man kriegt das nicht alles so eingefangen und es gibt Medikament dagegen da sind Medikamenten-Seiten dafür es gibt Seiten, die zum Beispiel wenn du über Krebs schreibst dann ist das ein Flächenthema sehr, sehr kompliziert auf eine Seite das zu fassen die Bildergalerie gibt es und so weiter aber gut dahin war es, vielen Dank ja, danke okay was haben wir noch okay schauen wir mal die nächsten Fragen an das Mobile Friendly-Testing-Tool zeigt uns sonst die Gefehler für manche CSS-Files was bedeutet das wir haben die Files überprüft und die funktionieren auch über Abruf wie durch Google funktioniert das sollen wir hier eher dem Mobile Friendly-Test oder Search Console vertrauen normalerweise was da passiert ist, dass wir so ein Time-Out haben für diese einzelnen Unterseiten, dass wir die dann einfach nicht alle holen können das heißt, gerade mit dem Mobile Friendly-Test mit den anderen Test-Tools die wir haben versuchen wir möglichst schnell ein Ergebnis für Benutzer zu bringen und das bedeutet dass wir einerseits die HTML-Seite aufrufen müssen andererseits alle eingebundenen Seiten entsprechend aufrufen müssen und wir haben Optimierungen auf unserer Seite die versuchen zu vermeiden dass wir irgendwelche Server überlasten kann es sein, dass wir nicht alle Unterdateien sofort holen können gerade für den Mobile Friendly-Test für die anderen Tests auch und dementsprechend sieht man das dann auch so im Testing Tool in der Praxis für die Indexierung bei Google ist es so, dass wir sehr stark mit gecacheden Dateien arbeiten, das heißt auch JavaScript CSS-Dateien können wir im Cache halten, auch wenn die in den Suchergebnissen direkt erscheinen und dementsprechend ist das viel weniger ein Problem dort, das heißt wenn wir eine HTML-Seite haben die auf verschiedenen CSS-Dateien verweist dann haben wir diese CSS-Dateien schon mal im Cache dabei dann können wir diese HTML-Seite sehr schnell renderen und für die Indexierung sehr schnell weiterverwenden ohne dass wir jedes Mal alle diese CSS-Dateien aufrufen müssen wenn wir jedes Mal alle CSS-Dateien frisch abfragen müssten vom Server dann würdet ihr in euren Serverlogs nur noch CSS und JavaScript-Dateien sehen und sehr wenig eigentliche HTML-Dateien und eben für den Testing Tool müssen wir diese Optimierung ein bisschen anders schieben und sagen gut, wir möchten möglichst alles frisch haben lieber nichts vom Cache verwendet damit wir den neuen Zustand zeigen können wie diese Seite jetzt haben würde dass man sie jetzt ganz frisch indexieren würde und deswegen gibt es da so diesen leichten Unterschied und dann manchmal auch eben diese Fehler im Testing Tool wo dann steht gut diese Dateien habe ich jetzt nicht abfragen können was man machen könnte in solchen Fällen ist zu überlegen wie kann man vermeiden dass man möglichst oder dass man, wie kann man minimieren wie viele Dateien für das Aufrufen einer Seite gebraucht werden das sind ja auch Optimierungen die man für Geschwindigkeit allgemein machen könnten dass man CSS-Dateien zusammennehmt dass man JavaScript zusammennehmt dass man diese Dateien komprimiert minimiert dass sie möglichst wenig Platz brauchen so dass wenn jemand auf diese Seite geht dass möglichst wenig CSS-Dateien separat noch aufgerufen werden müssen dann lebt die Seite auch schneller dann können die Testing Tools das auch ein bisschen besser verarbeiten aber ich würde grundsätzlich würde ich sagen lohnt es sich nicht die Seiten für die Testing Tools zu optimieren, sondern wirklich eher aber für den Endbenutzer entsprechend optimieren und dann nicht irgendwie künstlich diese Dateien alle zusammenfassen nur damit man mit dem Mobile Friendly Test diese Seiten vollständig durchtesten kann sondern wirklich überlegen was macht Sinn welche Geschwindigkeitsoptimierungen sind für mich jetzt Nachbar und in vielen Fällen sind die dann auch reflekiert bei den Testing Tools aber ich würde es eher in Richtung Benutzer ausrichten statt für die Testing Tools dann eine Frage zu Redirect ob wir mehr als fünf Schritte auch beim Redirect Crawl also es funktioniert bei uns so das heißt wenn Googlebot eine Seite versucht aufzurufen dann werden bis zu fünf serverseitige Redirect direkt verfolgt und nach dem fünften Schritt sagt Googlebot erstmal gut ich habe jetzt keine Lust mehr unendlich viel Redirect durchzugehen ich schau mir das das nächste mal an das heißt wir folgen fünf Redirects und dann das nächste mal wenn wir diese Seite crawlen gehen wir dann ab der fünften Stufe quasi weiter und gucken wie weit wir da kommen das heißt es ist nicht so dass wir diese Seiten nie finden aber wir finden sie nicht so schnell wie wenn sie direkt verlinkt werden längerfristig ist das weniger problematisch weil wenn wir einmal eine Redirect Zielseite gefunden haben können wir die Zielseite auch direkt crawlen das heißt wir müssen ja nicht jedes mal die ganze Schlange an Redirects durchgehen das heißt wenn ich zum Beispiel von irgendeiner beliebigen alten URL mehr als fünf Schritte brauche zu einem neuen URL zu kommen dann ist das einmal ein Problem für uns aber längerfristig ist das kein Problem das heißt wenn ich htdp dann auf wbw und dann von wbw auf htdps und von htdps dann auf nicht wbw und dann auf einen anderen Domain klar im ersten Moment ist das folgen von einer solchen Kette problematisch für uns aber längerfristig ist das unproblematisch das heißt nur weil man irgendwo ein sechstufiger Redirect Kette findet zu meiner Website ist das kein Grund dass wir diese Seiten nicht indexieren will Google Plus wird abgeschaltet und die Konten werden Anfang April gelöscht wie geht es mit den deutschen Webmasters Beststunden weiter ich weiß es noch nicht gute Frage auf jeden Fall müssen wir uns bis dahin etwas Neues überlegen weil ohne Google Plus ist es schwierig Fragen einzureichen aber wir finden schon noch was ist ja noch eine Weile hin ist er sogar noch länger als der Brexit das heißt man kann sich da noch was überlegen ja gut Zeit vergeht aber immer schneller als man denkt wenn einer von euch irgendwelche Ideen hat dann können wir das gerne mal anschauen wir haben mal versucht über Twitter das ganze zu machen aber das wäre recht unübersichtlich man kann dann die Fragen auch nicht so genau stellen aber vielleicht gibt es eine Variante die man da machen könnte irgendwas werden wir schon finden auf jeden Fall denke ich nicht dass wir die Webmastersprechung in den Fallen lassen wobei es kein Google Plus mehr da ist aber überall wo ist dann der Link das dann beitreten kann im Hangout ja das kommt ja auch noch dazu einerseits die Fragen das Abstimmen auf den Fragen und der Link und Feedback ja weiß ich nicht vielleicht kann man das auch direkt bei YouTube in YouTube Kommentaren machen weiß ich nicht wir probieren sich das Produktvorhaben im Vorhaben könnte man auch machen ja es ist natürlich schwierig irgendwas zu finden was einigermaßen unübersichtlich ist und einfach auffindbar ja Produktvorhaben Marsha okay wir haben noch ein paar Fragen dabei lange Fragen aber nur noch paar Minuten wie sieht es von eurer Seite aus was steht noch an womit kann ich helfen ich hatte noch eine EdgeWareFland Frage okay oder ein Problem was ich gefunden habe also ich habe meine Österreich, Schweiz und deutschen Seiten kanalisiert auf die deutsche Version und EdgeWareFland geschaltet zwischen den Versionen jetzt ist es so dass die vier kleinen Links unter dem Snippet zum Beispiel in der Schweiz wenn ich nach der Firma Google dann in den deutschen Shop gehen also dass da irgendwie ein Problem ist weil ich gemerkt habe wenn es diese langen Seiten gibt dann erscheinen ja auch SightLinks kennst du das Sprungmarken und da funktioniert das richtig einmal gibt es SightLinks die nicht funktionieren also Sprungmarken gehen aber die anderen nicht kannst du mir vielleicht ein paar Beispiele mal zuschägen ich kann das mit den vielen anschauen per E-Mail dann alles klar und da soll ich noch die nächste Frage machen ich habe eine Frage zum Handling von Googlebot bei RBTesting ist es okay ihn davon auszusperren oder wer das als Quoting bewertet grundsätzlich sollte Googlebot die gleichen Inhalte sehen wie normale Benutzer das heißt normalerweise würde Googlebot auch in die RBTests irgendwie hineinfallen und irgendwie ausgeführt werden aus unserer Sicht ist es aber so dass zumindest vom Web Spam Team her dass sie da auch Verständnis für solche RBTests haben und wenn längerfristig diese RBTests an und für sich sich irgendwie auflösen ich habe jetzt gefunden welche Variante die besser ist und ich nehme die beziehungsweise wenn die Inhalte von diesen RBTests so weit equivalent sind das heißt das Benutzerbedürfnis wird erfüllt in der gleichen Art und Weise in beiden dieser Tests dann ist es auch sonst was ich kein Problem schauen würde diese Website müssen wir aus dem Index sperren sondern das sind solche Tests und Personalisierung ist eigentlich normal und damit können wir auch leben ich würde einfach schauen dass es längerfristig abgeschlossen ist dass man eine Variante genommen hat und dass die Variante dann wirklich auch überall verwendet wird aber wenn man damit man saubere Tests haben möchte googlebot erstmal da aussperren will ist das nicht wirklich ein Problem okay da machen wir da vielleicht mal eine Pause wie gesagt sind noch weitere Fragen wenn ihr wollt könnt ihr die gerne in Hilfeforum posten beziehungsweise beim nächsten Hangout aufbringen sind ihr noch auf google plus dann hänge ich sicher noch die nächsten paar Hangouts dort hinein dann können wir das nächste mal auch anschauen okay vielen Dank fürs kommen vielen Dank für die vielen Fragen und der Kommentar war zwischen euch ich hoffe das war für euch auch viel freig und dann sehen wir uns in der nächsten Hangout vielleicht wieder tschüss allerseits tschüss