 Okay, herzlich willkommen bei den heutigen Webmaster Central Sprechstunden Hangouts. Mein Name ist Johannes Müller. Ich bin Webmaster Trends Analyst hier bei Google in der Schweiz. Und ein Teil von dem aus Remarkten sind solche Webmaster Hangouts, wo man Fragen stellen kann, wo wir mit Publisher und Webmaster in Zusammensprechen schauen, wo vielleicht Probleme oder Unklarheiten sind. Ah, der Atman. Okay. Wie immer, wenn einer von euch schon mal anfangen möchte mit den ersten Fragen, könnt ihr gerne loslegen. Sonst schauen wir dann nachher einfach die Fragen an, die schon mal eingereicht worden sind. Gibt es irgendwas auf eurer Sicht, was wir unbedingt noch anschauen müssten? Nichts? Okay. Vielleicht kommt ja nachher noch. Dann schauen wir mal kurz hier rein, was da alle schon ... ... drin ist. Ist der Click-Fahrt auf der Werbung wichtig für Google Rankings, beziehungsweise sollten alle Produktzeiten in drei Klicks erreichbar sein? Müssen nicht. Also, Click-Fahrt, nehme ich an, ist einfach die Schritte, die man braucht, bis man die einzelnen Seiten findet von vielleicht einer Startzeit oder einer Landing-Page aus. Und an und für sich ist es nicht so, dass wir da auf eine bestimmte Anzahl achten. Aber was natürlich passiert ist, dass wenn etwas sehr weit verschacht und innerhalb einer Weltzeit ist, dann ist es schwierig für uns das zu finden. Und dann ist es schwierig für uns zu merken, dass sich da jetzt vielleicht etwas Neues da befindet oder sich etwas verändert hat. Und dementsprechend kann es auch sein, dass wir diese Seiten nicht so häufig crawlen. Und damit könnten wir vielleicht auch annehmen, dass vielleicht sind die Seiten nicht so wichtig innerhalb der Website, wenn sie so quasi versteckt sind innerhalb der Website. Das heißt, ich würde darauf achten, dass die wichtigen Inhalte wirklich schnell erreichbar sind, dass man sehr schnell zu denen kommt. Einerseits hilft das Google, andererseits hilft das Besucher natürlich auch, wenn sie irgendwann auf eurer Website landen und schnell zu den wichtigsten Kategorien-Seiten kommen können oder schnell zu gewissen Produkten kommen können, die ihr besonders vertreibt, dann hilft das allen. Von dem her finde ich das eine gute Sache. Ich würde auch in die andere Richtung eher weniger raten, dass man Sachen jetzt eher weiter versteckt, weil die sind dann für uns dann vielleicht als weniger wichtig eingestuft. Man könnte weniger aufgecrawlt und Besucher finden, die dann auch weniger schnell sind. Angenommen, der Webmaster kann mit der Index- und Canonical-Einstellung sicher umgehen, sollten dynamische Filterseiten, inklusiv dem Fragezeichenparameter auf No-Index Canonical Tag oder besser auf Index- und Canonical Tag gestellt werden. Man könnte beides machen, sage ich mal. Was für uns immer ein bisschen schwierig ist, ist, wenn gegensätzige Anweisungen auf den Seiten vorhanden sind, das ist zum Beispiel der Fall mit einem No-Index und Canonical zusammen. Mit dem Canonical verweist man ja dann meistens auch eher auf einer Seite, die ein Index-Tag hat, sonst würde man ja nicht damit arbeiten und zu sagen, all meine Signale soll man dann die andere Seite weitergeben. Man sagt ja dann quasi mit dem Canonical Tag, diese Seiten sind equivalent für uns, sind das die gleichen Seiten wir, würden aber lieber diese andere Seite indexiert haben. Aus unserer Sicht ist es dann aber so, dass die eine Seite hier steht explizit drauf, die darf nicht in den Suchergebnissen erscheinen und die andere Seite soll in den Suchermaschinen Ergebnissen erscheinen und das ist ja ziemlich großer Unterschied. Das heißt, es sind ja eigentlich doch nicht equivalent, sondern ihr habt da wirklich gezielte Vorstellungen. Und von dem her kann es manchmal vorkommen, dass unsere Systeme nicht genau wissen, wie man damit umgehen soll, wenn ein No-Index plus Canonical zusammen ist. Das heißt, theoretisch wäre es besser mit indexieren lassen plus Canonical oder vielleicht besser mit dem Redirect, wenn das machbar ist, bei Filter Seiten kann man ja nicht mit dem Redirect arbeiten. Wir können aber in der Regel auch mit No-Index und Canonical Tag umgehen. Das heißt, wenn andere Suchmaschinen Probleme haben mit Index und Canonical, dann kann man sich so ein bisschen abstützen. Okay, vielen Dank, wenn ich da kurz einhaken darf. Ja. Wenn wir jetzt allerdings das Scroll-Budget, wenn wir das minimieren wollen und dadurch auch einen Robots Text-T, sogenannte ja solche Filterparameter Seiten ausschließen, dann wollen wir ja eigentlich auch, dass der Scroller die Seiten nicht nur scrollt, sondern auch nicht indexiert, falls er sie scrollen sollte durch die interne Verlinkung, wo er dann mal drauf kommen könnte. Und dann haben wir auch gedacht, naja, wenn wir das nicht indexieren wollen, wenn wir es nicht scrollen wollen, stellen wir es lieber auf No-Index und setzen Canonica. Also es wäre aus deiner Sicht dann auch kein Problem, wenn wir es so angehen würden. Ja, es ist einerseits so, dass mit No-Index wird das Scroll-Budget gar nicht verändert. Das heißt, wir scrollen die Seiten ja weiterhin und sehen dann den No-Index. Mit dem Canonical ist es so, dass es längerfristig das Scroll-Budget natürlich verschiebt, dass wir sagen können, gut, die andere Seite ist eher die wichtiger, aber wir scrollen die doppelten, die gefilterten Seiten vielleicht ab und zu, aber nicht so häufig wie jetzt die Canonical Version. Also da hilft es ein bisschen. Mit Robots Text, wenn man zusätzlich damit arbeitet, dann sehen wir den Canonical Tag und die Index Tag überhaupt nicht, dann wissen wir ja gar nicht, was wir da machen sollen. Das heißt, gerade für Duplicate Content würde ich nicht empfehlen, mit Robots Text zu arbeiten, sondern eher mit Canonical. Mit Robots Text würde ich erst in so einer Situation arbeiten, wenn das Crawling effektiv Probleme verursacht. Wenn jetzt so viel Filtervarianten davor handeln sind, wenn der Server total überlastet ist wegen dem, dann würde ich das mit Robots Text ausschließen, damit man wenigstens ein Teil normal crawlen kann und normal indexieren kann. Okay, vielen Dank. Wird es aus Google Sicht empfohlen, die Sign-Up in kompromierter Version oder unkompromiert bereitzustellen? Für uns ist es total egal, auch ob ihr mit einer Sign-Up-Datei arbeitet oder Sign-Up Index oder mehreren Sign-Up-Dateien, ob ihr das irgendwie aufteilt, dass vielleicht nur zehn URLs pro Sign-Up-Datei vorhanden sind, das ist euch vollkommen überlassen, das könnt ihr machen, wie ihr wollt. Auf unserer Seite werden all die URLs, die so reinkommen, in den gleichen Topf geschmissen und da verarbeitet, von dem her ist es euch überlassen, was bei euch am besten funktioniert bezüglich der Sign-Up. Seit einigen Tagen ist die neue Bildersuche in Deutschland aktiv, in der Search Console wird als Click für den Bildersuche nur noch der Besucher, der Besuch der Webseite gezählt, zum Beispiel über den Button-Seite besuchen, was es mit dem Button-Bild ansägt. Das ist eine gute Frage. Da weiß ich jetzt effektiv nicht auf Anhieb, wie das gezählt wird. Da muss ich mit dem Team mal Rücksprache nehmen, schauen, wie das aussieht. Wenn ich zum Beispiel in WordPress mit einem A-B-Test plug-in zwei verschiedene Titel oder andere Inhalte, wie verschiedene Newsletterformulare teste, was halt Google davon, wenn sich der Inhalt so verändert, ist von A-B-Tests allgemein abzuraten, oder ist das kein Problem? In der Regel ist es überhaupt kein Problem. Wichtig ist für uns, dass ihr Google-Raten nicht irgendwie gesondert behandelt und wichtig ist auch für uns, dass die A-B-Tests irgendwann mal abgeschlossen werden oder sich quasi in eigenem Zustand einpendeln. Das ist an und für sich so auf unserer Seite, was da passieren kann, ist, wir sehen dann vielleicht diese beiden Varianten, wir indexieren dann vielleicht einmal die Variante, einmal die andere Variante. Wenn man mit der gleichen URL arbeitet, können sich die Inhalte ja so verändern. Wenn die Inhalte aber weitgehend equivalent sind, wenn ihr Sachen einfach ein bisschen verschiebt, andere Titel verwendet, andere Layouts zum Beispiel verwendet, dann sollte man eigentlich in den Suchergebnissen relativ wenig davon sehen. Wenn die Varianten sehr unterschiedlich sind, das heißt, einmal habt ihr vielleicht nur ein großes Bild oder ein Video und das andere Mal habt ihr eine Text-Website, dann kann es natürlich sein, dass je nachdem, welche Variante indexiert wird, dass man da auch Unterschiede sieht. Manchmal machen Websites solche Tests auch explizit bezüglich Google und sagen, wir wollen jetzt mal testen, welche Variante besser in den Suchergebnissen erscheint, welche Variante vielleicht vom Click-to-Rate her besser sind in den Suchergebnissen, welche Varianten im Ranking besser funktionieren und so könnte man theoretisch auch mit AB-Tests arbeiten. Aber auf jeden Fall würde ich davon nicht abraten. Ich denke, das ist immer eine gute Sache, wenn man sich hinterfragt und sagt, ist das, was ich mache, wirklich das Beste? Oder gibt es vielleicht andere Varianten, die noch besser funktionieren? Wenn man ständig weitertestset, dann kann man die Website immer wieder ein bisschen verbessern. Gibt es ein Limit bei Verwendung von Sonderzeichen? Beispielsweise Schweiz mit Anführungsstrichen oder mit eckigen Klammern werden alle beim Crawling entsprechend berücksichtigt. Ich bin mir da nicht bewusst, dass da irgendeine Begrenzung geben würde. Also zumindest auf der Crawling- und Indexingseite in den Suchergebnissen dass wir die Website nehmen, wie sie kommen. Manche Seiten haben sehr viele Sonderzeichen. Manche Seiten haben sehr wenig Sonderzeichen. Es ist allen für sich euch überlassen. Was natürlich ein Einfluss haben kann, ist, wenn man Sonderzeichen in die Wörter hinein nimmt und Benutzer nicht nach diesen Sonderzeichen suchen. Wenn ich z.B. mit dem R-Zeichen arbeite und ich verwende, das immer um ein A-Buchstaben auszutauschen in meinem Text, dann sieht das für Google einfach ein bisschen komisch aus. Und sehen wir da nicht die gleichen Wörter, die Benutzer verwenden, um auf diese Seiten zu kommen. Und da kann es natürlich sein, dass wir die Seiten 2 indexieren mit den Sonderzeichen. Aber weil Besucher nicht nach dieser Variante suchen, schreiben wir sie auch nicht in den Suchergebnissen. Aber jetzt nur bezüglich Anführungssträcher und eckigen Klammern und normalen Klammern, Kommas und all solchen normalen Satzzeichen sehe ich überhaupt keine Probleme. Auch wenn ich jetzt Emoji oder solche Sachen noch dazu nehme, um die Seiten ein bisschen zu gestalten. Ich nehme an, Benutzer finden die Seiten nicht, wenn sie nach diesen Zeichen suchen. Aber es stört uns nicht beim Erkennen von den restlichen Benutzer. Wir stellen unsere Domains auf HTTPS um und haben nach mehreren Checks keine technischen Probleme festgestellt. Aber wir verlieren an Traffic. Was könnte man da machen, um das zu verhindern? Ich weiß nicht, müsste ich die Website mal anschauen. Ihr könnt mir gerne solche Websites mal zuschicken. Ich schaue gerade bei HTTPS Umstellungen, schaue ich das gerne mit dem Team an. Weil das ist für uns ein wichtiges Thema. Wir haben jetzt, ich denke, im letzten Jahr sehr viele Anpassungen gemacht bezüglich HTTPS Umstellungen um die möglichst schmerzlos zu machen für Webmaster. Und das sollten eigentlich bei einer normalen Umstellung von HTTPS und HTTPS sollten da eigentlich keine großen Schwankungen auftreten. Das sollte eigentlich soweit funktionieren. Was natürlich immer passieren kann, ist, dass vielleicht irgendwas technisches vergessen geht. Oder was auch passieren kann, ist, dass unsere Systeme vielleicht allgemein einfach die Website ein bisschen anders einstufen inzwischen. Und das ist dann weniger ein Zusammenhang mit der HTTPS Umstellung, sondern vielleicht einfach allgemein wir haben unsere Systeme leicht verändert, unsere Ranking Algorithmen leicht verändert und jetzt würden wir die Website ein bisschen anders einstufen. Und das ist dann nicht unbedingt eben aufs HTTPS bezogen, sondern einfach allgemein auf die Website. Aber ich schaue solche Fälle gerne an. Wenn du mir die URL zuschicken kannst, zum Beispiel über Google Close oder Twitter, dann kann ich das mal hier anschauen. Und nachschauen, ob es da irgendwas gibt, was man machen kann. Ich glaube, die gleiche Frage kommt von Erik hier auch. Wir haben auf HTTPS umgestellten, dadurch alle guten SEO-Positionen verloren. Eigentlich hätten wir mit einer Verbesserung gerechnet. Eben wie gesagt, da schaue ich gerne die Beispiele mal an, um zu sehen, ob es da irgendwas auf unserer Seite gibt, was da vielleicht nicht optimal abgelaufen ist. Die Frage geht dann auch weiter wegen Custom Search. Ich glaube, da hast du letztes Mal nachgefragt. Ich habe hier mit dem Team mal Rücksprache genommen, gerade bezüglich den anderen größeren Websites, die auch die Google-Suchergebnisse quasi verwenden. Ich glaube, das war Theonline oder so etwas. Und aus Ihrer Sicht ist es so, dass die keine normale Custom Search Engine verwenden. Das heißt, wie Sie das Handhaben mit dem Ranking ist ein bisschen speziell und an und für sich Ihnen überlassen und nicht eine Sache, die wir auf unserer Seite machen würden. Ich habe auch hier auf meiner Seite kurz ein Custom Search Engine erstellt und finde jetzt die Seiten, die du das letzte Mal angegeben hast, die nicht da drin normal sind. Von daher denke ich, dass da nicht irgendwas Spezielles gemacht wird, zumindest auf unserer Seite bezüglich dieser Websites. Aber wenn das jetzt gerade die Microscope Center Website ist, die auch die HTTPS Probleme hat, kann ich das gerne mal anschauen mit dem Team, was es sein könnte dort. Bei einem Projekt haben wir derzeit damit zu kämpfen, dass wir Links aus aller Welt bekommen. Zirka drei bis fünf Domains pro Woche, die den ganzen Content mit komischen Links versehen. Die Links sind in Search Console sichtbar und die Linken mit DoFollow. Unser Disavowal-Liste wächst und wächst. Dennoch müssen wir feststellen, dass das Projekt ständig an Sichtbarkeit verliert. Was kann man dagegen machen? Ist es wirklich ausgeschlossen, dass negativ SEO funktioniert? In der Regel, wenn man jetzt die Domains in die Disavow-Datei hinein nimmt, das ist relativ schnell gemacht. Man kann einfach einen Eintrag mit Domain und dann den Domainnamen machen. Da muss man gar nicht die einzelnen Links anschauen. Dann werden diese Links bei uns wirklich komplett aus den Ranking-Algorithmen herausgenommen. Werden 140 so behandelt wie No-Follow-Links. Das heißt, wenn sie im Disavowal drin sind, dann werden die garantiert nicht verwendet für die normalen Suchergegnissen. Das heißt, wenn da irgendwelche Veränderungen in der Sichtbarkeit stattfindet, dann wäre das nicht in Bezug auf diese speziellen Links, sondern vielleicht einfach mehr allgemeine Veränderung mit der Sichtbarkeit. Was ich da vielleicht machen würde, ist im Webmaster-Hilfe-Forum nachfragen, den Domainnamen vielleicht angeben, einige der Suchergebnisse, sodass man das auch gezielt mal anschauen kann und überlegen kann, was man da vielleicht machen kann, um das... Uch, was passiert da? Um die Webseite ein bisschen zu verbessern. Ach, wie schaltet man das jetzt aus? Okay. Eine Frage zum Canonical-Tag. Im Beispiel bekommt MSN vom Business Insider Perfey die News zugespielt. Die Webseite nimmt den Canonical-Tag drauf, aber trotzdem erscheint sie in den Suchergebnissen. Was ist da los? Ich müsste das wahrscheinlich ein bisschen genauer anschauen mit dem Team hier, was da jetzt in diesen speziellen Fällen passiert. In der Regel ist es so, dass gerade mit dem Canonical-Tag müssen wir erstmal die Seite quasi vollständig indexieren und verarbeiten, damit wir den Canonical-Tag sehen und damit wir den Canonical-Tag auch weiterverfolgen können. Das heißt, es kann vorkommen, dass es einen gewissen Zeitrahmen gibt zwischen dann, wenn wir eine Seite finden mit Canonical-Tag und dann, wenn diese Seite effektiv auf den Suchergebnissen herausfällt. Das könnte vielleicht besonders sichtbar sein, gerade bei so Neuigkeiten. Ich weiß nicht, ob das jetzt effektiv da der Fall ist in diesem speziellen Fall. Wenn du weitere Beispiele hast, die so ähnlich sind, dann wäre ich froh, wenn du sie mir zuschicken könntest. Einerseits die Suchbegriffe und dann auch die beiden URLs, die da vorhanden sind, damit wir das ein bisschen anschauen können und überlegen können, ob wir das ein bisschen anders handhaben müssen oder ob da vielleicht in diesem speziellen Fall irgendetwas nicht ganz sauber läuft. Zum Thema Featured Snippets in Form von Tabellen kann es sein, dass wenn zwei Seiten die exakt gleiche Tabelle haben, also auch das HTML identisch ist, ihr dazu neigt, die Seite auszuspielen, die nicht auf Platz eins ist. Meines Wissens passiert das nicht. Meines Wissens ist es so, gerade mit Featured Snippets ist es so, dass wir die Seite einfach allgemein anschauen und es ist dann nicht nur eine Frage von diesem kurzen Abschnitt, wo vielleicht die Tabelleninhalte vorhanden sind, sondern auch dem Rest der Seite. Das heißt, es ist nicht so, dass wir dann gezielt sagen, ah, das ist an Platz eins, deswegen nehmen wir das, was an Platz drei oder vier ist und nehmen das als Featured Snippet dazu. Manchmal kann das passieren, dass wir einfach etwas nehmen, was weiter unten in den Suchergebnissen ist. Aber das ist nicht, eine Frage zu den verschiedenen Render-Optionen bei AngularJS Webseiten, gibt es nicht einen Einsatz von ReactJS noch weitere Optionen, welche Wunschkonfiguration hat Google? Kannst du mir sagen, welchen Timeout das Board für das Render in einer Seite hat? Wunschkonfiguration, schwierig zu sagen. Wenn ich mit dem Indexing-Team, mit dem Rendering-Team spreche, dann sagen die, wir sollten das eigentlich alles verstehen können. Aus praktischen Gründen sehe ich aber oft einfach auch Schwierigkeiten, gerade bei der Kontrolle lokal, bei Untersuchung, beim Einsatz von eigenen Tools auf Seiten der Webmaster. Wenn die Seiten wirklich nur per Rendering sichtbar sind, dann ist es manchmal schwierig, dass man z.B. mit Screaming Frog oder mit anderen Crawler da rüber läuft und das Ganze untersuchen lässt. Von dem her, was wir an und für sich als Empfehlung haben, ist, dass man die Seiten gerendert ausliefert, und zwar für alle Benutzern, und so, dass quasi der erste Besuch auf der Seite wird, mit der gerenderten Version, wo quasi die normale HTML-Version ausgeliefert wird, auf der Seite, wenn der Benutzern weitergeht, wird der Rest quasi dann per JavaScript gemacht. Mir fällt jetzt das Wort nicht ein, wie das effektiv heißt, aber das ist etwas, was man einstellen kann, gerade bei, ich glaube, AngularJS heißt es jetzt Universal, Angular Universal, dass man das so quasi per Pre-Rendering ausliefern kann, bei anderen JavaScript-Frame-Works heißt das vielleicht ein bisschen unterschiedlich, aber das wehren für sich die optimale Situation. Das heißt, jedes Mal, wenn Googlebot die HTML-Seite aufruft, bekommt Googlebot die vollständige HTML-Version, wenn andere Suchmaschinen darauf zugreifen, sehen Sie auch die normale HTML-Version, Benutzern sehen auch schon die vorgerenderte Version und können dann quasi per JavaScript in Restern-Avigation auf der Webseite aufmachen. Ich habe im September-October ein Video aufgenommen von der Angular Conference in London, wo ich die verschiedenen Varianten auch mal angesprochen habe. Das würde ich vielleicht mal raussuchen und durchgehen. Bezüglich Timeout ist es so, dass wir kein Timeout-Explizit angeben, weil es sich das einerseits ein bisschen verändern kann und andererseits auch, weil der Timeout bezogen ist auf die Zeit, die es braucht um die Inhalte nachzuladen und gerade beim Rendering auf der Google-Seite ist es ja so, dass wir viele Sachen schon aus dem Cache holen können. Das heißt, die Zeit, die es braucht um die Seite zu renderen, entspricht nicht unbedingt der Zeit, die es braucht für einen normalen Benutzer, die Seite zu renderen, sondern in der Regel können wir das ein bisschen schneller machen. Wichtig, da ist vielleicht einfach, dass in Search Console gibt es ja die Funktion Fetch and Render, mit der kann man das sehr gut testen, ob wir die Seite laden können. Mit dem Fetch and Render ist es auch so, dass der Timeout ein bisschen strenger eingestellt ist. Das heißt, wenn es in Fetch and Render funktioniert, dann funktioniert es auf jeden Fall für den normalen Google-Board auch. Unser Thema betreibt einige Job-Plattformen auf dem gleichen Server. Wir stellen um ein Fahrtütevers. Seit der Umstellung sind die angezeigten Seitentitel in organischen Suchergebnissen ein bisschen verschoben. Das heißt, quasi die verschiedenen Job-Plattformen, die man betreibt, sind da ein bisschen durcheinander in den Suchergebnissen, nämlich anders. Das wird ja die Titel vielleicht vom einen Plattform auf dem anderen zeigen. Das kann es manchmal geben. Meistens kommt das daher, dass wir erkennen können, dass die Seiten wahrscheinlich gleich sind oder wahrscheinlich die gleichen Daten haben und dass wir dann ein bisschen verwehrt sind und nicht genau wissen, ja, wie hängt das zusammen? Ist das eine Website oder sind das unterschiedliche Websites, die wirklich getrennte Informationen haben? Meistens sieht man das oder sehen das unsere Systeme, zum Beispiel die eine URL aufrufen und merken, dass die gleiche URL an und für sich mit verschiedenen Hostnames auch funktioniert. Das heißt, ich weiß nicht, ob das jetzt der Fall ist in dieser speziellen Situation, aber wenn zum Beispiel ich einen Job habe, der in einem dieser Plattform vorhanden ist und eine besondere Idee hat, wenn ich die gleiche Idee bei den anderen Plattformen auch einsetzen kann und ich kriege genau die gleiche Anzeige, dann denken unsere Systeme, ja, das ist an und für sich die gleiche Website, die gleichen Inhalte sind ja auf den unterschiedlichen Websites vorhanden. Also können wir das auf eine Art oder Weise zusammenfassen. Was ich da vielleicht kontrollieren würde, ist wirklich, dass die URLs wirklich separat sind, dass man nicht eine URL beim anderen hineinsetzen kann und trotzdem irgendetwas liegt, sondern dass wenn eine Stelle in einer Plattform vorhanden ist, dass sie halt nicht bei den anderen Plattformen vorhanden ist oder dass zumindest sie ein eigenes Listing hat bei den anderen Plattformen, sodass wir wirklich erkennen können, die Sachen gehören jetzt wirklich nicht zusammen. Trotzdem finde ich das Ganze ein bisschen suboptimal auf unserer Seite. Das sollten wir da irgendwie vielleicht auch besser hinkriegen können. Das heißt, ich schaut jetzt mit dem Team mal an, ob es da irgendetwas gibt, was wir machen könnten, um das ein bisschen auf unserer Seite auch schon mal sauberer zu trennen. Wir haben mit einigen unserer Domains mit dem Country Targeting bei Ländern mit gleicher Sprache ein Problem. Das Problem liegt darin, dass zum Beispiel ARTE-Index Domain ARTE zeigt. Der Titel jedoch vom Domain DE angezeigt wird. Wenn ich dann Cash anschaue, dann ist für Domain ARTE, Domain DE abgebildet. Was kann man da machen? Was da normalerweise passiert, ist, dass wir mit dem hreflang trotzdem die richtigen URLs darstellen können, aber dass wir da vielleicht vom Indexing her die Inhalte zusammengefasst haben. Das passiert meistens dann, wenn die Inhalte effektiv gleich sind. Das heißt, wenn wir die DE Website anschauen und sehen, dass es eigentlich die gleiche Webseite, dann kann es sein, dass wir vom Indexing her einfach eines dieser Varianten indexieren und dass wir wissen über hreflang die verschiedenen URLs sind vorhanden. Wir zeigen die richtige URL an in den Suchergebnissen. Wir nehmen aber für das Indexing eines dieser Varianten, in dem Fall vielleicht die DE-Variante oder ARTE-Variante manchmal und dementsprechend zieht man dann vielleicht diesen Unterschied dann auch in den Suchergebnissen, dass die Titel für DE sind oder das vielleicht im snippet etwas von DE ist, obwohl das für ARTE dargestellt wird. Was ich da machen würde in einem solchen Fall ist, wenn das wirklich ein Problem ist für euch, wenn das wirklich die Suchergebnissen für euch nicht so gut darstellen lässt, würde ich wirklich schauen, dass die Seiten effektiv auch wirklich unterschiedlich sind. Und das ist manchmal nicht ganz so einfach. Manchmal lässt sich das schon irgendwie machen. Aber gerade wenn man will, dass die Titel und die Snippets unterschiedlich gehandhabt werden, muss man weggeschauen, dass die Seiten wirklich klar nicht zusammenfassen können und klar sagen können, dass es die Seite für Deutschland, dass es die Seite für Österreich, wir müssen die separat indexieren, weil die Inhalte effektiv auch unterschiedlich sind. Und wenn wir das nicht haben, werden, muss man weggeschauen, dass die Seiten auch klar unterschiedlich sind. Ach, ich sehe da noch eine Frage im Chat, eine Frage bezüglich den Mobile Friendly Test. Hier gibt es eine Aussage, blockierte Ressourcen in Zusammenhang mit Conversion Tracking Scripts, hat die Aussage Auswirkungen auf das korrekt und vollumfängliche Tracking von Conversions. Wir haben den Webmaster dazu bei dass unsere Sicht ist das unproblematisch. Wenn Inhalte blockiert werden, die kein sichtbarer Elemente haben, die für das Indexing relevant sind, dann ist es also unserer Sicht okay. Dann stört uns das nicht, dann verpassen wir ja auch nichts auf dieser Webseite. Dann haben wir die vollständigen Inhalte, die wir normal indexieren können, dann ist das allen für sich ganz okay. Gerade Conversion Tracking Scripts, das sind ja allen für sich unsichtbar. Und von dem her, wenn die Perrobots Text blockiert werden, was ja oft einfach das Tracking auch einfacher macht, ist das vollkommen okay für uns. Seit einer Weile bin ich meine Homepage am Aufferten und habe für meine Kunden interessante Hochzeitslocations auf der Seite hinzugefügt, hat das negativen Einfluss, wenn ich bei jeder Seite zu einer Location das Wort Hochzeitslocation noch hinzufüge. An und für sich kann man das machen. Wenn das jetzt wirklich Inhalte sind, die relevant sind für die Webseite, für Besucher, kann man das auf jeden Fall machen, dass man da das entsprechend auch auf der Seite erwähnt. Ich würde einfach davon abraten, dass man einzelne Keywords einfach immer so gezielt überall platziert, so dass es sich dann einfach schlecht lesen ist. Unsere Systeme versuchen Keywords-Stuffing zu erkennen. Das heißt, wenn ich die Keywords einfach unnatürlicherweise oft wiederhole und versuchen das dann auch entsprechend zu ignorieren. Das heißt, wenn ich dann zu viel die Keywords auf den Seiten verwendet, sodass es wirklich kaum noch laserlich ist, dann hat man eher einen Nachteil davon, weil unsere Systeme dann denken, wir müssten jetzt aufpassen. Das Wort ist vielleicht doch nicht so wichtig, wie wir gedacht haben. Also ignorieren wir das auf dieser Seite. Von daher würde ich dazu raten, dass man wirklich die Inhalte so macht, dass sie gut laserlich sind. Natürlich für Benutzer ist das auch wichtig. Ein Tipp, den ich ab und zu höre, ist, dass man den Text z. B. laut vorliest, dass man sich überlegt, wie wäre es, wenn ich diesen Text einem Kunden am Telefon jetzt vorlesen würde. Könnte ich dazu stehen dass es die ganze Zeit grinsen. Das ist ein bisschen so eine Variante, das anzuschauen. Aus unserer Sicht ist es nicht so, dass wir die Wörter 5-mal wiederholt sehen müssen oder in verschiedenen Varianten sehen müssen auf der Seite. Wir können mit Synonym gut arbeiten. Wir verstehen, dass Hochzeit ist vielleicht der Ort, wo man verheiratet wird und können das dann auch entsprechend kombinieren und das wichtig ist einfach, dass man wenigstens einmal die Wörter auch erwähnt, für die man auch ranken möchte auf den Seiten, so dass man nicht in einer Situation endet, wo man eine sehr schön aussehende Seite hat, aber wo nie erwähnt wird, was man eigentlich macht oder wo nie erwähnt wird, wofür man eigentlich in den Suchergebnissen erscheinen möchte. Aber einmal ist an und für sich genug. Das heißt, ich muss da nicht immer wiederholen Hochzeitslocation oder Hochzeitsort und das so oft quasi wieder hineingregen, dass es dann schon unnatürlich wird. Wir haben Anfang November ca. 200.000 Din-Content-Produkte-Seiten auf No Index gesetzt. Bis heute kommt ca. 30% der URLs noch Organic Traffic an. Gibt es eine Möglichkeit, die Deindexierung solch einer Größenordnung zu beschleunigen, da wir weitere Top-level-Domains haben, bei dem wir auch den Contact deindexieren möchten? Ja, wie könnte man das am besten machen? Ich würde jetzt mal raten, dass es da einfach das Problem ist, dass wir mit dem Crawling nicht ganz nachkommen. Bei diesen Seiten, dass wir zwar relativ viel crawlen von dieser Webseite, aber dass wir diese ganzen No Index-Seiten nicht mehr neu gecrawled haben, das kann ganz normal sein. Bei 200.000 Seiten wäre ich aber der Meinung, dass wir das in kurzer Zeit eigentlich erledigen könnten. Dass wir da vielleicht innerhalb von ein paar Wochen diese 200.000 Seiten neu gecrawled hätte und dass wir die neu verarbeitet hätten. Was da vielleicht der Fall sein kann, ist, dass wir einfach sehr viel duplige Content auf dieser Webseite noch finden. Das heißt, es sind 200.000 Seiten auf No Index gesetzt worden, aber dazu gehören vielleicht zehnmal mehr Urals, die effektiv gecrawled werden müssen, um all diese Seiten zu finden. Das heißt, statt 200.000 Seiten sind das vielleicht 2 Millionen oder vielleicht noch mehr Seiten, die wir effektiv crawlen müssen, um all diese Seiten herauszuholen. Das heißt, das wäre das erste, was ich da vielleicht mal angehen würde, ist überlegen, was wird effektiv von Google gecrawled, welche Urals werden gecrawled, sind das die Urals, die für mich relevant sind, oder habe ich da vielleicht irgendwo etwas Wildes mit Parameter noch gebaut, dass ich da sonst nicht gesehen habe. Solche Sachen sieht man in Serverlogs. Da kann man dann ein bisschen untersuchen, was wird gecrawled, was ist effektiv wichtig für meine Webseite. Anderseits ist es wahrscheinlich auch so, dass wir schon vorher gesehen haben, dass diese Seiten nicht wichtig sind für diese Webseite. Und dass wir sie deswegen nicht so oft crawlen. Das heißt, das ist vielleicht auch ein bisschen eine normale Situation. Was man da machen kann, ist diese Urals auch in einer Sidemap-Platei hineinnehmen mit einem Änderungsdarkum, entsprechend dem neuen No-Index auf dieser Seite. So dass Google gezielt weiß, diese Urals, die sind mir bekannt, die wurden kürzlich verändert. Google soll mal losgehen und die jetzt mal neu crawlen, neu indexieren und überleben, was da gemacht werden soll. Wenn da ein No-Index auf diesen Seiten ist, kann man die natürlich auch aus dem Index auch herausnehmen. Und von dem her ist es nicht so, dass man in der Sidemap-Platei immer nur die Urals listen muss, die indexiert werden sollen. So man kann allgemein die Urals listen, die sich verändert haben. So dass Google dann hingeht und sieht, das ist vielleicht ein 404 oder da ist jetzt No-Index und so relativ, ein bisschen schneller diese Urals auch aus dem Index nehmen kann. Was ich vielleicht trotzdem noch dazu sagen muss, ist, dass wenn unsere Systeme schon vorher gemerkt haben, dass die Seiten nicht so relevant sind für die Website, dann ist es auch weniger problematisch. Das heißt, wir zeigen die wahrscheinlich nicht so oft in Suchergebnissen und konzentrieren uns wahrscheinlich schon vorher auf die normalen Haupturals stattdessen. Das heißt, es ist wahrscheinlich nicht so kritisch, dass man jetzt das Krampfhaft aus dem Index herausnehmen muss, sondern das kann man gezielt einfach laufen lassen. Die Arbeit habt ihr gemacht, die das No-Index setzen und wenn Google diese Urals neu verarbeitet, sei das jetzt nächste Woche oder in ein paar Monaten, dann die aus dem Index heraus und dann ist das auch soweit okay für uns. Okay, ich glaube, da haben wir fast ziemlich alle Fragen durchgekriegt. Gibt es noch weitere Fragen von euch? Vielleicht hier im Hangout? Ja, hallo, ich hatte eine Frage und zwar ich beschäftige mich im Moment mit Code-Text-Rate und da habe ich jetzt mit dem Anbieter unserer SEO-Software eine Situation gehabt. Da ging es um diesen above the fold Content wo man critical CSS in den Head der Seite schreibt. Dadurch wächst das HTML-Dokument natürlich extrem an, weil responsive Web-Design unheimlich viel mehr Regeln benötigt. Spielt das für Google heutzutage noch eine Rolle? Nein, an und für sich nicht. Der Code-Text-Ratio ist allgemein etwas, um meines Wissens gar keine Rolle spielt. Der einzige Ort, wo das eine Rolle spielen könnte ist, wenn eine Web-Seite extrem groß wird. Das heißt, wenn die HTML-Seite ich weiß nicht wo die Limite ist 10 megabyte oder 100 megabyte groß ist, dann ist das natürlich schon extreme HTML-Seite, dann könnte es sein dass unsere Systeme irgendwo sagen gut, ich weiß nicht wo die Limite sehr weit, hören wir auf die Seite herunterzuladen und konzentrieren uns auf den Rest, wie das indexieren. Aber wenn das eine normale HTML-Seite ist die ein paar hundert Kilobyte ist und deswegen vielleicht auf 150 Kilobyte oder 200 Kilobyte wächst, weil ich sehr viel CSS noch dazu packen, dann ist es aus unserer Sicht überhaupt kein Problem. Okay, danke für die Verantwortung. Okay, weitere Fragen. Kann man noch helfen? Ich hatte noch ein Problem und zwar in der Search-Konsol war mir das aufgefallen. Da waren auf einmal Seiten, wo ich page and renderen wollte. Da gab es dann Probleme. Kann das sein, dass wenn SVG-Dateien auf der Seite sind dass dann so eine Fehlermeldung kommt, dass die Roussource durch die Robotstecks blockiert war? Sollte eigentlich nicht. Also sollte zumindest nicht nach Datei-Art sein. Das heißt, gerade blockiert durch Robotstecks, sollte sich wirklich darauf beschränken, dass wir diese URL versucht haben zu holen, vielleicht ein Bild, oder ein SVG oder was auf Emma, und diese Roussource war per Robotstecks blockiert. Was aber, ich glaube, letzte Woche Größenordnung hat mir da ein Problem, je nachdem wie man die Seiten zusammengestellt hat, dass in page and render einfach nur Fehler stand und keine weiteren Fehlerinformation bei einigen Arten von Seiten. Ich weiß nicht, ob das vielleicht Situation war, wo ein SVG direkt auf der Seite integriert war. Und das haben wir inzwischen behoben. Weiß nicht, ob das vielleicht zeitlich zusammenpasst mit den Fehlern, die du da gesehen hast. Es scheint so zu sein. Da waren dann auch Bilder, die nicht angezeigt wurden. Das waren auch PNG-Dateien teilweise, wo dann die Alltexte gezeigt wurden. So sieht der Googlebot die Seite, aber dann in dem rechten Feld die Originaldarstellung, wie es auch jeder Besucher gesehen hätte. Das passte also. Okay, super. Okay, danke. Bei SVG-Dateien ist es so, dass wir in der Regel die als Bilder quasi auflesen. Das heißt, wir versuchen die dann auch in der Bildersuche darzustellen. Man kann ja auch Text in SVG verwenden oder zum Beispiel auch Links so viel ich weiß. Und diese Elemente nehmen wir dann nicht als Text oder als Links heraus. Das heißt, wenn man jetzt etwas kompliziertes gestaltet mit SVG und Texte da drin hat oder Links oder andere Elemente, dass wir das einfach als Bild renderen und für die Bilder suche verwenden und nicht die Inhalte selber rausnehmen. Auch interessant, da fällt mir gerade noch etwas ein. Ich hatte das gestern auf Twitter gesehen, dass jetzt auch auf den englischen Google-Seiten die Ads mit so einem kleinen Banner versehen werden, mit einem Ad-Banner. In Deutschland haben wir das glaube ich schon länger mit Anzeige. Jetzt ist mir aufgefallen, alle URL werden ja in den Google Suchergebnissen in grüner Schrift dargestellt. Im Google Chrome wird jetzt schon soll ja demnächst darauf hingewiesen werden, wenn Seiten nicht über HTTPS ausgeliefert werden. Warum macht man das denn nicht direkt auf den Suchergebniss Seiten, dass man da anzeigt, ob eine Seite verschlüsselt ist oder nicht. Man kann es ja in der Search Console auch einstellen, ob noch mit HTTPS ausgespielt werden soll. Ja. Wir zeigen ja HTTPS an, wenn wir das können, also direkt in der URL. Ich glaube, das einzige Mal, wo wir nicht HTTPS darstellen in der URL in den Suchergebnissen ist, wenn wir den Seitennamen statt der URL verwenden. Ich glaube, bei breadcrumbs zum Beispiel, ist das der Fall. Aber ansonsten versuchen wir das schon da darzustellen. Wir hatten auch, ich glaube, verschiedene Tests mal gemacht mit diesem Schlüssel oder Schlosszeichen in den Suchergebnissen oder nicht. Und bis jetzt haben wir da noch keine optimale Lösung gefunden, wie man das am besten machen kann. Ich denke, das verschiebt sich ja auch im Laufe der Zeit, dass immer mehr Websites auf HTTPS gehen, dass immer mehr Besucher auch HTTPS erwarten. Aber im Moment waren HTTPS Seiten vielleicht nicht vollständig sicher dargestellt werden in der URL-Bar oben. Das sind alles Entwicklungen, die in die Richtung gehen. Und ich denke, wenn man das in 1, 2 Jahren anschaut, wird das sich in den Suchergebnissen schätzt sich mal auch etwas anders dargestellt sein, gerade auf den Blick auf HTTPS oder HTTPS. Wie ist das? Schatz, sehe ich da noch eine Frage. Oft liest man, dass nicht nur die Hauptzeiten verlinkt werden soll. Wie siehst du das? Ich nehme an, das bezieht sich auf externe Links. Einerseits ist es natürlich so, dass die externen Links von Benutzern gesetzt werden sollten und nicht unbedingt nur von dir, weil sonst sind das ja nicht ganz externe Links. Anderseits ist es so, dass gerade wenn Benutzer diese Links setzen, die setzen die Links ja auf irgendetwas. Manchmal setzen die Links auf Produkte-Seiten oder Informationen, die sie vielleicht interessant finden, die sie weiter empfehlen möchten. Manchmal möchten sie nur die Firma weiter empfehlen und dann verlinken sie auf die Homepage. Und von dem her ist es so, dass aus unserer Sicht schon ein bisschen was auf die Homepage geht. Manchmal auf einzelnen Details-Seiten. Manchmal steht die Firma mehr im Vordergrund. Manchmal stehen die einzelnen Produkte mehr im Vordergrund. Von dem her ist es nicht so, dass wir sagen würden, das muss so oder so sein. Danke. Okay. Mal kurz schauen, ob da noch mehr. Auf der Liste ist, glaub nicht. Ja. Wenn nicht, können wir auch hier Pause machen. Dann habt ihr eine Viertelstunde gespart. Ich setze auf jeden Fall die nächsten Hangouts auch noch ein. Dann sehen wir uns vielleicht in zwei Wochen wieder. Ansonsten möchte ich bei euch bedanken für die vielen Fragen und interessanten Ideen auch, die Sachen, die ich da intern weitergeben kann, auf unserer Seite. Von dem her möchte ich mich bei euch noch verabschieden und vielleicht sehen wir uns nächstes Mal wieder. Tschüss aller Zeit. Tschüss.