 Hallo allerseits. Willkommen beim heutigen Webmaster Central Sprechstunden Hangout. Ich bin Johannes Müller. Ich bin Webmaster Trends Analyst hier bei Google in der Schweiz. Und Teil von dem, was wir machen, ist mit Webmaster und Publisher zu sprechen, wie jetzt gerade hier im Hangout. Wir sind auch einige Fragen angenehm begreift worden, aber falls einer von euch eine Frage hat, die wir gerade am Anfang beantworten können, dann legen wir doch mal damit los. Wenn nicht, gehen wir sonst einfach mal die Fragen durch. Und wenn ihr zwischendurch Kommentare habt oder weitergehende Fragen zu den Antworten oder zu den Fragen selbst, einfach loslegen, dann können wir das kurz anschauen. Okay, was haben wir da? Wie ist es möglich, dass eine URL-Indexier fährt, obwohl diese nur als Short URL zur Weiterleitung auf die unschöne Original URL benutzt wird? Und da ist irgendwo ein Beispiel, der bei mir abgeschnitten ist. Okay, ja. Wie das möglich ist, ist eigentlich ganz einfach. Wir finden diese URLs irgendwo und indexieren die dann so. Grundsätzlich ist es so, dass wir verschiedene Faktoren verwenden, um herauszufinden, welche URL wir verwenden sollen für die Suche. Das heißt, oft ist es so, dass wir die URL, die Dekorzer URL, vielleicht die längere URL, die weitergeleitet wird, die finden wir alle irgendwo im Internet und sehen, dass überall die gleichen Inhalte kommen. Und dann aus unserer Sicht passiert im ersten Schritt einmal ein sogenanntes Clustering. Das heißt, wir nehmen all diese URLs, die eigentlich zu den gleichen Inhalten führen und behandeln die wie eine einzelne Seite. Es ist ja eigentlich eine Seite. Und wir versuchen dann festzustellen, welche URL wir verwenden sollen für die Suche, um diese Seite in den Suchergebnissen zu zeigen. Manchmal ist es sogar so, dass wir wissen, dass da verschiedene URLs zu diesen Inhalten gehören. Und dass wenn man gezielt danach fragt, sieht man dann die verschiedenen Varianten auch. Das heißt, ich weiß jetzt nicht in diesem Fall oder in anderen Fällen, manchmal ist es zum Beispiel so, wenn ich eine Side-Abfrage mache, dann kann man gezielt diese alternativen URLs auch aufrufen. Und dann kann man die auch in den Suchergebnissen sehen. Und aus unserer Sicht ist es okay, weil wir sehen, du suchst gezielt nach diesen Seiten. Wir wissen, dass diese URLs existieren, obwohl wir vielleicht auch wissen, dass sie weiterleiten woanders hin. Also zeigen wir euch diese URLs, die du gezielt suchst. Auch in anderen Fällen kann es durchaus sein, dass wir verschiedene Signale kriegen und dann nicht ganz sicher sind, welche URL wir verwenden sollen. Das heißt, in einem Fall wie hier, wo jetzt ein Kurz-URL vorhanden ist und vielleicht eine längere URL, die auf die weitergeleitet wird, können unsere Algorithmen das anschauen und sagen, ja, wir haben Paar-Signale, die für diese Kurz-URL sprechen, Paar-Signale, die für diese längere URL sprechen. Wir nehmen in diesem Fall die kürzere, vielleicht im nächsten Fall die längere. Das kann theoretisch auch sein, dass wir dann zwischen diesen beiden Varianten ab und zu schwanken. Dass wir sagen, gut, wir indexieren sie jetzt kurz und dann nach ein paar Wochen vielleicht die längere Version und dann vielleicht doch wieder die kürzere Version, weil sich das dann halt das Bessere herausgestellt hat. Für die Wahl der URL nehmen wir verschiedene Faktoren. Einerseits natürlich redirects sind für uns sehr praktisch, weil wir uns einigermaßen sehen können, was passiert da. REL-canonical hilft uns auf jeden Fall, interne Verlinkung hilft uns, externe Verlinkung hilft uns, Sidemap-Bateien helfen uns. All diese Sachen können zusammengefasst werden und dann aufgrund von denen versuchen wir dann festzustellen, ja, die URL ist jetzt diejenigen, die bezeigen wollen oder die andere URL ist diejenigen, die bezeigen wollen. In Grunde genommen für die Suche an und für sich ist es egal. Das heißt, die Platzierung verändert sich nicht. Es ist wirklich nur eine Frage, von welchem URL wird dargestellt in den Suchegebnissen und gesader auf mobilen Geräten ist es ja auch oft so, dass man gar nicht die URL sieht, sondern man sieht vielleicht ein Breadcrumb. Wenn man auf diesen Link klickt, dann öffnet das ein Browser und man sieht dann auch nicht die ganze URL. Von dem her ist es oft gar nicht so problematisch, sag ich mal, wenn wir eine alternative URL verwenden, weil die gleichen Inhalte erscheinen ja dann trotzdem noch in den gleichen Positionen in den Suchegebnissen. Manchmal ist es ein bisschen verwirrend, gerade wenn wir jetzt von einem anderen Domain die URL nehmen, wenn wir zum Beispiel CH und RT Domains haben, dann will man vielleicht nicht, dass sie vermischt werden. Aber in vielen Fällen, gerade wenn das auf dem gleichen Domain ist, macht das ja eigentlich nichts aus, ob jetzt mit dieser URL oder mit der anderen URL indexiert ist. Und meistens ist es so, dass wenn wir eine Variante nehmen, die ihr nicht wolltet, einfach der Fall, dass da andere Signale vielleicht noch im Spiel sind, die auf eurer Seite vielleicht nicht ganz eindeutig sind. Wie gesagt, Sidemap-Datei könnte das zum Beispiel sein, interne Verlinkung kann natürlich auch eine Rolle spielen. Wenn man eine komplizierte URL-Struktur hat, dann kommt das ja noch dazu. Das heißt, wenn ich viele URL-Parameter habe, die mit URL Canonical zusammengefasst werden, dann muss das auch irgendwie erstmal eingeordnet werden. Aber an und für sich ist es aus unserer Sicht nicht ein Fehler, wenn wir eine kürzere URL verwenden, sondern es ist einfach etwas, das kann passieren, das kann so vorkommen, das ist nicht unbedingt eine schlechte Sache. Aber manchmal, wenn man das jetzt, dass man sich mal aufzieht für die eigene Website, ist das vielleicht ein Zeichen, dass irgendwie mit den URLs, die man Google zur Verfügung stellt, ist es vielleicht nicht ganz eindeutig klar, welche Variante ihr indexiert haben möchte. Warum werden die nicht relevanten Ergebnissen aus Deutschland für die Suchernfrage Kleinanzeigen in den Schweizer Suchergebnissen angezeigt? Gute Frage, ja. Warum? Warum ist auch schwierig zu sagen, weil da verschiedene Sachen wieder zusammenkommen. In diesem Fall sind das, glaube ich, Side Links, die da dargestellt werden. Manchmal ist es einfach der Fall, dass wir da keine saubere Zusatzinformationen haben, welche Variante für welche Länder jetzt gültig sind. Zum Beispiel mit HF-Lang könnte man ja das verknüpfen mit Geotargeting, wenn das sauber eingerichtet ist. All diese Sachen helfen uns, die verschiedenen Ländervarianten zusammenzufinden. Was man auf jeden Fall machen kann, als Webmaster, wenn man all diese Sachen schon eingerichtet hat und Google nimmt dann trotzdem noch die falsche Länderversion, dass man mit einem Bernhard zum Beispiel oben auf der Seite selber den Benutzer darauf aufmerksam macht, dass es vielleicht eine Variante gibt, die relevanter für den Benutzer ist. Das heißt in diesem Fall, wenn ich eine Seite habe für Deutschland und ich sehe, der Benutzer kommt aus der Schweiz, dann könnte man vielleicht auch mal in Bernhard zeigen, hey, die Schweizer Version ist hier, willst du nicht, lieb auf die Schweizer Version gehen, dann hat der Benutzer noch die Wahl, ja, ich will auf der deutschen Version bleiben oder ich gehe dann halt zur Schweizer Version. Und mit einem Bernhard, wenn das nicht im Weg steht, ist es auch nicht so, dass wir das von der Indexierung her irgendwie dann bevorzugt behandeln würden oder so, sondern das Internet auch inhalt auf der Seite. Problematischer ist es, wenn man zum Beispiel eine automatische Weiterleitung einrichtet und sagt, alle, die auf die deutsche Seite gehen, die eigentlich aus der Schweiz kommen, werden direkt auf die Schweizer Version weitergeleitet, weil dann hat der Benutzer gar keine Möglichkeit, die deutschen Seiten anzuschauen. Wenn der Benutzer jetzt gerade nicht mal in Deutschland ist. Oder ebenso, wenn Google diese Seiten crawled, vielleicht aus Amerika, und wird immer weitergeleitet auf die amerikanische Version, dann können wir die deutschen Varianten gar nicht indexieren, weil wir sie gar nicht richtig crawlen können. Werden Texte anzeigen, Werbung als Content mit berücksichtigt, in der Regel nicht, weil in den meisten Fällen ist es hier so, dass Texte anzeigen, werden ja per JavaScript eingebunden auf den meisten Websites und diese JavaScript Dateien sind in den meisten Fällen blockiert mit der Robots Text, sodass wir den Werbekode gar nicht crawlen und quasi darstellen können. Wenn die Werbung direkt in den Seiten eingebaut ist, dann sieht das natürlich für uns so aus, dass das Inhalte sind, die direkt auf dieser Seite selber auch eingebunden sind. Und dann würde ich einfach sicherstellen, dass man zum Beispiel mit dem No-Follow arbeitet, sodass wir diese Inhalte zwar sehen, die Links vielleicht auch sehen, aber das für uns auch klar ist, dass das eigentlich Werbung ist, dass das jetzt nicht für das Weiterreichen von PageRank und weiteren Signal verwendet werden soll. Ich hatte im Rahmen des In-House SEO Meetings auf der SMX eine Frage zu Ernt gestellt. Na, schauen, die geht relativ lang. Wie kann es sein, dass ein Newsbeitrag in den Schlagzeilen zweimal auftaucht, einmal als AMP und einmal als reguläre Seite und dass dann die AMP schlechter positioniert ist als die reguläre Version der Seite. Ich habe sowas ähnliches auch neulich gesehen. Ich weiß nicht, ob da vielleicht irgendetwas spezielles im Moment da auf unserer Seite läuft, aber grundsätzlich ist es so, dass wir versuchen, diese Seiten ja vielleicht mal einzeln zu erkennen. Und wenn wir zum Beispiel die AMP-Version und die normale Desktop-Version einzeln finden im Internet, sei das durch interne Verlinkungen, sei das durch Sci-Fi-Parteis, oder durch andere Arten, dann kann es durchaus sein, dass wir im ersten Schritt beide Version einmal indexieren und dann beide auch in den Suchergebnissen zeigen, obwohl sie an und für sich die ähnlichen Inhalte haben. Und bei den AMP-Versionen ist es ja auch so, dass da jeweils ein World Canonical ist auf die normale Web-Version und so verknüpfen wir dann auch die AMP-Version mit der Web-Version und verstehen dann auch da diese Gehirn zusammen. Wir sollten ja eigentlich nur einmal zeigen. Wenn wir hingegen beide Varianten einigermaßen gleichzeitig crawlen und mit dem Indexieren nicht ganz nachkommen, dann kann es durchaus sein, dass wir diesen World Canonical noch nicht direkt verfolgt haben, sodass beide Varianten erst einmal indexiert sind und dann auch in den Suchergebnissen so dargestellt werden können. In den meisten Fällen können wir den World Canonical sehr schnell auflösen und können dann diese Verknüpfung sehr schnell erkennen und auch entsprechend das richtig zusammenklappen. Manchmal geht das einfach ein bisschen länger. Ich weiß jetzt nicht, wie das in diesem speziellen Fall hier war oder ob da vielleicht diese AMP-Seiten, vielleicht separat per Signup-Datei eingereicht werden. Das kann ich mal ein bisschen genauer anschauen, jetzt mit dem Beispiel da. Aber grundsätzlich ist es allgemein auch mit dem World Canonical, sodass ein World Canonical ist natürlich nicht ein redirect. Das heißt, wir müssen diese Seite erst einmal indexieren, dann können wir den World Canonical bearbeiten, dann können wir diese Sachen zusammenklappen und dann kommt eben diese Frage auf, die ich am Anfang erwähnt habe, welche URL verwenden wir für dieses Paar von Seiten. Aber da kann es dann eben durchaus sein, dass wir die Seite mit World Canonical erst einmal so indexieren und dann im zweiten Schritt das erste zusammenklappen. Aber so ein Beispiel ist auf jeden Fall mal hilfreich, das so anzuschauen. Ich bin Admin einer Ärzte-Seite. Die Domain hat eine lateinische Endung mit CUM. Beispiel für solche Werte, etymilochikum, oh Gott, die Aussprache, anatomikum. Und im amerikanischen Bereich ist dieser Worteil auch im sexuellen Bereich angesiedelt. Kann es sein, dass wegen den Domain-Namen, dass es da irgendwie die Website automatisch heruntergestuft wird. An und für sich sollte das nicht sein. Ich könnte mir nicht vorstellen, dass da irgendwie so eine Verknüpfung passiert, weil es gibt ja viele Wörter, die in einer Sprache eine Bedeutung haben, in einer anderen Sprache haben, sind ganz eine andere Bedeutung. Das kann durchaus sein, dass es dann Wörter gibt, die vielleicht im sexuellen Bereich angesiedelt sind oder Wörter, die vielleicht im technischen Bereich irgendwo angesiedelt sind und dass da irgendwie die Überschneidung nicht ganz so einfach ist. Aber auf jeden Fall versuchen wir, das pro Sprache separat zu erfassen und Domain-Namen sind aus unserer Sicht auch nicht so, sage ich mal, ein kritischer Faktor. Von dem her könnte ich mir schlecht vorstellen, dass es da irgendwelche Probleme geben würde. Was ich vielleicht da machen würde, ist mir vielleicht noch die Domain-Namen zuschicken, dann kann ich das auf jeden Fall hier mal nachkontrollieren, sicherheitshalber feststellen, ob da irgendwelche Probleme vielleicht in dieser Art vorhanden sind. Eine andere Sache, die mir da vielleicht, weiß ich nicht, ob das jetzt bei dir der Fall ist, aber was mir auffällt, ist, gerade wenn du verschiedene Wörter jetzt erwähnst, dann kommt bei mir schnell der Verdacht auf, dass du vielleicht eine ganze Reihe von diesen lateinischen Ärztebegriffen verwendest als Domain-Namen und dass die alle zu den gleichen Websites wieder. Und dann ist das aus unserer Sicht eher ein Problem, dass man sage ich mal Doorwaysites hat, dass man einfach all diese verschiedenen lateinischen Wörter abdecken will, mit den gleichen Inhalten, mit sehr ähnlichen Inhalten. Und dann ist es weniger eine Frage, ob wir die Wörter richtig erkennen, sondern einfach eine Frage, dass da halt so viele Domains zusammenkommen, dass es dann wirklich wie ein Domain-Form aussieht. Oder wie einfach eine Sammlung von Domains, die immer die gleichen Inhalte haben, die aus unserer Sicht dann halt das Ganze viel schwieriger machen. Einerseits verdünnt man dadurch die Inhalte, die man hat. Andererseits ist es dann aus unserer Sicht sehr schwierig zum herauszufinden, welches dieser vielen Domains mit ähnlichen Namen ist eigentlich jetzt das Relevante. Oder sind die alle nicht so relevant und verwenden einfach diese Wörter als Domain-Namen um irgendein SEO-Bohnes aus den Domain-Namen herauszuholen, was aus unserer Seite eigentlich selten passiert. Aber wie gesagt, du kannst mir gerne mal einen Domain-Namen zuschicken, dann kann ich das hier mit dem Team anschauen. Dann können wir da vielleicht auch mal kontrollieren, ob da irgendetwas anderes ist, was wir dir vielleicht sagen können. Am einfachsten schickst du mir das vielleicht per Google Plus zu. Dann kann ich das hier mal anschauen. Über Search Console habe ich gesehen, dass für ein Keyword zwei verschiedene URLs ranken. Es gibt ja den Begriff der Keyword-Kanabolisierung. Ist das tatsächlich ein Problem? Sollte ich hier irgendetwas tun, dass die Seiten nicht für die gleichen Keywords ranken? Und was könnte das sein? Es kann durchaus sein, dass verschiedene Seiten von der gleichen Website für die gleichen Keywords erscheinen. Das gibt es eigentlich immer wieder. Es ist nicht unbedingt etwas Schlechtes. An und für sich kann es ja durchaus sein, dass wenn jemand nach einem Stichwort sucht, dass verschiedene Inhalte auf einer Website gibt, die relevant sein könnten. Und das wäre aus meiner Sicht eigentlich okay. Wegen der Kanabolisierung ist höchstens dann ein Problem, wenn diese separaten Seiten an und für sich über das gleiche Thema sind. Wenn man das anschaut und sagt, ja gut, ich könnte eigentlich statt zwei oder drei Seiten, die einigermaßen in den Suchergebnissen erscheinen, könnte ich vielleicht eine sehr starke Seite machen. Dann könnte man sich natürlich überlegen, dass man diese Seiten zusammenklappt und dann eine starke Seite macht statt verschiedene, die vielleicht ein bisschen schwächer sind über das gleiche Thema. Aber wenn das wirklich unterschiedliche Seiten sind, die unterschiedliche Ziele haben, dann würde ich die durchaus separat belassen. Das macht auch Sinn. Wir haben auf unserer Seite internal links um Polymer-Elemente, welche selber nur ein Icon darstellen. Diese Links werden in Search Console nicht erkannt, beziehungsweise sind nicht als interne Links verwendet. Alle anderen Links auf der Seite aber schon. Selbst die Integration von Hintentext und Title Attribute im Link hat nichts geändert. Gibt es Kriterien, wann Google Links nicht akzeptiert oder nicht anzeigt? Der Quelltext schaut ungefähr so aus. Im Forum konnte das auch noch nicht richtig beantwortet werden. Ich schaue mir auf jeden Fall mal den Forum thread nachher an. Es gibt vielleicht zwei Sachen, die ich mir da vorstellen könnte. Einerseits ein sehr häufiger Fehler. Ich glaube, das habt ihr jetzt da nicht gemacht, wenn ich diesen Feldcode anschaue. Ein sehr häufiger Fehler, aber ich glaube, dass viele gerade bei Single-Page-Apps diese modernen Techniken verwenden, wie Polymer-Elemente oder insgesamt per JavaScript aufgebaut werden, ist, dass sie statt Links quasi per JavaScript die Navigierung einbauen. Das heißt, statt einem A-Element habe ich dann vielleicht ein Diff und da ist dann irgendwie ein On-Click-Event angeschlossen, der dann diese Navigation dann entsprechend irgendwo im JavaScript weiter behandelt. Und dann natürlich dann nicht ein Link, sondern dass es ein Diff-Element und irgendein JavaScript-Stück ist dann auch angeschlossen. Und dann ist es sehr schwierig für uns zu erkennen, dass das eigentlich als Link verwendet werden sollte und entsprechend auch für das Crawling, für das Indexierung weiterverwendet werden sollte. In deinem Fall sieht es also so, ob du da durchaus die A-Elemente verwendest. Das ist schon mal wichtig, auch mit dem href, dass wir da eine saubere URL finden können. Auch die URL scheint auf den ersten Blick recht anständig zu sein, in dem Sinn, dass das nicht immer die gleiche URL ist oder nicht mit nur einem hash arbeitet, sondern eigentlich aussieht wie ein normaler URL. Das heißt, eigentlich würden wir den jetzt hier nachgehen und das weiter anschauen. Was ich mir höchstens vorstellen könnte, ist, dass wir da kein Anchor Text haben, womit wir das Ganze irgendwie festhalten können. Das heißt, wir wissen dann vielleicht nicht, wofür ist dieser Link da. Und da könnte ich mir vorstellen, dass vielleicht unsere Algorithmen sagen, da ist kein Anchor Text vorhanden, also ist das kein richtiger Link. Dementsprechend müssten wir das vielleicht verhallen lassen. Ich weiß jetzt allerdings nicht, wie das bei dir eingebunden ist, wenn da irgendein Anchor Text vorhanden ist oder ein Bild als Anchor, dann sollte das eigentlich schon funktionieren und dann sollte das eigentlich auch in Search Console dargestellt werden. Manchmal ist es auch einfach so, dass es eine Zeit braucht, bis die Daten in Search Console sichtbar sind. Das heißt, wenn du das jetzt relativ neu eingebunden hast, könnte das vielleicht einfach eine Frage der Zeit sein, bis das gefunden wird und in Search Console dargestellt wird. Ein relativ einfacher Art, wie du kontrollieren kannst, ob wir diesen Link sauber finden können oder nicht, ist, indem du einen ähnlichen Link einbaust auf eine Seite, die sonst nicht verlinkt ist innerhalb deiner Website und dann einfach auf die Server Logs achtest und schaust, findet Googlebot diese neue URL, die ich da kreiert habe. Vielleicht ist es auch einfach eine Test-Urall oder findet Googlebot die URL nicht. Und wenn Googlebot die URL findet, dann sollte das eigentlich in Ordnung sein. Ich habe eine recht alte Seite, die im Februar 2009 online ging. Es ist kaum mehr als eine digitale Visitenkarte und hat keine nennenswerte Inhalte. Rankt aber dann auch für einer, zwei Keys. Ich überlege nun die Seite per Robots Text aus dem Index zu nehmen. Würde ich dadurch den Altersvorsprung verlieren. Ich plane nämlich die Seite in Zukunft wieder zu reaktivieren. Ist es grundsätzlich korrekt, dass ein sogenannte Altersportail von Domains nur erreicht wird, wenn auch Content online ist oder reicht schon die bloße Registrierung? Gute Frage. Also bezüglich Altersvorsprung ist aus unserer Sicht weniger eine Frage von ist das jetzt eine ältere Seite oder nicht, sondern einfach aus praktischen Gründen kann es natürlich sein, dass Seiten, die schon länger vorhanden sind, im Laufe der Jahre einfach Signale aufgesammelt haben, verschiedene Links gesammelt haben, die wir dann dementsprechend auch berücksichtigen. Das heißt, wenn man per Robots Text das blockiert und dann irgendwann später die neue Seite aufschaltet, dann sollte das Ganze eigentlich weitergereicht werden auf die neuen Inhalte. Was einfach vielleicht ein bisschen dagegen wirkt, ist, dass wir auch verschiedene Elemente haben, die versuchen zu erkennen, wenn jetzt eine Website sich grundlegend verändert hat. In dem Sinne, dass wir sagen müssen, gut, all die alten Signale, die wir bis jetzt gesammelt haben, die gehören eigentlich nicht mehr zu dieser Website, sondern gehören zu dieser alten Website, die jetzt nicht mehr online ist. Und das könnte unter Umständen in einem solchen Fall passieren, gerade wenn die neue Website wirklich ganz was anderes ist, was die alte Website war. Von dem her würde ich einfach nicht hundertprozentig damit rechnen, dass wenn ich jetzt die Website ganz umbaue und ganz etwas Neues auf dem alten Domain aufbaue, dass die wirklich 1 zu 1 so weiter renken wird in Zukunft. Wenn man hingegen jetzt einfach die alte Website ausbaut, dann sind das natürlich Sachen, die wir durchaus weiter aufbauen können, die wir durchaus weiter behalten können. Noch 2 Fragen hier. Der Domainalter, schon wieder, für DE Domains wird laut DENEC nicht bekannt gegeben. Eventuell aus Datenschutzgründen über verschiedene Tools kann man sich das Alter von .com und .org Domains anzeigen lassen. Für DE Domains klappt das nicht. Welche Möglichkeiten hat Google das Domainalter zu bestimmen? Gibt Google das Alter aus Search Console oder Analytics, wenn man dort seine Seite erstmal ein Google übermittelt hat? Eben, wie gesagt, das ist weniger eine Frage von unseren Algorithmen, ein Jahrgang von einer Website zu bestimmen, sondern mehr eine Frage von den natürlichen Aufbau einer Website über die Jahre in das Websites, die schon länger vorhanden sind, die sammeln natürlich einfach mehr Signale im Laufe der Zeit. Und das können positive Signale sein, das können aber auch negative Signale sein. Das heißt, wenn ich einen alten Domainnamen habe, aber der wurde immer nur für Spam verwendet, dann sind das vielleicht nicht gute Signale, die man da aufgesammelt hat im Laufe der Jahre. Und dann ist es vielleicht nicht unbedingt das, was man will. Aber wenn das jetzt ein einigermaßen normaler Website war, die jetzt einfach im Laufe der Jahre links gesammelt hat, andere Signale, wo wir gesehen haben, da das ist eine anständige Website, es lohnt sich aus unserer Sicht, die guten Suchergebnisse zu zeigen, dann hat das natürlich schon ein bisschen wert. Aber es ist weniger eine Frage von, wie viel Monat ist dieser Domainname alt? Und quasi wann wurde das zuerst in Search Console registriert? Das ist aus unserer Sicht, das fast künstliche Wert, die wenig mit der Qualität einer Website zusammenhält. Es geht da weiter. Kann Google in Search Console eine Art Massenverarbeitung implementieren für 404 Links? Beispiel, man hat seine interne Linkstruktur verändert. Es kommt nun in Search Console Massenweise 404 Hinweise. Schön wäre es, wenn man die quasi zur Deindexierung hochladen könnte. Ja, zwei Sachen da, die relevant sind. Einerseits, wenn man die interne Verlinkung verändert, sollte man auf jeden Fall auch redirects einrichten von den alten URLs zu den neuen URLs, weil ansonsten sehen wir einerseits all diese 404 Fehler, Benotzer sehen diese 404 Fehler unter Umständen. Und was noch wichtiger ist aus der Seite von Suchmaschinen, ist, dass wir die ganzen Signale, die vorher zu diesen alten URLs gehört haben, gar nicht weitergeben können. Das heißt, wir wissen vielleicht, dass diese Seite hier war super gut zu diesem Thema. Wir würden die gerne in Suchergebnissen zeigen. Jetzt sehen wir aber hier einen 404 Fehler und irgendeine andere Seite auf der Website hat ähnliche Inhalte. Aber wir wissen natürlich nicht, dass diese Seite durch die neue hier ersetzt wurde, dass wir die ganzen guten Signale hier weitergeben können auf die neue Seite. Und von dem her ist es sicher mal empfehlenswert, dass man wirklich eine saubere Weiterleitung von den alten Seiten zu den neuen hat. Und das sollte pro Seite sein. Das heißt, nicht alles einfach auf die Homepage weiterreichen, sondern wirklich diese Seite über Schuhe weiterreichen auf die neue Seite über Schuhe. Und dementsprechend wirklich für jede Seite das Eingerichten einrichten. Das andere ist, dass die Fehler in Search Console, gerade weil die Crawl Fehler sind, eigentlich Informationen für euch. Wenn das Seiten sind, die für euch wichtig sind, dass ihr das vielleicht kontrolliert, eben mit redirect nachschaut oder überlegt, ja, habe ich jetzt aus Versehen etwas Falsches gelöscht. Und weniger eine Sache, die dann als Ranking Faktor für die Website insgesamt verwendet werden. Das heißt, man muss diese 4.0 Fehler nicht beheben. Man kann die einfach sein lassen. Wenn man die anschaut und sagt, ja, das ist klar. Das sind alle Seiten, die existieren nicht mehr. Die habe ich gelöscht, die waren schlecht. Die habe ich vielleicht auch so sehen mal online geschaltet. Dann ist es aus unserer Sicht okay. Da müsst ihr nicht spezielles machen. Da müsst ihr nicht Weiterleitungen einrichten oder die löschen lassen von Google, sondern das ist ganz in Ordnung. Das gibt dann keinen negativen Effekt auf die Website, wenn viele 4.0 Fehler gefunden worden sind. In den Suchegebnissen erscheinen per Zeitabfrage für unsere Website nur ca. 5 von 100 Ergebnissen die Sterne der Kundenbewertung. Ist die Ausspielung nur abhängig von Algorithmen oder gibt es Hinweise aus technischer Sicht, was wir überprüfen sollten und wieso gerade nur für diese ausgewählten Snippets die Sterne angezeigt werden? Schwierig zu sagen, ohne die Website anzuschauen. Ich würde in einem solchen Fall sicher mal ein Thread im Hilferforum eröffnen, dass das jemand anschauen kann. In der Regel mit Rich Snippets gibt es 3 Sachen, auf die man achten muss. Einerseits müssen die Rich Snippets technisch sauber und korrekt eingerichtet werden auf der Seite. Das heißt, mit dem Testing Tool muss man die anschauen können und das Testing Tool muss sagen, ja, das ist sauber so implementiert. Da sind jetzt die Gewertungen oder da sind die anderen Elemente, die man für Rich Snippets verwenden möchte. Andererseits müssen die gemäß unseren Policies eingerichtet werden. Das heißt, wenn ich jetzt Rezept Rich Snippets einsetze auf einer Website, dann sollten das wirklich Rezepte sein, die markiert werden. Oder wenn ich Bewertungen einrichte, dann sollte das wirklich Bewertungen sein, die passend zu dieser einzelnen Seite sind, nicht Bewertungen für die Website insgesamt oder für die Firma insgesamt, sondern wirklich passend zu unseren Policies. Und drittens, was manchmal ein bisschen schwieriger ist, ist, dass unsere Algorithmen müssen sicher sein, dass die Website von genügend hoher Qualität ist, so dass wir diesen Rich Snippets vertrauen können. Man kann das letzte einigermaßen kontrollieren, indem man eine Site-Up-Frage macht. Das heißt, wenn ich eine Site-Up-Frage mache und ich sehe einige von diesen Rich Snippets in der Site-Up-Frage, aber ich sehe sie nie, wenn ich normal suche, dann ist das ein Zeichen, dass unsere Algorithmen die Qualität dieser Website nicht so ganz gut einschätzen und dass man dann vielleicht insgesamt eher an der Qualität der Website arbeiten muss, statt an irgendetwas anderen. Wenn Sie bei der Site-Up-Frage schon dargestellt werden, dann ist zumindest vom technischen her, ist der Einbau eigentlich korrekt. Wenn bei der Site-Up-Frage nur bei einzelnen Girls, die dargestellt werden, dann kann das vielleicht daher kommen, dass wir auf den anderen Seiten die Rich Snippets nicht sauber erkennen können. Oder es kann einfach sein, dass wir sagen, gut, wir haben jetzt ein paar URLs gezeigt mit Rich Snippets, wir müssen nicht die ganze Ergebnis-Seite mit Rich Snippets bilden und dann würde das eine für sich auch Sinn machen. Man kann das ein bisschen genauer untersuchen, wenn man jetzt gezielte Site-Up-Fragen macht nach einzelnen Bereichen einer Website, um wirklich sicherzustellen, dass in diesem Bereich meiner Website, dass da die Rich Snippets auch wirklich erkannt werden. Ich stelle in den letzten Wochen über mehrere Search Console Accounts fest, dass keine Backlink-Daten mehr angezeigt werden. In einigen Accounts stehen zwar inzwischen schon wieder Daten bereit, in anderen wiederum nicht. Auffällig ist auch dort, wo die Daten wieder existieren, sind teilweise starke Rückgänge in Gesamtzahlen der Links zu erkennen. Kannst du etwas zu den Hintergrundsagen? Ich weiß eigentlich von nichts, was da jetzt gezielt, bezüglich Links sein könnte. Müsste das vielleicht mal genauer anschauen, aber an und für sich sollte das eigentlich soweit normal sein. Also mir ist jetzt nicht bewusst, dass da irgendwie mit den Links-Daten in Search Console irgendetwas klemmt. Manchmal kann es das allerdings auch geben. Was vielleicht praktisch wäre, in einem solchen Fall ist, wenn du mir die Domains mal zuschütten könntest, dann kann ich das hier mit dem Team mal genauer anschauen und da können wir mal kontrollieren, ob das soweit in Ordnung ist aus unserer Sicht oder ob da vielleicht mit den einzelnen Domains oder mit der Verzierung irgendetwas noch klemmt. Eine Sache, die bei Search Console vielleicht zu erwähnen ist, ist, dass die Daten nicht vom ersten Tag hinweg sichtbar sind. Das heißt, wenn ich ein Domain oder eine Domainvariante neu hinzufügen in Search Console, dann geht das manchmal 3, 4, 5 Tage, bis die Daten effektiv sichtbar sind innerhalb von Search Console. Die andere Sache ist, dass wenn man ein Domain hinzufügt in Search Console, versuchen wir die Daten gezielt für diesen Domain oder diesen Abschnitt vom Hostname, der eingegeben worden ist, für den zur Verfügung zu stellen. Das heißt, wenn meine Website als HTTPS indexiert ist und ich reiche in Search Console die HTTPS Version ein, dann sieht man bei der HTTPS Version nicht wirklich alle Daten, weil die Daten sind, insbesondere bei der HTTPS Version, gelandet. Das heißt, in einem solchen Fall, was ich da erstmal kontrollieren würde, ist, ob die Website wirklich unter dieser Domainvariante indexiert ist, also eine Side-Up-Frage machen und dann dort einfach kontrollieren. WBW, nicht WBW, stimmt das überein, mit dem, was ich in Search Console habe, HTTPS, HTTPS, passt das auch überein. Wenn das alles übereinstimmt, dann würde ich vielleicht ein paar Tage noch warten, um sicherzustellen, dass die Website jetzt nicht neu in Search Console eingebunden wurde und einfach deswegen noch keine Daten hat. Und wenn dann wirklich nach einer Woche keine Daten da erscheinen, dann würde ich da im Hilfeforum mal nachfragen oder eben kannst du mir auch direkt die URL zuschicken auf Google Plus, dann kann ich das hier mal anschauen. Okay, ich glaube, da wären so weit alle Fragen, die angereicht worden sind, da abgedeckt. Ich sehe im Chat ist noch etwas gerade gekommen. Wie schnell müssen Inhalte per CSS Transition eingeblendet werden, um indexiert werden zu können? Wir möchten den Aufbau der Inhalter auf Learning Pages animieren. Textenbilder sollen sich nacheinander per Fade-in oder Slide einblenden. Gibt es für das eine zeitliche Ganze, für die Indexierung. Wir haben für diese, für solche Elemente, für sich keine fixe Zeit. Das heißt, in vielen Fällen hängt es hier auch davon ab, wie schnell die Seite geladen werden kann, wie schnell die eingebundenen Inhalte geladen werden können. Und gerade für die Indexierung kommen da natürlich so Sachen zusammen, dass wir vielleicht einzelne Inhalte schon gecashed haben, dass sie nicht nachgeladen werden können. Das heißt, für das Rendering für die Indexierung ist oft quasi die Zeit, die verwendet wird, um die Inhalte darzustellen, ganz anders, als wenn man sie in normalen Browser anschauen würde. Und gerade aus solchen Kunden haben wir keine fixe Zeit, wo wir sagen würden, nach so vier Sekunden müssten die Inhalte sichtbar sein, weil das kann ganz anders für die Indexierung sein als in einem normalen Browser. Man kann das nicht so einfach nachkontrollieren. Was man aber kontrollieren kann, ist per Search Console mit dem Fetch and Render. Wenn da die Inhalte sichtbar sind, dann sehen wir sie auf jeden Fall für die Indexierung. Das heißt, Search Console hat ein bisschen striktere Einstellungen für die Rendering, damit für die Seite einigermaßen pünktlich auch für den Benutzer zurückgeben können. Und wenn sie da sichtbar sind, dann sind sie auf jeden Fall für die Indexierung sichtbar. Wenn sie in Search Console für Fetch and Render noch nicht ganz geladen sind, dann kann es auch sein, dass wir die vielleicht nicht ganz sichtbar haben beim Rendering. Von dem her würde ich mich auf das konzentrieren. Man kann natürlich auch so Spielereien machen, dass man mit JavaScript ein Timer einbaut und dann schaut, welche Zahl da erscheint. Ich würde mich aber nicht fix auf eine Zahl da verlassen, weil das kann sich wirklich verändern, je nachdem, wie wir die Seiten renderen, je nachdem, wie das dann wirklich für die Rendering gemacht wird im Vergleich zu einem Search Console Tool. Aber wenn es in Search Console sichtbar ist, dann ist es auf jeden Fall auch für die Indexierung sichtbar. Okay, gibt es vielleicht weitere Fragen von euch? Ja. Ich hätte noch mal eine Frage auch zur Search Console und dem Fetch and Render direkt. Wie hat eine Zeit lang VH Werte, um unser Titelbild einzubinden? Also diese View Heights. Und das hat dazu geführt, dass bei Fetch and Render uns das, sag ich mal, den Content gar nicht mehr in den Bildausschnitt reingepackt hat. Ist das dann auch problematisch, wird das upgraded oder ist das dann egal und nur für diese Bildaustellung kaputt? Solange die Inhalte vorhanden sind auf der Seite, ist das egal. Ich denke, für die Diagnose ist das vielleicht ein bisschen verwehrend auf eurer Seite. Aber grundsätzlich, wenn die Inhalte, sag ich mal, im HTML schon vorhanden sind, ist das überhaupt kein Problem. Wenn die Inhalte per JavaScript erst nachgeladen werden können oder erst nachgeladen werden und dann erst in eine Seite eingebunden werden, dann kann man natürlich schlecht kontrollieren, ob sie wirklich sichtbar sind. Aber wenn die im HTML schon vorhanden sind auf der Seite, ist das eigentlich okay. Danke. Okay. Weitere Fragen? Ja, hallo John. Ich hätte eine Frage bezüglich Google 20. Weiß ich, ob du da helfen kannst. Weißt du, vielleicht wäre da bis zu abgeschnitten. Ich probiere es vielleicht nochmal kurz. Ganz viel Text in Chat noch. Wir generieren für die PageSpeed Optimierung die kritischen CSS-Regeln und schreiben diesen Head der Seite. Leider haben wir mit manchen Google Fonts Probleme die Fonts CSS-Regeln laden Schrifteln als TrueType-Font. Beim Internet Explorer kommt dann ein Fehler, dass die Schrift nicht als installable gilt. Weiß ich nicht, wer da gezielt jetzt weiterhelfen könnte. Wenn du mir einige Beispiele schicken könntest, kann ich dir aber in das Thema weitergeben. Oft sind sie da eigentlich sehr schnell und können solche Sachen auch relativ schnell beheben. Gerade wenn das wirklich gezielte Probleme sind, die auf unserer Seite vielleicht nicht richtig eingebunden werden. Aber wenn du mir da Beispiele geben könntest, die ich so mal weitergeben könnte, dann hilft das auf jeden Fall. Okay, weitere Fragen? Mehr genau noch eine Frage, die ich hätte. Wir hatten bei uns den Fall, dass wir auf unserer landing-page eine H1-Überschrift gemacht haben und haben die letztendlich 3-mal drin gehabt und anders gestylt, je nach Mobilweite. Also haben wir immer noch verkleinert nicht über CSS-Regeln, sondern wirklich Displaynannen und kriegen dann natürlich in etlichen Tools immer den Hinweis, wir haben 3-H1-Überschriften. Ist das grundsätzlich für Google dann auch so oder erkennt er das sofort, dass das mit Displaynannen eben nicht sichtbar wäre? Wir würden wahrscheinlich die 3-H1-Tag sehen, aber es ist auch egal, wenn man 3-H1-Tags hat auf einer Seite. Von dem her würde ich das jetzt nicht aus etwas Kritisches einstufen. Weiteren Fragen? Okay, genau. Ich rieche auf jeden Fall die nächsten Hangouts noch ein. Das heißt, wenn weitere Fragen kommen, könnt ihr die da einreichen oder sonst natürlich auch im Hilferforum eingeben. Da sind immer wieder auch Googlers von uns unterwegs und die top contributors machen natürlich auch tolle Sachen dort. Von dem her gibt es verschiedene Wege, wo ihr noch Antworten kriegen könnt bis zu den nächsten Hangouts. Ansonsten wünsche ich euch noch einen schönen Nachmittag und da kommt noch eine Frage. Icons in den Suchergebnissen ist das für Google immer akzeptabel. Ich nehme an, mit Icons sind diese Unicode-Symbole gemeint. Aus unserer Sicht kann man das durchaus machen. Wir versuchen viele von solchen Symbolen auszublenden in den Suchergebnissen, wenn wir das Gefühl haben, die bringen da wenig Wert. Aber es ist nicht so, dass wir irgendwie eine manuelle Maßnahme hätten gegen Websites, die jetzt Unicode-Symbole in den Titeln oder in den Snippets vorhanden haben. Was ich da vielleicht noch kurz sagen würde, ist gerade jetzt, wo Open Directory Project, also DMOZ, weg ist, ist es für uns ein bisschen schwieriger, gute Titel sonst Snippets zu kriegen. Das heißt, ich würde wirklich schauen, dass all eure Seiten, die ihr in den Suchergebnissen erscheinen, haben, möchte wirklich auch saubere Titel und Descriptions dabei haben. Früher konnten wir auf die DMOZ Descriptions zurückgreifen, jetzt können wir das leider nicht mehr so machen. Von dem her ist das vielleicht gerade ein guter Punkt zu sagen, achtet mal auf eure Descriptions. Die werden zwar nicht als Ranking-Faktor verwendet, aber die werden auch in Suchergebnissen sichtbar gemacht. Und da habt ihr dann vielleicht auch eine Variante, das eine oder andere. Okay, dann wünsche ich euch damit noch einen schönen Nachmittag und vielleicht sehen wir uns in einem der nächsten Hangouts wieder. Bis allerseits. Danke.