 OK, herzlich willkommen beim heutigen Google Webmaster Central Sprechstunden Hangout. Herzlich willkommen im neuen Jahr. Ich wünsche euch viel Glück und Erfolg unterwegs dieses Jahr. Und wenn ihr Fragen habt, könnt ihr natürlich auch hierher kommen und Fragen stellen. Mein Name ist Johannes Müller. Ich bin Webmaster Trends Analyst bei Google in der Schweiz. Und Teil von dem, was wir machen, sind natürlich solche Fragen, wie hier, die schon eingereicht worden sind zu besprechen und hoffentlich auch ein bisschen mit den Antworten mitzuhelfen. Wie immer, falls ihr zwei jetzt hier live irgendwelche Fragen zwischen euch habt, einfach nur aufrufen. Ansonsten gehe ich mal die Fragen durch, die schon eingereicht worden sind. Vielleicht kommen noch einige dazu. Sehen wir dann, wie das läuft. OK. Schauen wir mal, wo wir anfangen. Die erste Frage betrifft das Ganze mit Escaped Fragment in Search Console. Verstehe nicht ganz, worauf die Frage hinausgehen will. Wenn du zuschaust, vielleicht kannst du mir noch ein bisschen mehr Informationen dazu schicken oder vielleicht auch sonst im nächsten Hangout. Oder vielleicht noch besser im Hilfeforum eine Frage dazu stellen mit den ganzen Details, was ihr da wirklich sieht. Ich glaube, es geht darauf hinaus, dass man mit diesem Ajax Crawling Schema arbeitet, also mit diesen Nummernzeichen und Ausrufezeichen in der URL, der dann umgeschrieben wird in Escaped Fragment, wenn Google baut diese URLs zum Beispiel Crowd. Und die Frage scheint ein bisschen zu sein. Wir sehen, dass Google baut diese Escaped Fragment URLs aufruft, aber wir wissen nicht genau, warum oder was man da machen soll. Aus unserer Sicht ist es so, dass wir jetzt angefangen haben, weniger mit dem Escaped Fragment zu arbeiten, sondern eher diese Hashbang-Seiten direkt zu crawlen und zu renderen, wie das ein normaler Browser machen würde. Und von dem her sollte man eigentlich Schritt für Schritt sehen, dass wir immer weniger diese Escaped Fragment-Seiten überhaupt aufrufen und einfach direkt die Hashbang-Seiten aufrufen und die Inhalte so via rendering an und für sich indexieren. In der Zwischenzeit kann es natürlich trotzdem sein, dass wir irgendwelche Links zu diesen Escaped Fragment-Seiten finden oder dass wir sie trotzdem zwischendurch noch ausprobieren. Und von dem her ist es an und für sich nicht so, dass man das irgendwie unterdrücken muss oder verstecken muss, sondern das sind einfach quasi diese URLs, wie sie früher da waren. Und bezüglich der Einstellung in Search Console über die URL-Parameter würde ich da eigentlich keine spezielle Einstellung vornehmen, sondern das einfach auf Standard lassen. Das heißt, Googlebot versucht da selber herauszufinden, ob es diese URLs aufrufen muss oder nicht. Und im Laufe der Zeit wird das wahrscheinlich so sein, dass wir die immer weniger aufrufen. Mit dem REL-canonical auf diesen Seiten zeigt man ja dann auch zur Hashbang-Version, so dass wir handeln für sich selbst, wenn wir diese Escaped Fragment URLs durchs natürliche Crawling irgendwie finden würden, würden wir ja dann den Weg zurück zu den Hashbang- URLs direkt wiederfinden. Ich hoffe, das hat dann ein bisschen was aufgeklärt, aber wie gesagt, wenn du noch genauere Informationen dazu brauchst, dann werde ich wahrscheinlich eher einen Forumbeitrag aufmachen und auch direkt mit den Beispiel URLs da mal posten und sagen, da sehe ich das Problem oder da ist jetzt diese Unklarheit. Du kannst mir gerne den Link zum Forumbeitrag schicken, dann kann ich das auch mal anschauen mit dem Team und schauen, was wir dazu sagen können oder vielleicht auch kontrollieren, was die anderen dazu gesagt haben. Okay, dann geht es weiter mit verschiedenen Arten von Links. Benutzt Google Nofollow Links, um die Relevanz einer Seite zu erkennen. Wenn ich also einen Nofollow Link mit dem Enker Blauer Socken habe, benutzt Google dann diese Information oder geschieht das nur bei Dofollow Links. Ja, das passiert wirklich nur bei Dofollow Links. Also Nofollow Links aus unserer Sicht ignorieren wir die Links in unserem Link-Craft, wir reichen keine Informationen weiter auf die gelingte Seite, aber wir sehen natürlich den Text auf der Seite, die diesen Link hat, diesen Enker Texten. Der hilft uns manchmal ein bisschen, die Seite mit dem Link ein bisschen besser zu verstehen, aber wir geben diese Information nicht weiter auf die Seite, die verlinkt wird. Bekommt ein weit entfernter, interner Link dieselbe Link-Craft wie einer, der nicht so weit entfernt ist. Also quasi, wenn man so drei Schritten von der Homepage entfernt, ein Link-Craft oder wenn man fünf Schritte von der Homepage entfernt, ein Link-Craft, ist das genauso wichtig für uns oder nicht? Aus unserer Sicht kann man das nicht so vereinfachen, dass wir da nur die Distanz zur Homepage zählen, sondern wie das mit PageRank allgemein ist, wir sehen, dass da verschiedene Signale in die Webseite hineinkommen an verschiedenen Orten. Das kann häufig sein über die Homepage. Es kann aber auch sein, dass andere Seiten einfach wichtiger angesehen werden innerhalb der Webseite. Und von dort aus über die internen Links wird das ein bisschen verteilt auf der ganzen Webseite. Und wenn einzelne Seiten wirklich nur sehr weit entfernt sind von diesen Orten, dann ist es natürlich schwieriger für uns zu erkennen, wie relevant diese Seiten sind, weil wir das Gefühl haben, für euch scheinen sie nicht so wichtig zu sein. Ihr versteckt sie quasi fünf Schritte weiter entfernt. Hinter einem langen Gang, wo man irgendwie noch durchgehen muss, dann können sie ja für euch nicht so wahnsinnig wichtig sein. Also könnten wir eventuell davon ausgehen, dass sie vielleicht für normale Suchende im Internet auch nicht so wichtig sind. Das heißt, wenn ihr etwas Wichtiges habt auf eurer Webseite, dann würde ich da schon so weit wie möglich auch im sichtbaren Bereich bringen. Also zu den Seiten, wo an für sich auch viel Verkehr kommt, wo viele Besucher hingehen. Das betrifft natürlich auch Neuigkeiten. Wenn ihr Neuigkeiten habt, macht es manchmal Sinn, dass man die zum Beispiel auf der Homepage verlinkt. Oft wird das ganz natürlich gemacht, indem das, wenn etwas Neues vorhanden ist in einer Firma, dann wird das ja auf der Homepage auch irgendwo erwähnt. Da steht dann zum Beispiel, diese Neuigkeiten, oder das ist jetzt neulich passiert, oder diese Produkte sind ganz neu bei uns. Schaut ihr euch mal an. Und so wird das eigentlich natürlicherweise an für sich auch gemacht. Das heißt, ohne dass ihr groß, sage ich mal, überlegen müsst, wie man die Struktur der Webseite aufbauen muss für SEO Gründen, ist es eigentlich schon oft schon standardmäßig richtig aufgebaut, indem das die Bereiche, die ihr wichtig findet, die für euch, für eure Kunden wichtig sind, dass sie auch irgendwie in zichtbaren Bereichen sauber verlinkt sind. Okay, dann schauen wir mal weiter. Da ist eine Frage zu hreflang. hreflang ist eine Art, wie man einzelne Seiten in verschiedenen Sprachen oder Länderversionen verknüpfen kann, so dass wir die entsprechend passende Version jeweils zeigen können in den Suchergebnissen. Die Frage betrifft X-Default. X-Default ist eine Art, wie man angeben kann, dass diese Seite quasi die Bereiche abdeckt, die nicht speziell angegeben worden sind. Manchmal verwendet man das, zum Beispiel, wenn ich jetzt zwei oder drei Länderversionen oder Sprachversionen habe, aber eine Version habe, die ich möchte, dass alle anderen Besucher besuchen würden. Das kann entweder eine Standard-Sprach-Version sein, vielleicht eure Hauptsprache, oder es könnte auch ein Sprach-Auswahlmenü sein, gibt da verschiedene Varianten. Okay, die Frage betrifft folgendes Setup. Das heißt, man hat ein DE-Domain für Deutschland, Deutschallgemein und für X-Default und ein AT-Domain für Deutsch in Österreich und ein CH-Domain für Deutsch in der Schweiz. Kommt Google damit klar oder hat die DE-Domain zu viele aircraft-lang-Zubeisungen? Für uns ist das ganz okay. Das heißt, ihr könnt da beliebig viele Versionen auf eine einzelne URL verweisen. Ihr könnt sagen, dass das die Version, dass man Deutsch für diese verschiedenen Länderversionen ist und dann habt ihr eine andere Version Deutsch für ein einzelnes Land. Das könnt ihr auch so einrichten. An und für sich kann man da beliebig viele Länder- und Sprach-Versionen auf eine einzelne URL zuweisen. Eventuell ist X-Default ja sogar falsch, weil es keinen direkten Auswahlmenü geht. Nein, X-Default in diesem Fall wäre an für sich total okay. Wenn ihr wollt, dass alle Besucher, die nicht aus einem von diesen drei Ländern kommen, auf die DE-Domain gehen, dann ist das total okay so. Das heißt, wenn jemand aus Frankreich nach euer Website sucht, dann wissen wir über diese Zuordnung. Ah, Frankreich passt nicht in diese drei Länderkategorien, aber als Standard ist der DE angegeben, also zeichnet diese Version zu Besucher oder zu Suchenden, die in Frankreich suchen. Ich zeichne die Ergebnisse aus der Search Console jede Woche für die vergangen 28 Tage auf. Seit Anfang Dezember stelle ich fest, dass unsere wichtigsten Keys immer schlechter performen. Der allgemeinen Suchtrend ist ansteigend. Unser Ranking ist recht stabil. Logischerweise sollten die Impressions und Clicks steigern, aber wir sehen, dass Impressions und Clicks eher nach unten gehen. Was könnte das sein? Grundsätzlich kann das durchaus so passieren. Also es ist nicht so, dass das nur, weil eine Website immer relativ stabil war, dass die Resultate immer stabil bleiben werden. Sondern es kann durchaus sein, dass für einzelne Bereiche, die Anzahl Impressions auch sinken oder die Anzahl Clicks auch sinken, manchmal hängt das damit zusammen, dass eine Website nicht mehr so sichtbar ist in einzelnen Bereichen. Manchmal betrifft das einzelne Länder oder einzelne Suchvarianten. Manchmal betrifft das Personalisierung. Dass Besucher aus vielleicht anderen Ländern oder mit anderen Sucheinstellungen kommen und dass da die Website dann halt nicht gezeigt wird. Was ich in einem solchen Fall jeweils mache, ist versuchen herauszufinden, was sich da genau verändert hat. Sind das einzelne Seiten, die nicht mehr so sichtbar sind, sind das einzelne Bereiche, also Länder oder Sprachvarianten, wo diese Veränderung stattgefunden hat, hauptsächlich oder ist das eher allgemein über die Website insgesamt, über alle Besucher, alle Länder. Wenn man das ein bisschen einschränken kann, mit Search Console, kann man das relativ einfach mit den Filtern ausprobieren. Dass man da einzelne Filter ausprobiert und schaut, wo sie, sehe ich, die größte Differenz. Und dass man dann aufgrund von diesen Filteroptionen, die man gefunden hat, dann auch mal überlegt, kann ich das nachstellen? Kann ich das kontrollieren und schauen, sehe ich diese Differenz auch? Und wenn man die dann selber auch nachstellen kann, dann kann man sich auch ein bisschen überlegen, ist diese Veränderung vielleicht okay für mich? Betrifft das vielleicht Länder oder Besucher, die ich gar nicht groß ansprechen wollte? Oder ist das ein Problem für mich? Gibt es vielleicht eine Möglichkeit, dass ich eine spezielle Länderversion für diese Besucher machen kann, die dann relevanter sein könnte für Besucher mit diesen verschiedenen Filteroptionen? Und so würde ich das das Ganze ein bisschen angehen. Und es kann natürlich auch sein, dass insgesamt die Webseite ein bisschen weniger sichtbar ist. Das heißt, wenn vom Ranking her das Ganze sich ein bisschen nach unten entwickelt hat, dann kann das natürlich auch ein Einfluss auf die Clicks, zum Beispiel, haben oder es könnte zum Beispiel sein, dass die Webseite vielleicht gerade auf der ersten Seite war, relativ weit unten und jetzt ab und zu auf die zweite Seite gerutscht ist. Das kann natürlich auch einen großen Einfluss auf die Impressions haben. Obwohl die Veränderung relativ klein ist, kann das natürlich doch sichtbar sein in den Daten insgesamt. Was auch manchmal ist, was manchmal ein bisschen verberend ist, ist, dass es manchmal auch einfach kurzfristige Veränderungen gibt. Das heißt, dass es vielleicht einzelne Tage gibt, wo die Webseite ganz anders in den Suchergebnissen erscheint, was vielleicht aufgrund von Experimenten auf unserer Seite passiert ist oder was vielleicht aufgrund von technischen Problemen entweder auf unserer Seite oder auf eurer Seite oder auf anderen Webseiten zurückzuführen ist, wo man einfach, wenn man die Daten insgesamt sieht, dann sieht man, es ist relativ stabil und dann einzelne Tage sind sie dann ganz unsichtbar oder sehr sichtbar und dann wird es nachher wieder ein bisschen stabil. Und das kann natürlich, je nachdem, wie groß diese Schwankungen sind, kann natürlich auch ein Einfluss auf die Gesamtstatistiken haben, dass man, wenn man insgesamt die Impressions anschaut, dann sieht man eine relativ große Veränderung. Wenn man das im Detail dann aber anschaut, wenn man das so ein bisschen eingrenzt mit den Filtern, dann sieht man, ah, das waren einfach zwei, drei Tage, wo jetzt große Unterschiede vorhanden waren, die aber längerfristig eigentlich irrelevant sind. Ja, gibt immer viele Möglichkeiten, die man da kontrollieren kann. Okay, wir sitzen gerade an einem Re-Launch und zielen dabei auf verschiedene Länder. Hierbei stellt sich für uns die Frage, wie wir am sinnvollsten mit Display- und Content-Language handeln. Wir möchten Nutzern die Möglichkeit geben, die Display-Language frei zu wählen, während unser Content von Nutzern generiert nicht immer in allen Sprachen verfügbar sein muss. Was kann man da am besten machen? Grundsätzlich würde ich das so handhaben wie jede andere internationale Website, dass man da sagt, das ist halt die Version auf Deutsch und das ist die Version auf Französisch, auch wenn das nur, sag ich mal, die Sprache von der User-Interface betrifft in manchen Fällen. Und wichtig ist da einfach, dass die Sprache in der URL irgendwie vorhanden ist. Das heißt, dass die einzelnen Sprach-Versionen unterschiedliche URLs haben, damit wir sie einzeln crawlen können, damit wir auch erkennen können. Wenn jemand auf Französisch sucht, dann zeigen wir ihm eher diese Seite hier, auch wenn die Hauptinhalte vielleicht trotzdem auf Deutsch sind, oder auf Italienisch, oder in anderen Sprachen. Und da kann man problemlos mit HF-Lang arbeiten, dass man sagt, dass es die Version von diesen Inhalten auf Französisch, dass es die Version auf Deutsch. Optimal ist das wahrscheinlich trotzdem nicht, weil die Hauptinhalte sind ja nicht in diesen Sprachen, aber ich denke, das ist die Variante, die am ehesten dazu passt. Und das ist ja auch, vielleicht mal ähnlich wie alle anderen User-generated-Content-Plattforms, das so handhaben, das ist einfach die am besten passende Version für Benutzern auf Französisch, auch wenn die Inhalte selber nicht auf Französisch vorhanden sind. Was ich einfach machen würde, ist gegen eine Möglichkeit geben, dass Benutzern zum Beispiel automatische Übersetzung die Hauptinhalte auch übersetzen können, nicht standardmäßig die Computerübersetzung zum Indexing mitgeben, aber dass man das wenigstens aktivieren kann. Was bedeuten die unterschiedlichen Farben der Pins in den Local-Search-Ergebnissen? Weiß ich nicht, was das bei den Local-Search-Ergebnissen bedeutet. Grundsätzlich sind die Local-Search-Ergebnisse eher etwas, was auf der Map-Seite gemacht wird. Und da kann ich nicht wahnsinnig viel dazu sagen, weiß ich nicht genau, was da alles gemacht wird. Zweitens, ich habe einer Seite den kompletten Inhalt der Index-Seite auf eine Seite in Unterverzeichnungsverschoben und einen 301-Video-Jagd eingerichtet. Google zeigt trotzdem noch die alte Version an im Index. Kann man da etwas machen? Grundsätzlich ist das normal. Das heißt, wenn wir sehen, dass sich da etwas verändert hat und jemand gezielt nach der alten Variante sucht, dann zeigen wir trotzdem die alte Variante, obwohl wir wissen, dass diese Inhalte jetzt auf einer neuen URL vorhanden sind. Manchmal ist es nur das. Das heißt, wenn ich eine Side-Abfrage mache nach dieser alten URL, dann kann es durchaus sein, dass wir die alte URL trotzdem zeigen. Anderseits kann es natürlich auch sein, dass wenn man allgemein sucht, trotzdem noch die alte URL sieht, das kommt meistens daher, dass wir verschiedene Signale nehmen, um festzustellen, welche URL gezeigt werden sollen. Das heißt, wir schauen Sachen an, wie redirects, wie da jetzt eingerichtet worden sind. Allerdings auch Side-Maps, ob eine URL in der Side-Abdatei ist, wie sie intern verlinkt ist, wie das extern verlinkt ist von anderen Webseiten her, ob da ein rel canonical vorhanden ist. All diese Sachen kommen bei uns zusammen und wir versuchen dann aufgrund von diesen verschiedenen Signalen festzustellen, welche URL wir jetzt für diese Inhalte zeigen. Und wenn ihr wirklich bewusst eine andere URL dargestellt haben möchtet in den Suchergebnissen, empfehle ich einfach, dass ihr wirklich alle Signale so setzt, dass diese neue URL wirklich ganz klar für uns vorgegeben ist, damit wir wirklich direkt erkennen können, dass es eigentlich die URL, die ihr sehen möchtet, dann können unsere Systeme sagen, gut, zeigen wir halt diese URL, alles deutet darauf hin, dass das die richtige Version ist, die die der Webmeister haben möchte, also bringen wir die dann auch in den Suchergebnissen. Es ist trotzdem nicht garantiert, dass wir immer diese URL nähen, auch wenn alle Signale darauf hindeuten, aber längerfristig schwenkt sich das dann schon in diese Richtung. Ich war in Dezember bei euch in der Sprechstunde und eine Frage wegen about you gestellt, bezüglich der mobile and alternate URLs, die dargestellt werden sollen. Ich habe das mit dem Team mal angeschaut und so, wie ich damals gesehen habe, haben sie das eigentlich untersucht gehabt. Deswegen finde ich das jetzt ein bisschen komisch, dass das Ganze nochmal kommt. Vielleicht ist da noch irgendetwas, was klemmt. Ich frage da trotzdem mal beim Team nochmal nach. Vielleicht haben sie da irgendetwas, was man noch anpassen müsste. Oder was ich dir sagen könnte, was du vielleicht auf deiner Seite machen möchtest. Ich bin auch heute hier. Ah, super, okay. Was ist denn das Problem denn da noch, oder? Das Problem ist immer noch das Gleiche, dass in mobilen Ergebnissen Desktopseiten angezeigt werden. Wir haben auch mit Haare Flangen verschiedene Strachseiten ordentlich aufgezeichnet. Und es springt auf allen Domains hin und her. Also es passiert nicht nur auf der DE Domain, sondern auch zum Beispiel auf der französischen. Okay. Es betrifft also das gesamte Portal. Und das betrifft nur die mobilen Suchergebnissen? Ja, in die mobilen werden Desktop URLs angezeigt. Und das springt auch von Tag zu Tag hin und her. Also zum Beispiel heute haben wir in einem großen Snippet, also wo die Hauptseite und mehrere kleine sind, sind glaube ich drei Stück zu Mobile und zwei zu Desktop. Okay. Das ist ein bisschen verwirrend. Okay. Wir hoffen, dass wir vielleicht, wenn die neue Searchkonsole bei uns ankommt, dass wir vielleicht dadurch mehr sehen können. Aber zurzeit haben wir unsere Möglichkeiten eigentlich ausgeschöpft, um das zu erforschen. Okay. Was wir suchen und fragen, sind das? Wenn wir zum Beispiel nach dem Firmennamen suchen? Wenn man nach dem Firmennamen sucht, genau. Okay. Gut. Ich schau das nachher nochmal kurz an und schau mal nach, ob da vielleicht etwas anderes vom Team her noch klemmt. Vielen Dank. Super. Okay. Ich sehe gerade, dass noch eine Frage im Chat noch dabei. Wir haben eine mobile Version unserer Website auf der m.subdomain, die wir aber nicht indexieren lassen möchten. Aktuell haben wir deshalb ein MetaRobotsNoIndex gesetzt. Ist es für euch besser, diese URL stattdessen mit indexfollow und einem Canonical Verweis auf die indexierten Seiten zu setzen? Ja, auf jeden Fall. Das heißt, im Moment, wenn die auf NoIndex gesetzt werden, kann es sein, dass wir in den mobilen Suchergebnissen die Seiten dann gar nicht zeigen in den Suchergebnissen. Und zukünftig, wenn wir mit dem Mobile First Index arbeiten, wird es so sein, dass wir die mobilen Version nehmen als Grundlage für die Indexierung der gesamten Website. Das heißt, wenn die mobile Version ein NoIndex hat, dann indexieren wir gar nichts von der ganzen Website. Und das wollt ihr wahrscheinlich nicht so haben. Von dem her würde ich in einem solchen Fall mit den normalen Einstellungen arbeiten, die wir empfehlen für separate mobile URLs. Das heißt, mit dem REL Canonical auf der mobilen Version Richtung Desktop Version und mit dem REL Alternate von der Desktop Version auf die mobile Version, damit wir diese Verbindung zwischen diesen beiden Varianten entsprechend auch erkennen können. Noch besser ist natürlich, wenn man mit einer responsive Version arbeitet, dann muss man mit diesen verschiedenen URLs gar nicht kämpfen. Schauen wir mal da. Kannst du uns bitte die neusten Updates von Ende Dezember bis Januar sagen? Sind Domains in Zukunft wichtig für Google Ranking? Domains sind natürlich immer wichtig für Google Ranking, weil wenn man kein Domain hat, kann man die Inhalte ja nirgendwo veröffentlichen. Von dem her ist das schon relevant. Aber zu den Änderungen, die Ende Dezember oder Mitte Dezember passiert sind, habe ich eigentlich nicht viel zu sagen. Das sind für sich ganz normale Veränderungen, wie wir sie immer machen in der Websuche. Manchmal betrifft es Seiten, die höher gehen, manche Seiten gehen ein bisschen tiefer. Wir versuchen mit unseren Veränderungen natürlich immer einfach die Relevanz des Suchergebnisses zu verbessern. Das heißt, die Qualität, die wir unseren Menu-Suchern geben, entsprechend zu steigern. Manchmal bedeutet das, dass wir einzelne Websites oder einzelne Suchernfragen neu beurteilen und feststellen müssen. Das, was wir früher gezeigt hatten an erster Stelle oder in Positionen hier, war vielleicht nicht so optimal. Deswegen haben wir jetzt andere Sachen gefunden, die wir da zeigen möchten, die unsere Algorithmen halt ein bisschen besser finden. Solche Veränderungen können anfühlt sich immer stattführen. Darf ich noch kurz hinterbrechen? Das war meine Frage. Frohes Neues erstmal, John. Ich habe bemerkt jetzt zum Beispiel, dass, wenn man Veranstaltungen und City-Name gibt, dass da oben jetzt eine Veränderung stattgefunden hat. Auch wenn ich jetzt zum Beispiel ein paar Keywörter reinsetze, zum Beispiel Marketingaufsätze, auf der rechten Seite dann Vorschläge kommen, was die User vorher gesucht haben und dann das dann aufswitcht nach oben, was das für eine Bedeutung hat, ist das jetzt lokalisiert zum Beispiel? Oder sind diese Keywörter auch akzeptiert worden von Google als Ranking-Faktor zum Beispiel? Das wären zum Beispiel meine Fragen, ob das mit dem Update zu tun hat. Bin ich jetzt gar nicht sicher, was sich da alles verändert hat, diesbezüglich. Das sind natürlich so User-Interface-Veränderungen, die es auf unserer Seite anfühlt sich immer wieder gibt. Das kann sein, dass wir dann irgendwie ein Data Refresh gemacht haben von Einzeln dieser Funktion und dass jetzt neu vielleicht bestimmte Suchanfragen besser oder anders kategorisiert werden bezüglich, gerade lokalen Ergebnissen oder nicht lokalen Ergebnissen. Das sind anfühlt sich so Sachen, wo wir jetzt nicht gezielt sagen würden, das und das und das, müsst ihr jetzt anders machen auf eurer Website, sondern wir denken einfach, dass wir die Besucher-Besuch-Benutzer so zusammenstellen können. Bezüglich lokalisiert oder nicht, gerade bei so Anfragen bezüglich Events oder mit Suchanfragen, die so leicht einen lokalen Einfluss haben könnten, würde ich einfach empfehlen, dass man auch mit schema.org arbeitet, dass man zum Beispiel den Standort auf den Seiten definiert, damit unsere Algoritmen, wenn sie das anschauen, dass sie sich auch sagen können, ja, jemand sucht noch etwas lokalen und hier sind effektive Ergebnisse, die auch lokal in diesem Bereich sind. Dass man das ein bisschen so ausprobieren kann. Ich glaube, im Moment ist es ein bisschen schwierig, dass man nicht gezielt sagen kann, ich möchte jetzt mal sehen, wie die Ergebnisse in einer anderen Stadt aussehen würden. Also nicht, dass man das irgendwie verändern kann und so ausprobieren kann. Aber man kann nicht einzelne Städte zum Beispiel oder Regionen innerhalb von einem Land nachstellen und das ausprobieren. Es sei denn, man kennt jemand in diesen Regionen und fragt sich, ob sie mal kurz suchen würden. Aber das ist ein bisschen für ihr. Es ist ein bisschen für ihr. Es ist ein bisschen für ihr. Es ist ein bisschen für ihr. Es ist ein bisschen für ihr. Es ist ein bisschen für ihr. Es ist ein bisschen für ihr. Es ist ein bisschen für ihr. Es ist ein bisschen für ihr. Es ist ein bisschen für ihr. Danke. Wторов geban. Okay, eine Frage zu URLs, bezüglich Verzeichnis oder Seite. Ich glaube, das bezieht sich eher darauf, dass man das Gefühl hat, Verzeichnis ist quasi eine Liste von Inhalten. Wir meinen das an für sich eher so, dass ein Verzeichnis ist wie ein Unterverzeichnis auf einem Computer. Also wie ein Ordner, wo einzelne Dateien quasi abgelegt sind, da drin. Und das ist an und für sich der technische Unterschied mit dem Strich am Ende oder ohne Strich am Ende. Bezüglich dem Best Case oder wie man das am besten einrichten kann, an und für sich ist das euch überlassen. Ob ihr die Kategorien als Verzeichnismamen nehmt, einem Strich am Ende oder nicht. Ob ihr alles in einem Wort nehmt, an und für sich ist das euch überlassen. Und es ist einfach wichtig, dass URLs eindeutig sind. Das heißt, wenn jemand eine URL eingibt, dass wir wirklich direkt zu diesem Inhaltsstück entsprechend auch kaufen. Dann ist noch eine Frage zu den lokalen Resultaten für Immobilien Salzburg, dass da unbekannte Unternehmen erscheinen. Wie gesagt, zu den lokalen Ergebnissen kann ich nicht wahnsinnig viel sagen, weil das Wert über das MAPS Team, über Google My Business entsprechend organisiert. Und da weiß ich nicht genau, was da alles gemacht wird oder was da genau untersucht wird. Oder wie man da zum Beispiel problematische Einträge entsprechend melden kann. Ich nehme an, das kann man auch irgendwie markieren und sagen, das ist jetzt nicht wirklich lokal hier. Was sind aus seiner Sicht die wichtigsten Themen für 2018? Welche sich Webmaster verstärkt widmen sollten? Das ist eine große Frage. Solle Seiten bauen? Ja, auf jeden Fall. Aber ich meine, das solltet ihr ja eigentlich auch letztes Jahr gemacht haben, oder? Sollte doch jetzt erledigt sein, dass die Website entsprechend gut ist. Ich gebe dir immer was zu tun. Ja, natürlich. Mal schauen, zwei oder drei Sachen, die ich vermute, zumindest von unserer Seite her, immer mehr als Themen kommen werden in diesem Jahr. Einerseits ist das Ganze mit mobilen Webseiten. Ich denke, das ist noch nicht ganz abgeschlossen. Das heißt, es sind jetzt immer mehr, oder die meisten Webseiten sind jetzt mobile-friendly. Das heißt, man kann sie zumindest einigermaßen benutzen auf Mobilgeräten. Aber der nächste Schritt ist natürlich so, dass die Websites auch wirklich vollständig benutzbar sind auf Mobile. Das heißt von der Geschwindigkeit her, dass sie wirklich sehr toll sind, dass sie wahnsinnig schnell und zacklig auflaufen, damit Besucher, wenn sie auf diese Seiten kommen, nicht das Gefühl haben, dass sie zwischendurch immer auf Facebook switchen müssen, um sich da zu unterhalten, bis diese Website endlich geladen ist. Also, gerade mit bezüglich Geschwindigkeit, könnte ich mir vorstellen, dass da noch einiges kommt. Wir haben ja gerade das neue PageSpeed Insights Tool gelauncht, welches auch richtige Echtweltdaten von Benutzern von Mobilgeräten entsprechend auch darstellt. Das heißt, man kann dann wirklich auch sehen, für meine Website oder beziehungsweise zumindest für ein Teil der Websites, kann man sehen, wie schnell die Website effektiv war für Besucher. Das, denke ich, wird sicher weiterhin so ausgebaut, auch in Richtung Mobile First Index. Das heißt, dass die mobile Version wirklich so sein sollte, wie eigentlich alles auf der Website. Das heißt, dass alles, was man machen kann mit eurer Website, sollte wirklich top auf Mobile funktionieren. Das heißt, es soll nicht nur einigermaßen brauchbar sein, sondern es soll wirklich auch sehr gut funktionieren und vollständig da sein auf Mobile. Das ist, denke ich, schon mal ein großer Schritt. Ich denke, für viele Websites, die jetzt hier zuschauen, ist das wahrscheinlich für euch schon eine alte Geschichte. Das heißt, ihr habt schon sehr gute Mobile-Websites, aber für viele kleinere Firmen sehe ich immer wieder, dass das wirklich noch ein großes Problem ist, dass da zum Teil Inhalte da sind, die gar nicht gut auf Mobile funktionieren, dass die ganze Seite als Bild abgespeichert ist statt mit Text. Und so entsprechend kann man nicht einmal richtig zoomen, dass vielleicht einzelne Inhalte als PDF nur vorhanden sind, die man kaum herunterladen kann auf Mobile und dann entsprechend auch schwierig anschauen kann. Also solche Sachen sind noch große Probleme. Und da könnt ihr sich ja auch ein bisschen mithelfen, dass das Rest vom Web da entsprechend vorwärts macht. Ein anderes Thema ist alles bezüglich, sage ich mal, den modernen Websiteaufbau. Was ich vermute, wird wahrscheinlich weiterhin ein Thema sein. Das ist jetzt im letzten Jahr, ist das vermehrt aufgekommen. Das betrifft vor allem alles, wo man JavaScript-Frameworks verwendet, um eine Seite aufzubauen. Das ist natürlich für die Entwicklung und für die Usability ist das super toll. Man kommt sehr schnell vorwärts, man kann sehr schnell eine gute Website zusammenfahren. Für SEO ist das allerdings immer noch sehr schwierig. Und viele SEOs, wenn sie diese JavaScript-basierten Websites anschauen, sagen im ersten Moment, das geht auf keinen Fall, das wird nie funktionieren. Und ich denke, da müssen sich beide Seiten irgendwo mal treffen. Das heißt, die Entwickler, die mit diesen JavaScript-Websites arbeiten, müssen mehr von SEOs erfahren, wie man wirklich eine gute Website macht, wie crawlbar ist, die indexierbar ist. Und SEOs müssen sich vielleicht auch ein bisschen mehr mit der JavaScript-Seite beschäftigen, damit sie ja wirklich mit den Entwicklern sprechen können. Und nicht einfach nur blind darstellen und sagen, es muss funktionieren, ich gehe lieber mal los und lass euch in Ruhe mit diesen JavaScript-Zeugs, sondern man muss da wirklich auch einen Mittelweg irgendwie finden können. Und ich denke aus unserer Sicht, wäre es sicher einiges kaum, dass man vermehrt mit diesen JavaScript-Frameworks auch arbeiten kann, ohne dass man da quasi befürchten muss, dass gleich alles zusammenklappt und SEO-mäßig nichts funktionieren. Aber bis das soweit ist, gibt es natürlich viel Arbeit, das sind auch viele technischen Sachen, die da involviert sind. Das heißt, wenn man als SEO Freude am Programmieren hat, ist das natürlich eine große Chance, dass man da wirklich mit vielen guten, großen Websites auch arbeiten kann, an kniffligen Problemen, die beides programmieren und SEO irgendwie betrifft. Und irgendetwas anderes war auch noch, was ich erwähnen wollte, aber es fällt mir jetzt gerade nicht ein. Vielleicht, ah, Structure Data, natürlich. Alles bezüglich Structure Data, da könnte ich mir vorstellen, dass es auch immer mehr ein Thema ist, gerade bezüglich vielleicht mal Google Assistant, den ganzen Sprachaufrag, ist es natürlich für uns immer wichtiger, feststellen zu können, worum handelt sich wirklich mit einer einzelnen Seite im Internet. Und das kann man am besten in maschinenlesbacher Form mit Structure Data machen. Das heißt, mit JSON-LD-Markup, mit Schema.org-Varianten, dass man da ein bisschen mehr Information in die Seiten hineinbaut. Und wenn wir dann erkennen können, worum es sich handelt durch diesen Markup, können wir das Ganze entsprechend auch ein bisschen besser in den Suchergebnissen präsentieren. Es kommen sicher noch andere Sachen dazu. Ich denke, das macht es ja auch immer ein bisschen spannend an SEO oder am Web im Allgemeinen, dass irgendjemand auf irgendeine wille Idee kommt zwischendurch und auf einmal stellt sich alles in die Richtung um. Aber ich denke, das sind schon mal drei Themen, die doch sehr relevant sein werden für das nächste Jahr oder für dieses Jahr natürlich. Ja, vielen Dank hier schon mal dafür, weil das Structure Data erwähnt ist. Würdest du da empfehlen, das wirklich hardcoded reinzubringen oder reicht da Data Highlighter oder Tool, das Tool auch in der Search Console? Ich würde das, wenn möglich, wirklich auf die Seiten einbauen. Okay. Da ist man natürlich am sichersten, dass man das richtig integriert hat, dass es wirklich auch immer lesbar ist und natürlich auch so, dass andere Systeme das auch lesen können. Und gerade mit dem Data Highlighter könnte ich mir vorstellen, dass es da ein bisschen knifflig sein wird, wenn wir mich auf das Mobile Index umstellen. Muss natürlich Data Highlighter neu trainiert werden für die mobile Version der Seiten. Und wenn man sich jetzt nur auf Data Highlighter verlässt, dann könnte ich mir vorstellen, dass das ein bisschen knifflig wird. Hingegen, wenn man das natürlich markiert hat, auf den Seiten selber, im HTML, dann kommt das automatisch entsprechend weiter. Okay, vielen Dank. Zur Strukturierten-Daten habe ich noch eine Frage, wenn du erlaubst. Und zwar Live Streaming. Ja, immer noch ein riesen Problem, jedenfalls bei uns, dass man da eben, auch wenn man das angegeben hat in strukturierten Daten, dass man Live Stream macht, oder dass da ein Video drin ist, oder was auch immer, muss man immer noch sagen, ja, Google hier, wir machen wirklich jetzt Live Stream und wir müssen einen Antrag stellen und so weiter. Gibt es da keine andere Möglichkeit, als eine kurze Form zum Beispiel, weil Live Streaming passiert manchmal spontan, deswegen. Weiß ich jetzt nicht genau, wie du das meinst. Also es gibt ja bei euch eine Form, eine Google Form, wo man sich dann bewerben kann, auf die Webseite und das man gelegentlich auch Live Streaming anbietet. Und das muss dann von euch, und dann wird man auch als Live Streamer quasi geteckt von euch aus. Okay. Kenne ich jetzt nicht. Wenn du mir ein paar Links schicken könntest, dann kann ich das mal anschauen und mal schauen, ob wir da ein bisschen was verbessern können. Aber ist mir jetzt... Es ist bei der Instruction, also bei der Einleitung strukturierte Daten auch von euch erklärt, da kannst du es aussehen. Da gibt es auf der linken Seite Beta-Version Live Stream oder so was ähnliches. Ich bin jetzt nicht online, ich bin jetzt hier auf der Terrasse, deswegen. Ja, und dann kann man das da lesen und dann kommt man im Ende auf diesen Form, auf diesen Google Form. Also live. Also ich such das mal raus. Gut. Ja, ich kann ja auch gleich nochmal dem Live Stream unter meinem Kommentar dann was schicken. Super. Okay, das war toll. Job. Okay, da sind, glaube ich, noch ein paar weitere Fragen. Gibt es eine Möglichkeit, News-Artikel für den Google Play Newsstand zu optimieren? Weiß ich nicht, was man da machen kann oder wie das genau funktioniert. Für Google News würde ich allgemein im Google News Publisher-Forum nachfragen. Beziehungsweise, wenn man aus Google News Publisher ist, hat man ja auch über das Hilfesenter die Möglichkeit, jemanden von Google News zu kontaktieren. Ich glaube, entweder per Chat oder per E-Mail und so könnte man wahrscheinlich direkt von jemandem von Google News ein bisschen Information dazu kriegen. In einem deiner letzten Hangouts hattest du davon gesprochen, dass external links auf noindex-Seiten nicht mehr zählen für das Ranking. Doch wie ist das bei internal links? Das gleiche gilt eigentlich auch für internal links. Das heißt, insgesamt vom groben Bild her ist es so, dass wenn eine Seite als noindex markiert ist und längerfristig auf noindex markiert ist, nehmen wir an, dass diese Seite nicht indexiert werden soll und nicht verwendet werden soll in unserem Index. Und entsprechend lassen wir dann eigentlich alles, was mit dieser Seite in Verbindung steht, entsprechend danach fallen. Das heißt, alle Links, die auf dieser Seite sind, ignorieren wir an und für sich. Wir nehmen diese Seite dann wirklich ganz aus dem Index. Und das betrifft external links wie natürlich auch internal links. Das heißt, wenn etwas für euch wichtig ist, würde ich wirklich abschauen, dass es von den sichtbaren Seiten innerhalb der Website auch wirklich sauber verlinkt ist. In den meisten Fällen ist das ja auch unproblematisch. Oft wird das eben wie jetzt hier bei der Frage erwähnt auf Kategorienseiten verwendet, dass man da ab Seite 2 mit noindex und follow arbeitet. Aber es sind natürlich, die einzelnen Artikel sind ja auch anders wie verlinkt innerhalb der Website. Und so finden wir die Artikel ja trotzdem in den Suchergebnissen zeigen. Es ist einfach so, dass von diesen noindex-Seiten, was wir diese Links, wenn wir sehen, dass die noindex-Seiten wirklich auch längerfristig noindex sind, die ignorieren wir dann auch, wie eigentlich alles andere, was auf diesen noindex-Seiten vorhanden war. Ich habe die Einladung zum neuen Wettertest der neuen Search Console erhalten. Allerdings für den falschen Domain. Was kann man da machen? Ja, bei uns ist es so, dass wir die Einladungen für die neue Version von Search Console verschicken wir an und für sich fast täglich im Moment. Einfach immer mehr Websites kommen dazu. Und dementsprechend kann es durchaus sein, dass wir jetzt einzelne Websites ausgewählt haben, die halt nicht so aktiv sind und die haben die, diese Einladung halt jetzt gekriegt. Einfach weil sie in diesem Teil leichte dieser ganzen Websites sind, die wir im Moment gerade in diesem Schritt einladen. Und es kommen immer mehr Websites dazu. Das heißt, manchmal muss man einfach ein bisschen warten. Vielleicht dauert das ein paar Tage, vielleicht ein paar Wochen, bis wirklich alle Websites durch sind und Zugriff haben auf die neue Version von Search Console. Ja, toll. Darf ich dazwischen quatschen? Ja, klar. Aber ihr schickt ja die Einladung sowieso gleich weiterleitet auf HTTPS. Warum kriegt man die Einladung für eine Seite, die weiterleitet und nicht die eigentliche Seite ist und das seltsame ist, aber ich sehe auf dieser Seite Daten. Wenn ich die jetzt aufrufe in der Beta Version, dann sehe ich in dieser HTTPS Version Daten. Switch ich wieder zurück zu Alpen, sehe ich keine Daten. Das ist mir ein bisschen inkongruend. Wir verschicken das an und für sich an solche, die schon verifiziert sind in Search Console. Das heißt, wahrscheinlich alle vier Versionen sind mit WBW, ohne WBW, HTTPS. Ja, vier Chancen für die Beta Version. Warum die Seite, die ich nicht will, die nicht prüfiert ist? Also so wie ich das gesehen habe vom Team her, ist es nicht so, dass sie die Daten vorhanden sind, sondern dass sie einfach sagen, das ist die Menge an Zeiten, die wir haben, dann nehmen wir einen Schnitt und nehmen den nächsten Tag den nächsten Schnitt, den nächsten Schnitt. Ja, aber John wirklich, in der Alpen Version sehe ich da keine Daten, weil die Seite bringt ja auch keinen Treff weg, die leitet ja weiter. In der neuen Version sehe ich für die HTTPS Version Daten. Klicks, warum? Du kannst die Screenshots sehen, ich habe dir mal zwei geschickt. Weiß ich nicht, müsste ich genauer anschauen. Es kann natürlich schon sein, dass wir trotzdem die HTTPS Version manchmal zeigen, aber es sollte einen für sich schon die Mehrheit der Daten bei der richtigen Version dann sein. Schau es mal an, die Screenshots, danke. Ich hoffe, die bald sind auch die richtigen Version, dann in der neuen Screenshot verifiziert, dann hast du ein bisschen was Spannendes anzuschauen, also einzelne falschen Daten. Also nächste Frage, ist es ein negatives SEO Signal, wenn wir unsere Main Menu etwas verschlankt ausgemistet haben und nur noch wenige Hauptzeiten in Menü zeigen, die anderen aber organisch gut gefunden werden und intern stark verlinkt sind. Also braucht es eine Verlinkung in Menü, um den Nutzer und Google zu zeigen, dass eine Seite wichtig ist oder geht es auch so, es geht auch so. Das heißt, wir versuchen zu erkennen, wo das Menu ist oder wo die Bereiche einer Webseite sind, die sich regelmäßig wiederholen. Einfach damit wir die Hauptinhalte auch erkennen können, aber für Scrawling her ist es an und für sich egal, wo wir diese links, diese internen Links finden auf der Webseite. Wenn wir über das Menu scrollen können, ist das für uns okay, wenn wir über links scrollen können, ist es okay, dass es an und für sich vollkommen euch überlassen. Wenn das Menu für euch so funktioniert, dann finde ich das eine gute Sache, dann würde ich das weiterhin so behalten. Ich würde einfach, gerade wenn man größere Veränderungen in der internen Linkstruktur macht, würde ich das im Nachhinein zumindest mal kontrollieren, dass wirklich alles noch crawlbar irgendwie erreichbar ist. Das heißt, es gibt ja so Tools, die sind quasi direkt crawl. Ich glaube Screaming Frog ist eines davon. Und wenn man da vergleichen kann, wie das vorher aussah mit den Seiten, die gefunden werden durch das Crawl und mit dem Crawl von nachher, dann sieht man relativ schnell, passt das eigentlich noch zusammen, stimmt das überein. Es sind wirklich alle Seiten, die vorher gefunden waren, auf dem Nachhinein gefunden. Und wenn das so ist, dann ist das natürlich okay. Teilweise werden automatisierte Infos im Titel und das Götchentag ausgespielt, zum Beispiel in Datum. Zusätzlich werden ASCII Sonderzeichen genutzt. Wie sieht ihr das? Ist das für euch okay, auf dieser Weise eine optische Hervorhebung in den Ergebnissen zu probieren? Anführlich ist das okay. Normalerweise ist es so, dass wir versuchen, sag ich mal, irreführende Symbole in den Titel und Beschreibungen ein bisschen auszublenden. Aber wenn da etwas da ist, was für euch gut funktioniert, würde ich das ausprobieren und schauen, ob das wirklich euch hilft oder nicht. Wenn das einfach mal fünf Sterne sind und die blendet ihr im Titel ein, die aber wirklich nicht auf diesen Seiten sind, dann würde ich davon ausgehen, dass wir die auch einfach ausblenden und ignorieren. Aber auf jeden Fall ist es nicht so, dass wir Sonderzeichen im Titel sehen würden wenn es Bami Website, weil sie in Stern drin hat, sondern im schlimmsten Fall ignorieren wir das einfach und zeigen das nicht in den Suchergebnissen. Ein Unternehmen hat zwei Standorte Berlin und Hamburg. Wie bringe ich das im schema.org dazu? Wie kann man das am besten machen? Weiß ich jetzt auf Anhieb nicht. Normalerweise was ich gesehen habe, was viele machen, ist, dass sie einfach einzelne Seiten haben zu den einzelnen Seiten und dass sie dann die Adresse und die Öffnungszeiten, Telefonnummer, Anfahrt für die einzelnen Standorte auf einzelnen separaten Seiten haben und so kann man das natürlich auch besser erkennen. So kann man auch mit einem Markant arbeiten. Das ist klar, das ist zwei von 200 Seiten. Was ist mit den restlichen 198 Seiten? Soll ich die dann abwechselnd mal für Hamburg und mal für Berlin oder das ist... Ich würde einfach die Standorte unten erwähnen, zum Beispiel im Futter unten und ich denke, das soll eigentlich schon gehen. Also ich muss mal kurz schauen. Aber an und für sich würde das auch nichts ausmachen, wenn man das doppelt entsprechend markiert, wenn man jetzt beide Standorte jeweils im Futter dabei hat. Ich glaube, das ist nicht vorgesehen. Also keine Enumeration von Standorten und keine Möglichkeit, zwei anzugeben. Ja, ich glaube, man kann einfach zwei Adressen angehen. Also zweimal diesen schema.org Markup verwenden, soll dann für sich auch funktionieren. Okay, ich gucke nochmal. Danke. Super. Okay. Ich glaube, damit sind wir bis zum Ende gekommen. Jawohl! Und zeitlich passt es auch ziemlich. Super. Gut. Dann machen vielleicht Pause für hier. Ich denke, ich kriege von Einzelnen von euch noch ein Link zu ein bisschen mehr Informationen. Da schaue ich das nochmal an mit dem Team hier. Vielleicht findet man da noch was, was wir verbessern können. Das ist immer praktisch für uns auch. Möchte ich mich bei euch erstmal bedanken für die vielen Fragen und Kommentare zwischen euch und hoffentlich sehen wir uns in einem von den nächsten Hangouts wieder. Auf Wiedersehen.