 Okay, willkommen allerseits zum heutigen Google Webmaster Central Sprechstunden Hangout. Ich bin Johannes Müller, Webmaster Chance Analyst hier bei Google in der Schweiz. Teil von dem, was wir machen, sind solche Webmaster Hangouts, wo Webmaster und Publisher ihre Websearch-Webmaster-Fragen an uns richten können. Wie immer, falls eine von euch anfangen möchte mit einer Frage, könnt ihr gerne jetzt schon mal loslegen. Wenn niemand möchte, fange ich als erstes an. Super. Hallo, ich bin Alexander Wilke. Ich arbeite als technischer SEO bei About You. Und wir haben ein paar Fragen. Sie sind auch gepostet, weil jemand das nicht mitlesen möchte. Ich lese einfach mal vor. Wir nutzen eine mobile Subdomain, m.aboutyou.de und kürzlich haben wir festgestellt, dass bei den Spam-Anfragen auch mobilen Geräten Desktop-Leitungen in Kraft ausgeliefert werden. Wie kann das sein? Normalerweise sind da zwei Sachen, die dazu führen können. Ich glaube, bei euch treffen die jetzt nicht zu. Also ich habe das kurz vorher noch kontrolliert und mal an das Team weitergeschickt. Normalerweise, was passieren kann zum Beispiel, ist, wenn die Desktop-Seite erst neulich quasi bekannt wird für uns, dann haben wir erstmal keine Informationen über die anderen Seiten dazu und haben auch nicht die Sicherheit, dass die mobile Version anfühlt sich die gleiche Version ist für die Desktop-Version und in solchen Fällen zeigen einfach die Desktop-Seite an. Eine andere Variante kann sein, wenn die mobile Version nicht als mobile-friendly Seite eingestuft wird, dann nehmen wir auch an, dass beide Seiten für sich ähnlich nicht mobile-friendly sind und dann nehmen wir einfach die normale Canonical-Seite dazu. Ich glaube, bei euch trifft beides eigentlich nicht zu. Ihr habt das soweit eigentlich auch sauber eingerichtet und die Seiten sind schon länger so indexiert und deswegen habe ich mal nachgefragt beim Team. Mal schauen, ob sie dann auch irgendwas herausfinden können, dass wir dann für euch pausen können. Cool, danke schön. Wir haben mehr zu fragen. Wir nutzen Free Rendering. Und gab es letztendlich im letzten Hangout schon so eine ähnliche Frage gehabt, haben dafür gesorgt, dass die SEO-richtigen Text weit oben im Herd stehen in der Free-Version-Variante. Trotzdem verändert sich die Position durch, dass ja was auf der Seite läuft. Ein Einfluss haben? Sollte eigentlich unproblematisch sein. Solange das ziemlich weit oben im Herd ist, ist das eigentlich egal. Man kann ja auch einige dieser Tags zum Beispiel in die Sidemap-Data hineinnehmen, wenn man das möchte. Ich glaube, den hreflang Tag zum Beispiel und da ist man dann auch ein bisschen sicherer, dass das auf jeden Fall bearbeitet wird. Ja, vielen Dank. Gibt es ein Exivalent des Alltags für Images, für SVG-Grafik oder eine Empfehlung dazu? Wenn man ein SVG-Datei mit einem Image Tag verwendet, dann sollte der Alltag eigentlich auch genauso gut funktionieren. Wenn man es natürlich als Objekt einbettet, dann hat man, glaube ich, kein Alltext. Dann könnte man höchstens mit dem Title-Attribut, wenn man jetzt das in ein Link einbettet, könnte man mit denen zum Beispiel arbeiten. Das wäre vielleicht eine Variante. Okay, vielen Dank. Und die letzte Frage geht um hreflang für Mobile. Das war letztens auf Twitter, wann sie auch involviert, dass Mobile-Seiten auf Mobile-Seiten zeigen sollen. Ist das jetzt offiziell? Ja. Also wir haben noch nicht die Dokumentation angepasst und die Blog-Post dazu steht noch aus. Aber an und für sich ist das entschieden, das wird auf jeden Fall so sein. Okay, dann werden wir das machen. Super, vielen Dank. Bitte. Okay. Ich übernehme es uns grad, wenn ich darf. Ich bin so Chris von Syrup in Zürich. Man hört es vielleicht. Ich habe eine Frage zu Cloaking, das steht auch noch in den Comments drin. Wenn Sie jemand nachlesen möchten, zwar ist es so, dass wir einen bestehenden Shop haben. Wir haben jetzt einen Beta-Shop parallel dazu aufgebaut, den wir aber nicht gekrolt und nicht gintext haben wollen über die Robotsmetatags- und Robots-Textfalt. Geschäftstechnisch ist es jetzt so, dass wir wollen Teile des Traffics, also Teil unserer Kunden, auf den neuen Shop leiten. Dass wir den testen können, schauen, wie der performt und konvertiert. Die Frage hierzu ist jetzt, wir werden das prozentual hochfahren. Die Frage ist, das machen wir mit den Boots. Mein größtes Risiko, das ich sehe, ist halt je nachdem meine Cloaking-Penalty. Weil unser Ansatz moment ist, weil der neue Shop ist noch nicht optimiert. Das fehlen noch jede Menge Tags- und saugere Strukturen. Deswegen möchte ich mit dem Idealfall die Boots aus dem Google-Bot auf den alten Shop behalten, bis der neue Shop vorzeigbar ist, sage ich mal. Inhaltlich, also Textbild, alles frontendmäßig wird sehr ähnlich sein, alt wie neu besteht da eine Chance oder ein Risiko für eine Cloaking-Massnahme eurerseits. Kannst du das so pauschal sagen oder solltest du da so viel versuchen? Normalerweise würde das Webspam-Team wegen so etwas nicht wegen Cloaking da angreifen, weil die Inhalte eigentlich die gleichen sind. Wichtig vom theoretischen her auf unserer Seite ist, dass Google-Bot die Version sieht, die die Mehrheit der Benutzer sieht. Und wenn das jetzt einfach ein AB-Test ist, das sage ich mal jetzt von 10, 20, 30% der Benutzer auf die neue Version gehen, ist das total unproblematisch, wenn man Google-Bot weiterhin auf die alte Version verweist. Wenn hingegen 80% der Benutzer auf die neue Version kommen und nur eine kleine Minderheit auf die alte Version geht, dann wäre das ein bisschen komisch, wenn Google-Bot auf die alte Version auch gehen würde, obwohl die meisten Benutzer dann die neue Version sehen würden. Okay, und vielleicht gerade das Anschlussfrage dazu. Ist es in Ordnung, wenn wir den Split auf CDN-Seite machen, dass wir halt User Agents abfangen und von da umleiten, weil wir haben was über 5, 6 Millionen Pages, wir wollen dann nicht hard redirecten. Also wie? Umabfangen dann? Also auch mit einer Umleitung oder? Ja, also wir würden CDN-Seite machen, dass halt wenn der User Agent etwas von Google-Bot hergibt, also wenn Google-Bot drinsteht im User Agent in den verschiedenen, dass wir den dann eben auf die alte Seite, also dass wir da die alte, den alten Content zeigen, während wir human User Agents, sobald wir die identifizieren können, auch wieder besiedeln auf die neue Version leiten, diesen Prozentsatz. Theoretisch würde das unter Cloaking fallen, weil ihr da Google-Bot speziell behandelt. Genau. Von dem her ist das vielleicht nicht die optimale Variante, besser wäre es vielleicht, wenn man irgendwie Gruppen von Benutzer machen würde, wo Google-Bot vielleicht einfach in eine von diesen Gruppen fallen würde. Dass man vielleicht, ich weiß jetzt nicht nach Standort, dass das einteilt, dass man sagt, wir testen jetzt nur mal die Schweizer Benutzer und vielleicht ist das für euch ja genauso aussagekräftig. Und so hat man dann nicht die Gefahr, dass Google-Bot per User Agenten, die eine Gruppe geleitet werden oder nicht, sondern es ist einfach die Gruppe ist halt im Testbereich dabei und die andere Gruppe halten nicht. Okay, alles klar. Vielen Dank. Bitte. Okay, ich gehe mal die Fragen durch, die soweit eingereicht worden sind. Wenn ihr zwischendurch Kommentare habt oder weitere Fragen einfach melden. Die ersten zwei Fragen beziehen sich ein bisschen auf quasi algorithmische Anpassungen bei Google. Wie lange dauert das bis Google einen algorithmischen Penalty wieder zurücknehmt beziehungsweise neu bewertet und kann man diesen Vorgang irgendwie beschleunigen? In meinem speziellen Fall geht es um meine Einschätzung nach, um ein Penalty, weil zu viele harte Enkeltexte verwendet wurden. Und der Ans dazu kommt noch die Frage, gibt es eine Möglichkeit, um herauszufinden, welche Penalty Panda oder Penguin eingetroffen ist, zum Beispiel, dass der eine filter nur eine spezielle Unterseite abwertet oder der andere die komplette Domä. Grundsätzlich ist es auf unserer Seite so, dass wir solche algorithmischen Anpassungen nicht als Penalty sehen, sondern das ist einfach eine Art, wie wir versuchen, festzustellen, welche Seiten relevant sind für gewisse Suchanfragen und welche vielleicht weniger relevant sind. Und da kann es durchaus sein, dass unsere Systeme irgendwelche problematischen Teile bemerken auf einer Website und dann sagen, gut, wir wissen jetzt nicht, ob wir diese Website so weit trauen können oder ob wir die wirklich voll bewerten sollen in den Suchergebnissen. Und das sind Anpassungen, die an und für sich immer fortlaufend laufen. Und je nachdem, wie sie halt zusammengestellt sind, kann es sein, dass diese Algorithmen sich auf einem Teil von der Website beschränken können oder dass sie das nicht genau eingrenzen können und dann die gesamte Website so an für sich betrachten. Und solche Anpassungen brauchen in der Regel einfach die Zeit für das neue Crawling und Indexing und das neue Bewerten aller Signale, die dazu kommen. Und das sind Prozesse, die kann man teilweise ein bisschen beschleunigen, zum Beispiel mit einer SideMap Datei. Wenn man mit der SideMap Datei einen neuen Änderungsdatum angebt, dann wissen unsere Systeme, dass da diese Seiten jetzt geändert worden sind, dass wir die ein bisschen schneller crawlen können und neu indexieren können. Die ganzen anderen Signale, die wir vielleicht kriegen, quasi querband durch die Website, die brauchen in der Regel ein bisschen länger. Also es ist dann nicht nur eine Frage vom Crawling von der einen Seite zum sehen, ah, diese Seite hat sich jetzt leicht verändert und ist jetzt so weit okay, sondern wir müssen dann manchmal das Ganze ein bisschen neu bewerten, neu quasi neu berechnen für die Website. Und das kann durchaus mehrere Monate dauern, je nachdem, was das Problem am Anfang war. Und das ist einfach ein Zeitrahmen, der einfach eine gewisse Zeit braucht. Und gerade bei Qualitätsproblemen ist es ja nicht so, dass man einfach auf Anhieb direkt durch das Crawl in der HTML-Seite sieht, ah, die Qualität dieser Website ist jetzt insgesamt besser geworden, sondern das braucht eine Weile, bis wir das wirklich feststellen können. Und eben von dem her lässt sich das schlecht sagen, es lässt sich auch schlecht sagen, welche Art von Anpassung da stattgefunden hat, weil bei uns läuft das schlussendlich alles einfach hinein, dass wir versuchen, die Relevanz dieser Seiten festzustellen. Und wenn eine Seite jetzt weniger relevant ist, ist es ja nicht unbedingt ein Penalty für die Website, sondern sie passt einfach zu diesen Suchanfragen nicht mehr so gut, wie sie früher gepasst hat und deswegen zeigen wir sie weniger oft. Und das ist ja dann nicht unbedingt etwas Schlechtes, sondern es ist einfach, wir versuchen eher die Benutzer zu euch zu leiten, die wirklich zu eurer Website passen. Und ja, von dem her ist es schwierig, weil wir dann nicht irgendwie auf ein Metathag zeigen können und sagen können, das muss man ändern und dann wird alles wieder gut. Manchmal muss man sich halt wirklich ein bisschen zurücknehmen und überlegen, wie könnte man die Website insgesamt grundlegend verbessern, sodass es wirklich von allen Seiten her ganz klar ist, dass diese Website die Beste für diese Art von Themen überhaupt ist, dass unsere Algorithmen gar nicht groß zweifeln müssen, sondern dass sie wirklich klar erkennen können, dass es die Website, die wir zu diesen Suchanfragen zeigen müssen und alles andere wäre eigentlich ganz klar falsch. Aber das ist natürlich nicht etwas, was man von einem Tag auf dem anderen einfach so machen kann. Dann war da noch eine interessante Frage bezüglich Facebook, bezüglich einem Facebook-Plugin, wo Facebook-Seiten innerhalb von normalen Webseiten eingebunden werden können. Ich habe das kurz angeschaut, mit einer Testseite auf meiner Seite und nach anderen Websites auch mal gesucht, die das so schon verwenden. Konkret gibt es dieses Plugin seit mehreren Jahren schon. Man kann dann Facebook-Pages per iFrame oder per JavaScript einbinden lassen in eine normale HTML-Seite. Und die Frage ist, an wem wird der Content zugeschrieben? Facebook oder meiner Website entsteht da durch Duplicate Content. Und ich habe das kurz kontrolliert. Und was da passiert, ist, dass wir an und für sich diese Inhalte normal als Inhalte der Webseite dazu zählen können. Das heißt, wenn ich mit Fetch and Render das anschaue in Search Console, sehe ich die Inhalte der Facebook-Page und von dem her sind Inhalte, die auf der Facebook-Seite publiziert werden, können dann quasi direkt in der eigenen Webseite auch eingebunden werden. Und wir sehen das auch für die Suche und können so eigentlich auch Benutzer direkt zu euren Seiten leiten aufgrund von den Inhalten, die in diesem iFrame oder die per JavaScript eingebunden sind. Die Frage, wem der Content zugeschrieben wird, ist an und für sich sekundär für uns, weil wir sehen, dass diese Textblöcke auf verschiedenen URLs vorhanden sind. Einerseits auf euer HTML-Seite, quasi durch dieses iFrame, andererseits auf den Facebook-Seiten direkt. Und wir können an und für sich beide Versionen in den Suchergebnissen zeigen und zeigen das normalerweise auch, weil die Seiten selber sind ja doch unterschiedlich. Eure Website hat ja alles Mögliche rundherum und dieses iFrame. Die Facebook-Seite hat nur diese Inhalte und vielleicht noch auch andere Informationen rundherum. Und dementsprechend kann es sein, dass beide Seiten in den Suchergebnissen zeigen für diese Inhalte. Es kann auch sein, dass wenn wir erkennen können, dass jemand gezielt nach den Varianten sucht, die auf eure Webseite sind und diesen iFrame inhalten, dass wir dann eher eure Webseite zeigen und so könnte es sein, dass wir einfach eher die Facebook-Seite zeigen. Und das ist ähnlich wie mit allen anderen Inhalten, die man vielleicht kopiert und auf die eigene Webseite nimmt. Wir erkennen, dass diese Textböcke gleich sind, dass die Seiten an und für sich trotzdem nicht identisch sind. Wir indexieren dann beide Varianten und je nach Suchanfrage versuchen wir festzustellen, welches von diesen Varianten die relevantere ist für den Benutzer. Kann eine Webseite von einem Filter betroffen werden, wenn obwohl die Webseite gerade erst von einem Filter freigelassen wurde, in der Zwischenzeit nichts geändert wurde? Ja, theoretisch schon. Also mit Filter ist, glaube ich, wieder einfach eine algorithmische Neugurteilung von einer Seite, bezüglich der Relevanz oder der Relevanzenregel von einzelnen Seiten. Und das sind Prozesse, die laufen automatisch. Und wenn ein Filter so ein bisschen, also ein Filter, ein Algorithmus so ein bisschen auf der Kippe ist und dann vielleicht die Webseite einmal quasi voll als relevant beurteilten, einmal als weniger relevant beurteilt und dann ein bisschen dazwischen schaukelt, dann kann es durchaus sein, dass da vielleicht noch die anderen Algorithmen auch noch dazukommen. Also es ist nicht so, dass wir die Seiten nur mit einem Algorithmus anschauen, sondern wir nehmen da wirklich sehr viele Signale und viele Algorithmen zusammen, um festzustellen, wie relevant diese Seiten halt sind. Dann ist da eine Frage wegen eingehenden Spanlings auf nicht vorhandene Forenbeiträge. Also das Problem ist allgemein, dass aus irgendeinem Grund werden viele Links gefunden zur eigenen Website, die aber zu 404 Seiten führen, weil die Links irgendwie halt gebrauchen sind, nicht korrekte URLs angegeben sind, vielleicht so diese abgekürzen, die manchmal in Forum gezeigt werden. Ist das ein Problem? Muss man da irgendetwas machen? Aus unserer Sicht ist das überhaupt kein Problem. Es ist ganz normal, dass eine Website 404 Seiten hat. Es ist natürlich korrekt, wenn ihr 404 zurückgibt für eine URL, die nicht existiert. Ich mache es in der Regel so, dass ich ab und zu diese 404 Fehler anschaue in Search Console und wenn da irgendwelche oben auf der Liste stehen, die für mich irgendwie darauf hindeuten, dass da jemand irgendwie auf diese Seiten vielleicht auch versucht zu gehen. Wenn man zum Beispiel ein Verlinkung hat, irgendwo unter einem Schreibfehler drin im Pfad oder im Dateinamen und was ich dann manchmal mache, ist einfach ein Redirect einrichten auf die richtige Version. Das heißt, wenn ich erkennen kann, welche URL damit gemeint ist, dann versuche ich das für die Benutzer soweit in Ordnung zu bringen, dass die nicht auf einer 404 Seite landen. Wenn es aber wirklich nur Seiten sind, die von Googlebot oder von anderen Suchmaschinen gefunden werden, die nie einfach auf 404 lassen. Das ist eigentlich die korrekte Variante. Da muss man nichts machen. Es ist nicht so, dass wir die Website dann schlechter beurteilen, weil 404 Fehler da sind. An und für sich ist das die korrekte Art, mit solchen ungültigen URLs umzugehen und für uns ist das ganz in Ordnung. Es war noch die Frage dabei, ob man das per dissebau mit externen Links und das muss man wirklich nicht. Der dissebau Tool nimmt an für sich die Links aus unserem System heraus, wenn sie zwischen zwei gültigen Seiten bestehen. Das heißt, wenn ein Link auf eine 404 Seite zeigt, dann wird dieser Link sowieso nicht gezählt. Wir zeigen das einfach in Search Console an, damit ihr wisst, wo wir diesen Link gefunden haben. Aber es ist nicht der Fall, dass wir es dazu zählen. Auch kann man das natürlich auch für andere Varianten verwenden. Wenn man zum Beispiel, oder wenn ein früherer SEO sehr viele Links auf eine bestehende URL gekauft hat und ihr wollt das aufräumen, ihr wollt sicherstellen, dass diese Links wirklich nicht zählen, dann kann man die entweder in die dissebau-Datei nehmen oder man kann natürlich auch die Zielseite löschen. So dass Google, wenn die Seiten zählen, also muss ich diese Links gar nicht berücksichtigen. Aber eben wie gesagt in diesem speziellen Fall, wo einfach irgendwelche kaputten Links auf eine Webseite zeigen, da würde ich das einfach so sein lassen. Muss man gar nichts machen. Wie ist das, wie ist da jetzt die Entwicklung mit der Verlängerung der Snippets selber anpassen oder wird Google die Snippets zunehmend selber aus dem Content ziehen? Ja, an und für sich ist das euch überlassen wie ihr das machen wollt. Aus unserer Sicht müsst ihr die Snippets nicht verlängern. Manchmal hilft es Benutzern in den Suchergebnissen wenn sie mehr Informationen über eine Seite haben, aber das ist sicher nicht zwingend notwendig. Wir machen die Snippets sowieso dynamisch, das heißt die werden angepasst auf die Suchernfrage und manchmal können wir diese Informationen aus dem Meta Description Teil holen, manchmal aus dem Inhalter Seite und das versuchen wir dann entsprechend darzustellen. Was ich einfach machen würde, ist in Search Console die wichtigsten Suchbegriffe vielleicht ausholen und die einfach mal auszuprobieren auf dem Desktop, auf dem Mobilgerät und die Snippets mal anschauen wenn die für euch soweit Sinn machen ist das ja alles okay, man muss nicht den ganzen Platz ausfüllen wenn die Snippets für euch schlecht aussehen, würde ich mir überlegen wie man die verbessern könnte. Manchmal passt man den Description an manchmal passt man auch die Inhalte der Seite selber an, das sind verschiedene Varianten die man da machen kann. Der Description Meta Tag ist nicht etwas was wir fürs Ranking verwenden, das heißt das ist wirklich pure eine Frage davon wie wird das dargestellt in den Suchergebnissen wie gebe ich den Benutzer der nach diesen Inhalten sucht die Information, dass das jetzt die richtige Seite für diesen Benutzer ist oder vielleicht auch nicht die richtige Seite für diese Benutzer ist, kann ja auch der Fall sein. Aber so dass die Benutzer erkennen können, worum handelt es sich mit dieser Seite und dass sie dann entscheiden können, da möchte ich hin oder ich möchte zur anderen Seite hin. Ich habe irgendwo auch gerade neulich ein Blog Post gesehen, wo jemand eine Umfrage gemacht hat bezüglich wie Benutzer aussuchen welche Seite sie anklicken in den Suchergebnissen und da waren Snippets und Title Tags relativ weit oben. Von dem her würde ich das nicht quasi auf die lange Bank schieben, sondern wirklich mal durchkontrollieren und schauen was erscheint für eure Websites. Ich glaube die Nächsten haben wir schon mal gemacht und dann eine Frage zu einem Online Shop in Deutschland, Österreich, Schweiz, mit 3 Domains für Österreich, Deutschland und die Schweiz. Die REL Alternate Hreflangs sind entsprechend eingerichtet mit DE, ART und für Deutschland nur DE und für die Schweiz DE, CH und ich glaube es war dann die Frage sollen wir die deutsche Version auf DE stich DE umstellen oder ist es auch okay mit nur DE und grundsätzlich ist es euch überlassen wie ihr das machen möchtet mit DE stich DE sagt ihr dass das die deutsche Version für Deutschland ist und wenn nur DE da steht dann sagt ihr dass das die allgemeine deutsche Version ist wenn keine anderen Länder besser passen werden also wir schalten jeweils hoch auf die nächste breitere Variante und wenn jemand aus Deutschland sucht dann sehen wir es ist keine Version speziell für Deutschland da aber es ist eine allgemeine Version für Deutschland dann zeigen wir diese Version und ebenfalls wenn jemand in Amerika auf Deutschland sucht dann sehen wir auch es ist keine Version für Deutschland aber wir haben eine allgemeine deutsche Version dann zeigen wir die und ebenso könnte man das auch mit X default machen dass man sagt das ist einfach unsere allgemeine default Version das heißt egal welche Sprache jemand sucht wissen ist das jetzt quasi die relevante Version für alle benutzer die nicht in die anderen Kategorien hineinpassen und so könnte man theoretisch auch einfach sagen statt DE für Deutschland wenn das wirklich die Hauptversion ist das man einfach sagt das ist X default wäre aus unserer Sicht dann auch okay wie wird sich der neue Mobile First Index auf die interne Link Struktur auswirken wenn beispielsweise für responsive Version die Hauptnavigation links unter einem Filter versteckt sind und auf der Desktop Version für User sichtbar sind das auch eine gute Frage grundsätzlich ist es so dass wenn das per responsive Design gemacht wird dann sehen wir ja diese Links und dann ist es überhaupt kein Problem dann haben wir ja die Links eigentlich schon da für die interne Verlinkung falls ausgehende Links dabei sind dann sowieso auch und von dem her sollte das total unproblematisch sein wenn ihr mit einer separaten mobilen Version arbeitet also eine m.dot Seite oder mit Dynamics Serving arbeitet also dass mobile Benutzer über die gleichen URLs ganz andere Inhalte bekommen dann müsste man einfach dafür sorgen dass diese Links irgendwie im html dabei sind das heißt wenn die Seite geladen wird auf ein Mobilgerät sollte es so sein dass wenn man den Quellcode anschaut oder die den Dom quasi im Browser wenn man das anschaut dass diese Links da schon vorhanden sind und nicht dass sie erst dann erstellt werden wenn man auf diesen Knopf drückt also auf diesen Filter einen Dropdown oder was auch immer das ist das heißt wenn die Links direkt nach dem Render schon vorhanden sind im html irgendwo ist das für uns okay wenn man erstmal etwas machen muss damit die Links überhaupt eingebründen werden dann sehen wir diese Links wahrscheinlich nicht dann eine ähnliche Frage aber quasi die andere Sicht was passiert wenn Infotexte über so ein Dropdown versteckt sind auf Desktop oder auf Mobile ist das ein Verstoß gegen die Google Richtlinien ist das hidden Text und interessanterweise wird da die gleiche Domain nachgefragt wie die vorherige Frage grundsätzlich ist es so dass wir auf Desktop verstehen wir dass man das manchmal machen muss und was wir da in der Regel versuchen zu machen ist dass unsere Algorithmen diese Texte die standardmäßig nicht sichtbar sind einfach ein bisschen weniger stark bewertet das heißt wenn man nach diesen allgemeinen Informationen sucht und wir finden andere Seiten die relevant sind dann zeigen wir eher die anderen Seiten statt der Seite wo wir wissen dass die Inhalte versteckt sind und das sind vielleicht mal kleine Differenzen die man da sieht wenn man die Snippets anschaut die wir zeigen in Suchergebnissen wenn wir erkennen können dass der Text unsichtbar ist standardmäßig dann nehmen wir diesen Text eher weniger für den Snippet einfach weil wir vielleicht merken dass Benutzer sonst ein bisschen verwirrt werden auf Mobile ist das ein bisschen anders einfach weil man da viel weniger Platz zur Verfügung hat und da ist es so dass es aus unserer Sicht ist es eigentlich fast ein normaler User Interface Element dass da Inhalte manchmal hinter solchen Dropdowns oder Tabs quasi eingebunden werden einfach weil man nicht alles auf einmal darstellen kann auf einer mobilen Seite und da ist es aus unserer Sicht dann gerade im Hinblick auf Mobile First Indexing wird das so sein dass wir die Inhalte dann einfach normal dazu zählen das heißt von der allgemeinen Frage her ist das jetzt ein Verstoß gegen die Google Richtlinien oder nicht aus unserer Sicht ist das unproblematisch bezüglich der Webmaster Guidelines es ist nicht so dass das Web Spam Team dagegen irgendwie eine manuelle Maßnahme treffen würde sondern unsere Algorithmen versuchen das einfach entsprechend korrekt einzuordnen problematischer ist es eher wenn man wirklich cloaking direkt macht das heißt wenn Google eine ganz andere Version sieht als was Benutzer sehen dann ist das eher etwas wo unser Web Spam Team vielleicht eingreifen würde aber gerade in solchen Fällen wo man drüber reden könnte ob diese Inhalte wirklich nur für Suchmaschinen da sind oder auch für Benutzer vielleicht verwendbar werden dann ist es so dass unser dass wir das eher einfach algorithmisch versuchen zu behandeln und nicht manuell dafür zu greifen seit über einem Jahr war ich für mein Hauptkeyword steht auf dem ersten Platz deutsch-schnittliche Besucherzeichen von über fünf Minuten vor ca. eine Woche wurde ich aus heiterem Himmel auf Platz 5 und zwei Tagen später sogar auf die zweite Seite katapultiert in Search Console sieht man quasi nicht mir ist jedoch Verlinkung an den Seiten quasi gefunden wir haben die per disseval quasi eingereicht an der Seite selbst wurde seiterstellung auch nichts geändert neue Wettbewerber kann ich auch nicht finden was könnte das sein schwierig zu sagen ohne die Domain zu sehen im Grunde genommen ist es so dass unsere Algorithmen und die Bewertungen die sie machen gerade für die Relevanz für die Suchergebnisse die werden natürlich ständig angepasst und da kann es durchaus sein dass eine Website die lange Zeit an einer Position fest war dass die irgendwann dann trotzdem mal neu beurteilt wird und dass wir da die Seite dann auch irgendeiner anderen Stelle wieder darstellen und manchmal kommt das so wie hier dass es da von einem Tag auf dem nächsten quasi passiert dass es in einem Städte Veränderung die im Laufe der Zeit einfach stattfindet und aus unserer Sicht ist es eher eine natürliche Veränderung nicht unbedingt ein Zeichen dass die Website etwas falsch macht manchmal verändert sich einfach alles ein bisschen in diesem Rahmen und da sehen unsere Algorithmen vielleicht andere Seiten eher als relevant als so eine Seite aber eben wie gesagt ist es sehr schwierig zu sagen die Website anzuschauen und was man da machen kann ist natürlich auch schwierig zu sagen ich denke was was mir ein bisschen auffällt, ich weiß nicht ob das jetzt wirklich der Fall ist wenn du sagst dass an der Seite wurde seit Langem quasi nichts mehr verändert dann kann es natürlich auch sein dass einfach sich der Rest vom Web ein bisschen verändert hat und die Website jetzt einfach nicht mehr so relevant angesehen wird wie sie früher vielleicht mal war und dass man da vielleicht mal überlegen müsste müsste man da vielleicht eine Erneuerung machen irgendein Art von Revamp oder irgendetwas damit die Seite quasi weiterhin wieder relevant wird weiß ich nicht das wäre vielleicht etwas was man anschauen könnte was ich da sicher nochmal machen würde ist im Hilfeforum das mal posten sag ich mal die Information die du da hast, also den Domain Namen, die Suchern fragen wo du diese Veränderungen gesehen hast und dass man quasi von anderen Webmastern die im Forum sind dass sie das vielleicht auch mal anschauen würden und vielleicht irgendwelche Tipps geben können irgendwelche Ideen haben die da unter unschänden relevant sein könnten okay mal schauen, da kommen nochmal neue Fragen dazu ich habe zahlreiche Seiten die Teilzeiten November 2016 seit letzten Dezember offenbar unter einem algorithmischen Penalty leiden teilweise von Platz 1 auf über 100 abgestürzt wo kann man da quasi schauen was was man da machen könnte ist das eine Frage, ob die Seiten responsive sind oder nur desktop Seiten bezüglich responsive und mobile friendly ist das für uns vor allem ein Faktor wenn es sich um die mobile Suche handelt das heißt auf Mobilgeräten versuchen wir das natürlich zu berücksichtigen ob eine Seite mobile friendly ist oder nicht aber auf desktop verwenden wir das eher nicht das heißt könntest du unter Umständen ein bisschen angrenzen und in Search Console z.B. sehen ob es da Unterschiede gibt zwischen Mobile Suche und der Desktop Suche und wenn es da wirklich Unterschiede gibt dass die Desktop Suche so weit stabil war und die mobile Version einfach irgendwie abgestuft worden ist dass man über mobile weniger traffic gekriegt hat dann wäre das natürlich ein Ansatzpunkt dass man sagt gut das müssen wir jetzt doch endlich machen wahrscheinlich ist sowieso schon die Hälfte vom Traffic auf die Webseite mit Mobilgeräten und wenn das auch Mobilgeräten nicht sauber funktioniert dann ist das sowieso eine schlechte Benutzererfahrung auch wenn ihr sichtbar werdet in den Suche ergeben ist wenn es einfach eine Frage ist ob responsive oder irgendwie anders mobile friendly mobile friendly dann würde ich einfach dafür schauen die Art wie ihr die mobile friendly Version eingerichtet habt mit unseren Empfehlungen übereinstimmt d.h. wenn ihr mit m.dot URLs arbeitet dass sie wirklich auch sauber quer verlinkt sind wenn ihr mit responsive nicht responsive, mit dynamic serving arbeitet dass da auch wirklich mit diesem hardtv header gearbeitet wird dass wir wissen dass es eine separate mobile Version gibt und wenn das alles soweit in Ordnung ist ist es nicht eine Frage, ob man mobile friendly per responsive design oder mobile friendly per m.dot URLs ist aus unserer Sicht sind all diese Varianten an und für sich gleichwertig unsere SEO-Agentur hat uns empfohlen in unser Robots Text einen no index Eintrag zu hinterlegen wer hat dieser Eintrag von Google wirklich berücksichtigt man findet kein öffentliches Statement von Google hierzu ja wir aus unserer Sicht ist ein no index Eintrag in der Robots Text etwas was wir nicht offiziell unterstützen d.h. ich weiß nicht ob das noch der Fall ist aber es kann sein dass es irgendetwas macht bei uns auf unserer Seite aber es ist sicher nicht etwas was wir sagen würden ist offiziell dokumentiert oder ist etwas was offiziell so weiter bestehen bleibt von dem her würde ich mir einfach überlegen was damit was der Zweck ein no index Eintrag ist und dann eher einfach mit den normalen unterstützten Methoden das zu machen d.h. wenn das Seiten sind die einfach nicht indexiert werden sollten dann eher einfach ein no index MetaTag auf diese Seiten nicht das wird auf jeden Fall unterstützt das wird auf jeden Fall auch von anderen Super-Maschinen unterstützt und mit einem no index Eintrag in der Robots Text Datei ist es eher etwas wo ich sagen würde vielleicht jetzt eine Funktion im Moment aber ihr wisst nie wann diese Funktion aufgehoben wird weil das wirklich nichts offiziell unterstützt es ist aus unserer Sicht und wahrscheinlich auch in Zukunft nicht unterstützt sein wird also es ist nicht so dass man da zeigt voraus ist sondern es ist einfach etwas was vielleicht einfach bei uns im Code irgendwo noch hängen geblieben ist aber nicht offiziell eingesetzt wird Zusatz zur Frage eingebunden links auf 404 Seiten gibt es eine Möglichkeit bestimmte externe Domains als Search Console als verlinkende Domains auszuschließen damit die hunderten von dort gesetzten links auf 404 Seiten unser Domain nicht die Search Console zumüllen Nein, ahnen für sich nicht wir finden links auch viele verschiedene Varianten und wenn wir denken dass eure Webseite gute Inhalte hat dann sieht sie URLs aus und wenn sie nicht gehen zeigen wir sie einfach als Fehler was allerdings in Search Console relativ praktisch ist ist dass wir die 404 Fehler nach Priorität sortieren d.h. diejenigen die wir denken sind wichtiger für euch d.h. wichtig an dem Sinn dass sie vielleicht auf eine Seite zeigen die eigentlich Inhalte zeigen sollte die zeigen wir weiter oben in den Fehler Listen an wenn z.b. eine URL in eine Sidemap Datei erwähnt wird oder intern verlinkt wird dann zeigen wir das eher weiter oben an weil das sind ja Sachen die ihr verändern könnt wenn hingegen die ersten Links bei diesen Fehler Listen schon irgendwie total irrelevant sind dann wisst ihr eigentlich dass der Rest auch nicht viel besser sein wird dann könnt ihr den Rest auch ignorieren ähm ja dann geht es ja noch weiter wenn meisten der Fehler von solchen Fällen kommen ähm ja ich würde einfach die obersten anschauen bei diesen Fehler Listen und wenn die soweit irrelevant sind dann würde ich mir über den ganzen Rest auch keine Sorgen machen wir haben mal überlegt ob wir intern das irgendwie anders machen könnten dass man z.B. Links anwählen kann sagen kann das sind URLs die definitiv nie existieren werden auf meiner Website aber da ist einfach die Fehler Möglichkeit sehr hoch in dem Sinne dass man das vielleicht anwählen sagt diese URLs sollen nie gekraut werden äh und dass dann vielleicht irgendwann später doch irgendwelche Inhalte dort veröffentlicht werden und dann bis man herausfindet warum Google diese Inhalte jetzt gar nie indexiert hat ist das wahrscheinlich sehr schwierig herauszufinden ähm und von dem her würde ich einfach mit diesen 404 Fehler in Search Console leben das ist ein normales Zeichen von einer natürlichen Website das wir 404 Fehler finden äh da würde ich mir wegen dem Ranking zumindest keine Sorgen machen das ist auf jeden Fall nicht etwas wo wir die Website schlechter beurteilen würden aufgrund von diesen 404 Fehler die ja eigentlich ganz klar 404 sein sollten ähm dann in Chat noch eine Frage ein Unternehmen mit einem mobilen Imbisswagen äh kann und darf dieser mehrere Business oder Stores Einträge via schema.org auszeichnen äh natürlich also mit den richtigen Öffnungszeiten also zum Beispiel Montag äh neun bis 17 Uhr dort und Dienstag woanders ähm also ich zumindest äh vom Structured Data her könnt ihr das auf jeden Fall machen äh ich weiß allerdings nicht wie wir das äh verwenden würden auf unserer Seite weil oft versuchen wir ja festzustellen welcher Google My Business Eintrag mit dieser Website zusammenhängt damit wir den Link zur Website entsprechend auch zeigen können bei den Karten und den Standort richtig haben und die Öffnungszeiten darstellen können äh wenn die Adresse wenn auf einmal mehrere Adressen auf einer Seite sind die entsprechend mit dem schema.org Markup versehen werden dann kann es sein, dass unsere Systeme das nicht sauber abgleichen können dass sie denken äh da irgendwie passt diese Website nicht ganz zum Google My Business Eintrag zusammen und dass wir das nicht nicht so sauber zusammenführen können ähm wie man das sonst machen könnte wüsste ich jetzt auf Anhieb allerdings auch nicht äh von dem her habe ich da keine keine gute Lösung also vom Markup her könnt ihr das sicher machen und äh einfach wie das mit äh mit der Darstellung in den Suchergebnissen am Ende sein wird das weiß ich, weiß ich an für sich nicht ähm es geht da weiter im Schein, die Frage ist das aus Google Sicht erlaubt weil es ja kein echten local stores sind ähm ich also vom Markup her sollte das kein Problem sein eben wie gesagt ich denke einfach vom Google My Business von den Maps Eintrag her an der Darstellung in den Suchergebnissen das wäre vielleicht ein bisschen komisch oder kritisch äh ich ich würde es aus meiner Sicht würde ich das einfach mal ausprobieren ähm und mal schauen ob das dargestellt wird und vielleicht gibt es ja auch einen interessanten Logbeitrag von euch äh wenn das funktioniert oder wenn es nicht funktioniert ähm das Einzige was was ich ähnliches mal gesehen habe ist äh ein ein äh was was ein Highscreen Laden der im Winter zumacht und wie man das darstellen kann und weiß ich gar nicht mehr wie das gelöst worden ist aber ich glaube das wurde über Google My Business über den Eintrag direkt gelöst ähm ja ich würde da vielleicht auch mal bei Google My Business im Hilfeforum nachfragen die haben gerade auf Englisch ein relativ gut besuchten Businessforum und äh vielleicht hat der eine oder andere auch damit schon Erfahrung äh mit mit solchen vielleicht mal mobilen Standorten oder die man halt handhabt ich denke gerade wenn das wenig Standorte sind die immer wirklich regelmäßig besetzt werden ist es wahrscheinlich einfacher als wenn man sagt jeden Tag bin ich irgendwo anders und ich habe nie eine fixe Adresse aber wie das genau gehandhabt und dargestellt werden in Suchegebnissen weiß ich nicht okay ähm noch irgendwelche weiteren Fragen von euch ah da ist noch was ähm bezogen auf die Fragen mit ranking Absturz denkst du dass die PERKt letztlich Spam Links eine Ursache für den Absturz sein können ich habe davor leider nur eine Handvoll organischer Links gehabt und nun ein Vielfaches an Spam Links äh außerdem ist mir aufgefallen dass zum Teil jetzt irgendwelche Foren über mir stehen mit zwei bis drei Sätzen an Inhalt äh da kann ich mir nicht vorstellen dass diese noch relevanter sein sollten als meine Seite äh ich weiß es nicht wie das sein könnte normalerweise mit, gerade mit Spam Links ist es so, dass wenn wir erkennen können dass das irgendwelche Spam Links sind dann versuchen wir die eher zu ignorieren und beschränken uns auf die Inhalte und die Signale die für uns relevant sind und dementsprechend glaube ich eher nicht dass da die Spam Links irgendwie einen Zusammenhang haben äh man kann das aber auch per Disseval sag ich mal ausschließen äh gerade so Disseval Einreichungen brauchen allerdings auch eine gewisse Zeit bis sie wirklich bearbeitet werden also es ist nicht so, dass ich ein Disseval heute einreichen kann und morgen sehe ich die Ergebnisse sondern das muss wirklich auch erstmal verarbeitet werden die Signale müssen neu berechnet werden und das kann auch mehrere Wochen, Monate und Umständen auch dauern bis es wirklich aktualisiert wird aber und wie gesagt in der Regel erkennen wir solche Spam Links und können damit eigentlich recht gut umgehen äh kann es sein dass die Suchmaschine eine Unterseite crawlt aber nicht oder nicht sofort indexiert von dort aus verliebten Seiten jedoch schon äh sprich haben neue Seiten eine höhere Priorität als URL Änderungen ahnen für sich nicht ähm es ich meine es kann sein, dass wir mal eine Seite erkennen können als eine Liste von Links und dass wir sagen gut, da haben wir jetzt viele Links gefunden aber es ist jetzt nicht die relevante Seite zu zeigen, äh das passiert ja eigentlich relativ häufig aber es ist nicht so, dass wir vielleicht mal konkret irgendwas im System haben dass neue Seiten äh eine höhere Priorität haben sollen als irgendwelche bestehenden Seiten sondern wir versuchen das immer entsprechend eigentlich auszugleichen äh ich habe eine Unterseite als Testseite eingerichtet mit der ich interne Linksteste von dieser Testseite geht ein Link auf eine zweite Unterseite ab äh die zweite Seite erhält nur diesen einen Link und es sonst nicht verlinkt ähm das Anlegen von Seite B und eine URL Änderung von Seite A erfolgen gleichzeitig nun wurde Seite B indexiert und Seite A ist immer noch mit der alten URL im Index ähm ich denke grundsätzlich ist äh ist es immer ein bisschen schwierig mit Testseiten weil Testseiten aus unserer Sicht haben ganz komische Signale und äh die sind für uns dann manchmal so, dass wir sagen gut wir wissen nicht genau was wir da machen sollen weil das das ist so unnatürlich vom Aufbau her dass wir da halt irgendwas mal machen und von dem her würde ich immer ein bisschen kritisch sein wenn wir jetzt nur eine Testseite angerechnet hatten etwas ganz gezielt ausprobiert weil da kann es gut sein dass unsere Algorithmen das anschauen und sagen wir wissen nicht genau was der Webmaster damit gemeint hat aber wir versuchen das mal zu interpretieren und wir haben nur diese wenigen Signale zur Verfügung also interpretiert ähm unsere Algorithmen das vielleicht auch mal veranscht ähm von dem her wäre ich da immer ein bisschen kritisch wenn man jetzt nur die Testseiten anschaut und davon die Schlussfolgerung abschließen abziehen möchte die relevant für normale Websites sein sollten äh beziehlich eine URL Änderung allgemein ist es so, dass wenn man gezielt nach der alten URL sucht dann versuchen wir die auch darzustellen das heißt wenn ich eine Weiteleitung gemacht habe und gezielt per Seitenfrage die alte URL noch suche dann kann es durchaus sein dass unsere Systeme sagen ah der Benutzer möchte gezielt diese alte URL sehen dass sie mit diesen weit mal verschobenen Inhalten zusammenhängt also zeigen wir die einfach mit dieser alten URL und äh das ist auch etwas was man da häufig sieht gerade wenn man das so testet äh das die alte URL trotzdem noch aufhindbar ist wenn man mit einer Infoabfrage oder wenn man die gecachede Seite anschaut dann sieht man allerdings häufig dass eigentlich schon die Zielseite die indexierte Version ist und nicht die Seite die quasi diese Weiteleitung macht aber eben grundsätzlich ist es nicht so dass wir da irgendwie allgemein Systeme haben die sagen neue Seiten sind besser als alte Seiten sondern wir versuchen das Gesamthaft über die Website halt anzuschauen ähm da da da Okay und dann kommt noch ein Bemerkung Laut Search Console stieg die Anzahl an indexierte Seiten und von der robot blockierten Seiten der Zeit sehr stark äh wir können uns das aber nicht erklären kann es dafür eine Ursache geben ähm schwierig zu sagen da müsste man vielleicht die die Grafiken mal anschauen und da mal schauen was was da wirklich passiert mit äh mit diesem Domain äh für Search Console gibt es wahrscheinlich im nächsten Jahr Anfang der nächsten Jahr gibt es die ein paar Anpassungen wir haben das schon als Beta Version und unter Umständen, unter anderem ist auch eine Möglichkeit dabei dass man da den Indexierungstatus ein bisschen genauer anschauen kann und da sieht man vielleicht mehr Informationen wo diese indexierten Seiten herkommen oder welche URLs das sind und dementsprechend kann man das dann ein bisschen auch besser selber einordnen äh das kommt Größenordnung Anfangs vom nächsten Jahr wir haben da leider keine mehr in die Beta Version hin zunehmend sondern die haben das wirklich abgeschlossen dem Beta Verlauf da und wahrscheinlich gibt es dann jetzt einfach da die fertige Version wenn alles soweit verarbeitet ist und der Feedback durchgegangen ist okay ähm mit dem machen wir vielleicht mal hier ein Pause äh ich denke das sind bei jetzt alle Fragen durchgegangen äh wenn weitere Fragen kommen ich richte auf jeden Fall nächsten Hänge als noch ein noch in diesem Jahr klappt versuche da noch etwas reinzukriegen äh ansonsten könnt ihr natürlich gerne ins Hilfeforum gehen und ähm Schlimmstenfalls sehen wir uns nächstes Jahr und dann wünsche ich euch einen guten Rutsch gute Feiertage äh und halt bis nächste Mal Wiedersehen, tschüss allerseits