 Geht das besser? Jetzt hören wir dich. Okay, dann machen wir das halt so. Also, die erste Frage habt ihr gar nicht gehört? Nee, noch gar nichts. Gar nichts, okay. Dann versuche ich das irgendwie wieder zurückzuholen. Also, die Frage war grundsätzlich wegen einer Website, wo viele DMC requests eingekommen sind und die Website in den Suchergebnissen quasi eingebrochen ist. Aus meiner Sicht sind die Sachen vielleicht nicht direkt verbunden, ist auch noch in der Frage dabei ein Reconciliation Request dabei. Das heißt, es waren vielleicht auch manuelle Maßnahmen, die dabei waren. Und grundsätzlich ist es so, wenn ihr die Probleme beleidigt, dann wird das von unserer Algorithmen im Laufe der Zeit auch wieder berücksichtigt und sollte sich dann wieder ein bisschen besser eingenteln. Ist natürlich schwierig zu sagen, was da jetzt alles damit zusammenhängt. Also, dass jetzt nur wegen diesen DMC-Request-Fahrer oder von den manuellen Maßnahmen oder auch bei den manuellen Maßnahmen vielleicht irgendwelche Effekte da sind, die einfach längerfristig noch bestehen. Wenn zum Beispiel Links-Band noch dabei war und diese problematischen Links vorher für das höhere Ranking verantwortlich waren und jetzt bereit sind, dann wird die Website natürlich wieder neu eingestuft. Aber grundsätzlich pendelt sich das alles wieder in den Laufe der Zeit ein. Dann noch eine Frage zum Titel, dass quasi eine Firma die verschiedene Standorte hat und wenn man nach der Firma sucht, kommt einfach ein Standort im Titel statt eine allgemeine Homepage. Was kann man da machen? Im Grunde genommen versuchen unsere Titelalgorithmen festzustellen, ob es irgendein Website-Titel gibt für diese Website im Allgemeinen. Und das wird zum Teil aufgrund von wiederholten Titelwörtern zum Beispiel versucht herauszufinden. Und was natürlich sein kann, ist, wenn wir die Titel von dieser Website nicht sauber erkennen können, wenn wir sehen, dass sehr viele Seiten immer die gleichen Titel verwenden, dann kann es sein, dass unsere Algorithmen das zusammenfassen und denken, ah, das ist der Name dieser Website, obwohl das eigentlich für euch nur vielleicht ein Standort ist oder eines von den Namen, die für die Website verwendet werden. Das heißt, was ich da machen würde, ist wirklich einfach versuchen dafür zu sorgen, dass die Titel eindeutig sind, dass ihr wirklich etwas da habt in den Titeln, die wir so eins zu eins weiter verwenden können, dass die Titel nicht nur eine Kombination von Keywords sind, sondern dass es wirklich Titel sind, die wir so eins zu eins weiter verwenden können. Und je eher wir die Titel eins zu eins weiter verwenden können, umso eher verwenden wir die dann auch die, die ihr auf eurer Website habt. Zu Rank-Rank gibt es zwei widersprüchliche Aussagen von der SNSX Advanced. Gary hat eines gesagt und Paul Haar hat etwas anderes gesagt. Was ist jetzt die richtige Antwort? Ja, ich habe das kurz angeschaut. Ich habe die Artikel nochmal kurz durchgeschaut und grundsätzlich ist es eigentlich von den Dokumenten, die wir da auch eröffnet haben, von den Artikeln, die darüber geschrieben worden sind, relativ klar. Und zwar, dass Rank-Rank für die Erkennung von den Suchanfragen verwendet wird. Aber grundsätzlich kommt das natürlich alles ein bisschen zusammen. Wenn wir die Suchanfragen besser erkennen können, können wir das Rank-Ranking auch ein bisschen besser machen. Und von dem her ist es nicht so, dass jetzt zum Beispiel Rank-Rank als ein Teil vom Algorithmus nur für die Suchanfragen ein Effekt hat, sondern wie die Suchanfragen erkannt werden, wird natürlich dann auch in dem Rank-Rank berücksichtigt und entsprechend kann das Veränderungen im Rank-Rank. Grundsätzlich finde ich das eine spannende Technologie, dass wir damit Machine Learning so etwas machen kann. Ich bin mal gespannt, wie das da weitergeht. Dann eine Frage zu Nutzersignalen. Du hast im Frühjahr den Engag gesagt, dass du nicht denkst, dass Nutzersignale wie zum Beispiel Absprungrate auf einer Website selbst für die Bewertung herangezogen werden. Würdest du deine Aussage hier immer noch zustellen? Ja. Aus meiner Sicht macht das Sehen Nutzersignalen jetzt in größeren Rahmen anzuschauen. Gerade wenn wir jetzt Algorithmen testen werden, sind das Sachen wie bei jeder Website, wo man AW-Testing machen kann, wo man sehen kann, was funktioniert besser, was funktioniert weniger gut. Und da macht das auch jeden Fall sehen. Wenn man das auf einzelnen Seiten zurückzieht, denke ich, macht das in der Regel weniger sehen, und dass man das so mit einbeziehen kann. Ich habe hier und wieder mit einem CMS zu tun, indem sich für Bilder keine Titelattribute definieren lassen, sondern nur Altattribute. Hat man damit einen Nachteil oder reicht das Volk am Haus, wenn nur eine der beiden Attribute gesetzt ist? Ja, das reicht vollkommen aus. Ein Titel ist ja auch nur für den Link zum Bild gedacht. Das heißt, Alt ist quasi beim Bild, wenn man das Bild einbindet, und Titel ist ja dann, wenn man einen Link zu diesem Ursprungsbild noch setzt, zusätzlich zum Bild, dann kann man den Titel tagverwendet. Aber ansonsten wird ja eigentlich auch nur Altattribut verwendet. Von dem her macht das überhaupt nichts aus. Gerade bei Bildern ist natürlich auch wichtig, wie das Bild eingebunden ist in der Seite. Das heißt, ob der irgendein Unterschrift dabei ist, ein Kommentar zum Bild, wie das eingebunden ist im Text, ob jetzt oben und unterhalb vom Bild, vielleicht mehr Informationen zum Bild vorhanden ist, all die Sachen sind für uns relevant. Ob man jetzt stuhr immer ein Link mit Titelattribut dabei hat, das ist weniger für uns relevant. Gibt es gute Argumente für JSON-LD gegenüber Microdata, wenn wir strukturierte Daten z.B. in Artikeln integrieren möchten? Hier bevorzugt JSON, bzw. empfiehlt dieses, wird in Zukunft Microdata ignoriert. Ich denke nicht, dass Microdata ignoriert wird, aber so, wie ich das einfach von der Entwicklung her sehe mit den Structuredata-Teams, die bei uns arbeiten, werden mehr und mehr von den neuen Formaten eher dann in JSON-LD zur Verfügung gestellt und vielleicht nicht mehr alle in Microdata und in anderen Formaten. Das heißt, das ist vielleicht etwas, was man berücksichtigen muss, wenn man jetzt diese neuen Arten von Markup verwenden möchte. Wenn man mit dem bestehenden Markup gut arbeiten kann, würde ich das weiter hinterwenden. Würde ich jetzt nicht die Webseite umstellen auf JSON-LD einfach nur, damit man das gemacht hat, sondern wirklich erst dann, wenn man wirklich auch ein Vorteil davon hat. Kann Google erkennen, wenn Kommentare in einem Forum von einem Bord starten. Vor allem in politischen Foren gibt es anscheinend immer mehr Kommentare, die nicht von echtem User kommen. Wie werkt sich sowas auf die Rankings des Forums? Ich denke, selbst als Mensch in einem solchen Forum ist es manchmal schwierig zu erkennen, ob das jetzt richtige Kommentare sind oder nicht. Das ist einfach manchmal so. Und da wird es aus unserer Sicht wahrscheinlich auch schwieriger sein, wenn wir da jetzt ein Algorithmus hätten. Ich wüsste auch nicht, was wir mit so einem Algorithmus machen würden. Aber von dem her weiß ich jetzt nicht, ob das überhaupt Sinn machen würde, ob wir so etwas separat versuchen zu erkennen. In der Regel ist es so, dass wir die Seiten vollständig versuchen anzuschauen und nehmen dann alle Inhalte, die auf diesen Seiten sind, dazu und versuchen dann ein vollständiges Bild von dieser Seite zu machen. Wir versuchen schon zu erkennen, ob das die Hauptinhalte sind, wo vielleicht Kommentare sind. Aber wir versuchen dann nicht zu unterscheiden, welche Jahre von Kommentare das sind, sondern nehmen die dann einfach als ein Teil von den Inhalten auf diesen Seiten. Das heißt, wenn ihr ein solches Forum betreibt oder ein Blog, wo Kommentare dabei sind oder ein Nachrichtenseiter mit Kommentare und die Kommentare oder die Formsbeiträge so sind, dass wir sie indexieren können, und aus unserer Sicht ist es so, dass ihr diese Inhalte uns zur Verfügung stellen für die Suchegebnisse und so wird ein neuer Website insgesamt beurteilt. Das heißt, wir sagen dann nicht, ah, dieser Hauptteil wurde von Betreiber geschrieben, also ist das jetzt das Relevante für die Qualitätsbeurteilung, für das Ranking. Wir schauen stattdessen die ganze Seite an. Das heißt, alles, was auf dieser Seite ist, ist aus unserer Sicht etwas, und das nehmen wir dann für die Beurteilung der Qualität von der Website, von der Resolvenz dieser Website. Ich möchte strukturierte Daten für Reviews verwenden. Ist der vollständige Name des Verfassers Pflicht oder war ich dein Nickname? Kann ich mehr Reviews pro Seite haben? Sind wirklich nur Reviews zu Local Business, Movie und Book möglich? Meines Wissens ist das mit dem Namen nicht so genau, dass man da wirklich einen vollständigen echten Namen haben muss, aber wie das genau ist mit den weiteren Fragen bezüglich Struktur Data, welche mit dem Policy weiß ich jetzt nicht auswendig. Das heißt, in solchen Fallen würde ich jetzt in Hilfeforum nachhaben. Ich weiß, Sven, der ist ja zum Teil noch aktiv im Deutschen Hilfeforum, er kennt sich sehr gut aus mit Struktur Data mit Rich Snivitz und kann sich ja auch weiterhelfen und ein bisschen Richtlinien angeben, die für euch jetzt vielleicht relevant sein würden. Wenn ihr ein konkretes Beispiel habt, eine Seite, die ihr gerne mit Markupfer sehen würdet oder eine bestehende Seite, die ihr gefunden habt, dann hilft das auf jeden Fall weiter, dass man das ein bisschen genauer anschauen kann. Haben AMP-Seiten einen Ranking-Vorteil bei Mobile mit normalen Mobile-Pages einfach durch die AMP-Version ersetzt ist es geplant, dass zukünftig neben Blogbeiträgen auch noch alle Seiten indexiert werden können. Grundsätzlich haben wir keinen Vorteil für AMP-Seiten in Ranking für die Suchergebnisse. Mit der standardmäßigen Einbindung, das heißt mit diesem Rail Alternate AMP-HTML ist es auch so, dass die AMP-Seite nicht indexiert wird. Das heißt, in einem solchen Fall sehen wir das als Alternative an für die Seite, die gezeigt wird. Die AMP-Seite wird nicht indexiert, die wird nicht für das Ranking verwendet, die wird auch nicht als die mobile Version von dieser Seite verwendet. Man kann aber die AMP-Seite als normale mobile Version auch einbinden, indem man einfach das Markup für separate mobile URLs verwendet auf der Desktop-Seite und das man vielleicht zusätzlich noch das AMP-Seitstermarmarkup verwendet. Das ist für uns auch klar, dass es so die mobile Version ist als auch die AMP Version. Dann nehmen wir diese mobile Version quasi als Standard-Mobile Version, die wir für die Suchergebnisse verwenden würden. In Zukunft, wenn wir dann auf Mobile First Indexing umschalten, das heißt, wenn wir anfangen, die mobile Version als Standard-Seite für die Indexing zu verwenden, dann wäre in einem solchen Fall diese AMP-Seite, die beides die mobile Version ist und die AMP-Seite, dann natürlich auch die Version, die wir indexieren würden. Bezüglich Vorteil in einem solchen Fall ist es eigentlich nur so, wie man in einem normalen mobile Website hat. Das heißt, es gibt diesen mobile Friendly Rankingfaktor, der da eintreffen würde. Das wäre eigentlich der Vorteil da. Bezüglich der AMP-Seite, die ihr verwenden könnt, für AMP könnt ihr inzwischen alle Varianten nehmen, die da vielleicht sehen machen. Das heißt, bei AMP ist es ja in erster Linie so, dass die Inhalte im Content-Delivery-Network quasi gekärscht werden. Das heißt, es eignet sich vor allem für statische Inkannte. Man kann natürlich auch mit einem Iframe, mit gewissen Elementen ein bisschen eher interaktive Sachen dazu bringen. Aber in erster Linie ist das etwas, was sehr gut mit statischen Inhalten funktioniert. Wichtig ist vielleicht noch dazu zu sagen, dass ihr nicht die ganze Website auf AMP umschalten müsst. Wenn ihr vielleicht unterschiedliche Teile einer Website habt und ein bisschen statische Seiten sind, vielleicht Blogposts oder Informationsseiten, dann könnt ihr nicht auf AMP umstellen, um den Rest, der vielleicht eher interaktiv ist, der vielleicht eher dynamisch ist, könnt ihr dann natürlich erst so lassen, wie das jetzt ist. Das heißt, ihr könnt da auch beliebig ein bisschen ausprobieren und testen und schauen, wie reagieren Benutzer wirklich auf diese AMP-Seiten. Werden die wirklich in den Suchergebnissen dargestellt. Gehen Sie von dieser AMP-Seite weiter in den Rest meiner Website hinein, wie funktioniert das für euch, wie funktioniert das für eure Sucher. Zum Thema Crawl von 404 Seiten, wie lange beziehungsweise werden diese überhaupt crawl, wenn diese nicht mehr auf der Seite oder auf der Seite mehr verlinkt sind. Grundsätzlich ist es so, dass Google ein sehr langes Gedächtnis hat. Das heißt, wenn wir wissen, dass eine Seite mal existiert hat, dann probieren wir die immer wieder mal, um zu sehen, dass wir wirklich nichts verpasst haben. Und dann kann es durchaus sein, dass eine Seite, die man vielleicht vor Jahren entfernt hat von einer Website, die neben so mal verlinkt ist, dass die trotzdem vielleicht einmal alle paar Monate noch mal crawl wird, einfach damit unsere Systeme nachschauen können, ja, funktioniert das, sind da vielleicht Inhalte, die wir jetzt verpassen oder ist es immer noch auf einer 404 Seite. Und wenn es weiterhin eine 404 Seite bleibt, dann ist es aus unserer Sicht überhaupt kein Problem. Das heißt, es ist nicht etwas, was wir beheben müssen. Das ist einfach ein Zeichen für uns, dass diese Seite weiterhin nicht relevant ist, nicht indexiert werden sollte. Und das ist vollständig okay. Wir haben JavaScript Links, wie folgen da gecrawlt und regulär verarbeitet Anklick, gleich JavaScript.com, Window, Location, href, gleich, eine URL. Ja und Nein. Wie kann man das am besten erklären? Wir versuchen festzustellen ob da irgendwelche Teile im JavaScript dabei sind, die ähnlich aussehen wie URLs und nehmen daran, dass das vielleicht Links sind zu diesen URLs. In einem solchen Fall, wie hier im Beispiel, wenn da konkret im Onclick Event JavaScript, Window, Location gesetzt wird, dann ist das relativ einsam für uns. In vielen Fällen ist das irgendwie in einer komplizierten Logik dahinter. Vielleicht werden wir das über einen Ajax Request von der Datenbank abgerufen und wir sehen, dass im Source Code eigentlich nicht direkt in solchen Fällen kann es sein, dass wir die Links nicht wirklich finden. Das heißt, was ich einfach machen würde, gerade wenn man jetzt mit einer JavaScript Framework arbeitet, ist, dass man die Links normal da Elemente einbindet auf den Seiten. Die kann man ja auch per JavaScript erstellen und normal mit einem href verseht, so dass da ein normaler URL ist, die wir direkt sehen, wenn wir diese Seite, die im Browser renderen würden. Und in solchen Fällen finden wir diese Links, die dann in der Rendert-Version vorhanden sind, finden die URL, die da angegeben ist und können die noch chronen. Ihr könnt da auch ein No-Follow angeben, wenn ihr wollt, dass da kein URL geben wird. Das funktioniert dann alles normal. Was schwieriger für uns ist, ist, wenn da On-Click-Events dabei sind oder On-Hover-Events, vor allem wenn diese Events und quasi was da damit gemacht wird irgendwie versteckt sind. Also nicht, vielleicht absichtlich versteckt, aber einfach nicht auf ersten Blick sichtbar sind, dann kann es durchaus sein, dass wir nicht wissen, was da jetzt relevant ist, ob da jetzt ein Link dahinter steckt oder ob da ein tiefes Element und dann könnte schon sein, dass wir die verpassen. Das heißt, wenn möglich mit A-Elementen arbeiten, die kann man auch bei JavaScript erstellen lassen. Wenn man On-Click verwendet beziehungsweise wenn man das verwenden muss, auf den Seiten dann so klar wie möglich machen, welche URL da wirklich aufgerufen wird, weil Google-Bord geht jetzt nicht hin, schaut sich die Seite an und klickt auf alle Elemente, um das wirklich so eindeutig wie möglich zu finden. Wir haben einen recht großen Shop, der unter einem Subdomain läuft. Ende letzten Monats sind die Ranking stark gesunden. Die Rankings der Hauptdomain hingegen sind gestiegen. Obwohl es auf der Hauptdomain kein Inhalt gibt, sondern alle bei einer oder anderen Subdomain weitergeleitet werden. Die Traffic-Zahlen sind so weit stabil. Dennoch frage ich mich, warum die Ranking an Sicherheit verloren hat. An der Indexierung hat sich nichts geändert. Das ist eine interessante Frage, da weiß ich jetzt auch nicht genau was es sein könnte. Am besten wäre es, wenn du mir einfach eine Nachricht vielleicht auf Google Plus zuschicken könntest mit der URL, dann kann ich das hier mal anschauen. In Grunde genommen versuchen wir Zeichen wie 301 redirects zu verwenden für die Canonicalization. Es ist aber auch so, dass wir für die Canonicalization verschiedene Faktoren zusammennehmen und das Gesamtbild dann anschauen. Das heißt, wir schauen auch den Well Canonical an, wir schauen interne Verlinkung an, die Side Maps, wie das mit der Side Map ist. Externe Verlinkung schauen wir auch ein bisschen an. Und so versuchen wir festzustellen, welches ist jetzt die beste URL, die wir für die Sehenhalte zeigen können und die nehmen wir dann unter Umständen oder meistens versuchen wir die festzustellen und die nehmen wir dann auch für die Suchergebnisse. Aber wenn die Signale nicht ganz eindeutig sind, wenn zum Beispiel ein 301 redirect vorhanden ist, aber der Well Canonical zeigt auch die andere URL oder ein redirect ist vorhanden, aber die internen Links zeigen alle woanders hin oder der redirect ist vorhanden, aber die neue URL ist sehr lang und kompliziert, hat vielleicht viele Parameter dabei, dann kann das für uns ein Grund sein, dass wir sagen gut, diese andere URL ist eigentlich die bessere, die schönerer, die sinnvollere für die Suchergebnisse unternehmen will. An den Rankings an der Sichtbarkeit in den Suchergebnissen sollte das insgesamt eigentlich nichts ändern. Das ist dann aus unserer Sicht wirklich nur eine Frage, nehmen wir die oder nicht, und der Rest bleibt eigentlich gleich. Wir haben bald einen physischen Server umgezogen. Der Server zieht von Stadt A nach Stadt B, das Ganze soll über 10 Stunden dauern. Sollen wir hier etwas beachten, was passiert in Googlebot genau in dieser Zeit kommt und der Server nicht erreichbar ist. Ja, solche Situationen gibt es und da kann ich ja nicht mit, ich weiß nicht, mit Wi-Fi zu überbrücken. Was ich in einem solchen Fall machen würde ist einfach sicher sein, dass man klaren Fehlercodes zurückgeben kann, dass man zum Beispiel mit einem 503 Resolve-Code arbeiten kann und vielleicht auch eine klare Fehlerseite für die Benutzer, wenn Benutzer in dieser Zeit kommen, dass sie da auch Bescheid wissen. Mit einem 503 ist für uns klar, dass im Moment ist der Server nicht erreichbar. Im Moment kann der Server nicht erreichbar sein, aber wir sollten vielleicht später mal vorbeischauen und das später mal anschauen. Und in der Regel, was da passiert ist, wir machen diese Cros, wir sehen den 503, wir ignorieren die Inhalte, weil das ist ja eine Fehlermeldung und wir schauen dann später vorbei und wenn wir später vorbeischauen und finden die normalen Inhalte wieder, dann ist alles aus unserer Sicht okay. Wenn im Gegente dieser Zustand quasi vorhanden bleibt, d.h. dieser 503 für mehrere Tage oder Wochen immer wieder zurückgegeben wird, dann kann es sein, dass unsere Systeme denken, dieser 503 ist wahrscheinlich nicht so temporär wie dargestellt, sondern vielleicht ist das der permanente Zustand, vielleicht ist dieser Server ganz verschwunden und wir müssen diese Werkzeit von den Suchergebnissen entsprechend ausverhalten lassen. Bei 10 Stunden sehe ich überhaupt kein Problem, wenn das ein paar Tage geht, denke ich, ist das auch kein Problem, das sollten wir eigentlich alles hinkriegen können. Wenn der Server selber umzieht, kann der Server ja nicht den Fehlerkund zurückgeben, da würde ich einfach per DNS auf ein anderer Server umweiten, sodass diese Fehlermeldung zurückgegeben werden kann. Bei einem unserer österreichischen Kunden ist uns eine große Abweichung der angegebenen Search-Consult-Position gegenüber der Suchergebnissen aufgefallen. Bereits seit Monaten finden wir den Kunden für unsere Suchanfrage auf Seite 2. Laut Search-Consult ist aber die durchschnittliche Position 36,2. Was ist da los? Schwierig zu sagen, also da müsste man wahrscheinlich mal die Daten genauer anschauen. Was man berücksichtigen muss ist, dass da die Daten verwendet werden, die wir effektiv gezeigt haben, die wir den Besuchern oder den Suchenden, die danach gesucht haben, effektiv gezeigt haben. Das heißt, in einem solchen Fall ist es vielleicht ein bisschen schwieriger zu sagen, Seite 2 und Position 6, das könnte ja manchmal ein bisschen mehr oder weniger kommen, dass sich das ein oder anderer trifft. Könnte ich mir vorstellen, dass das vielleicht normal ist, aber es gibt zum Beispiel auch extreme Situationen, wo wir eine Seite auf Seite 10 in den Suchergebnissen haben, wo fast niemand hingeht, wo aber vielleicht gleichzeitig sehen wir ab und zu jemanden aufgrund von Personalisierung, sieht diese Suchergebnisse oder diese Seite in den Suchergebnissen auf Seite 1. Und dann kann es natürlich sein, dass Search-Consult sieht, ah, diese Website wurde auf Seite 1 gezeigt und noch auf Seite 1 und dann ist die Durchschnittsposition relativ hoch, einfach weil niemand zu Seite 10 geht. Man kann das aber einigermaßen erkennen, indem man das, die Anzahl Impressions auch anschaut für diese Suchergebnisse und sich überlegt, stimmt das? Das heißt, wenn ich die Anzahl Impressions anschaue und ich denke, das ist eine Suchernfrage, wir müssten eigentlich mehr oder 1000 Mal am Tag in die Stadt finden und die Anzahl Impressions ist sehr klein, vielleicht mit 10 oder 20, dann kann ich davon ausgehen, dass die Position in der Art dargestellt wird, sich auf eine ganz kleine Menge von Benutzern beschränkt und dementsprechend ist das vielleicht nicht die Position, die die Mehrheit der Benutzer sehen. Was man auch machen kann, um das ein bisschen genauer vielleicht einzukreisen, ist, dass man in Suchanalytics versucht, mit den Filtern ein bisschen zu arbeiten und zu überlegen, wo Benutzern jetzt meine Webseite in den Suchergebnissen kann es sein, dass es vielleicht in einzelnen Ländern sehr gut rankt in anderen Ländern vielleicht weniger oder vielleicht auf Mobile sehr gut und auf Desktop weniger. Vielleicht gibt es solche Unterschiede. Ich weiß jetzt nicht, ob das der Fall ist hier in diesem Fall manchmal ist es auch so, dass man vielleicht in der Bildersuche erscheint und dann auch die Bilder können ja auch in den normalen Suchergebnissen erscheinen und dass es so dann die Deutschlands Position leicht verhindert. Wichtig ist aber, wie ich am Anfang schon gesagt habe, die Position, die wir zeigen, ist keine theoretische Position, sondern wirklich aufgrund von dem, was wir gezeigt haben. Also eine Frage bezüglich ein Test-Szenario. Ein Kunde möchte eine neu gestaltete Webseite über eine Cookieweiche testen und dabei wird quasi über Useragent erkennen um ein Cookie gesetzt und dann je nachdem die oder die andere Version umgezeigt. Wie funktioniert das mit Google? Aus unserer Sicht sollte das kein Problem sein. Einerseits nimmt Googlebot in den meisten Fällen ja keine Cookies auf oder spielt sie wieder zurück. Von daher fährt Googlebot wahrscheinlich nicht in dieses Test-Szenario hineinfallen. Andererseits ist es so, dass wir gerade bei AB-Tests eigentlich etwas Standardmäßiges was viele Webseiten machen um wirklich gute Inhalte hinzukriegen und damit muss man auch irgendwie umgehen können. Das heißt also unsere Sicht ist das jetzt nicht ein Fall wo das Web-Span-Team kommen würde und sagen, ihr macht mal Cloaking ihr dürft das nicht machen das gibt eine manuelle Anpassung in den Suchergebnissen für euch, sondern das Web-Span-Team würde das anschauen und selbst wenn sie so ein AB-Test sehen würden würden sie das wahrscheinlich danach entsprechend sein lassen und sagen ja die Inhalte sind soweit equivalent. Die sind vielleicht anders dargestellt die Texte sind vielleicht leicht aber aus unserer Sicht ist das eigentlich okay das ist vielleicht im Rahmen von Personalisierung wird das eigentlich auch soweit anzutieren. Wichtig ist da vielleicht einfach, dass ihr Googlebot nicht ausführlich anders beantragt. Das heißt, dass ihr in eurem AB-Testing nicht irgendwo eine Zeile habt wenn Googlebot kommt, dann immer die Version zeigen wenn Googlebot nicht kommt, dann macht wir etwas anderes sondern Googlebot muss unter Umständen ein Teil von diesem Test sein und je nachdem wie ihr diese Test-Aufteilung AB macht kann es natürlich auch sein dass Googlebot die A-Version sieht manchmal die B-Version sieht und dementsprechend werden die Inhalte vielleicht mal so oder mal so indexieren wenn das equivalente Inhalte sind ist das ja eigentlich ein Problem dann verstehen wir die Webseite die auch weiterhin um können damit auch weiterhin arbeiten ich würde mir jetzt wegen der Technik oder wie man das jetzt genau umsetzt keine zu großen Sorgen machen bezüglich Googlebot sondern wirklich einfach schauen wie das für euch wichtig ist wie ihr diesen AB-Test machen könnt für eure Besucher, so dass ihr eine Aussage kriegt die euch hilft die Webseite wir haben für unsere mobilen Nachrichtenseite m.domain.de aktuell einen deutlichen Traffic-Rückgang und eine gesunken Sichtbarkeit werden Mobile-Werbe-Interstitials doch schon Mitte Januar negativ doch schon vor Mitte Januar negativ bewertet teilweise haben wir den Einwurf dass sich Traffic auf die App Artikel verlagert werden die Apps jetzt Mobile Prima wir haben die App-Werbe-Interstitials gezeigt geändert haben wir eigentlich nichts wie vorhin gesagt wir haben kein Rankingfaktor für die App-Seiten wenn ihr die App-Seiten mit der standardmäßigen Einbildung gemacht habt dann werden die auch nicht für die Indexierung verwendet und auch nicht als mobile Version erkannt und von dem her sollte das zumindest nicht von den Artikeln irgendwie abhängen bezüglich den Mobile-Interstitials das ist wirklich erst in Januar oder ich weiß nicht wann wir das Datum angegeben haben aber auf jeden Fall noch noch nicht in Kraft das heißt es wäre in dem auch nicht wo das jetzt genau herkommen könnte ist ein bisschen schwierig zu sagen also zumindest sind die Sachen jetzt nicht relevant für eine solche Anpassung wenn du mir die URL mal zuschicken willst dann kann ich das auch hier mal anschauen und schauen ob es eben etwas gibt was wir euch sagen können oder ob das einfach normale Algorithmosparen umsehen die es eigentlich immer wieder geben könnte eine Frage zu Duplicate Content Domains in Leichspark in Ländern wenn ich Domains zum Beispiel für ein Onlineshop in Deutschland, Österreich, in der Schweiz habe D-E-E-A-T-C-H so produziere ich aufgrund der deutschen Frage 3-mal die selben Inhalte wie kann ich Google das erklären am einfachsten mit dem hreflank-Tag das heißt wenn wir mit dem hreflank-Tag diese verschiedenen Versionen erkennen können wenn wir erkennen können dass das sauber und korrekt eingebunden ist dann selbst wenn wir nur eine Version von diesen Inhalten indexieren dass es eine richtige URL darstellt und manchmal wenn das wirklich 1 zu 1 Duplicate sind dann indexieren wir einfach eine Version von diesen Inhalten und aus unserer Sicht und aus Sicht von Benutzer ist es eigentlich egal weil vom Ranken her verändert sich da nicht wahnsinnig viel sondern es macht es einfach ein bisschen einfacher auf unserer Seite das heißt ihr müsst auch nichts sag mal unnatürliches machen um diese Verknüpfung quasi aufzubrechen mit wie gesagt mit dem hreflank-Tag funktioniert das sollte das zumindest relativ gut funktionieren und dass wir eigentlich dann immer auch die richtige Version zeigen können eine Frage bezüglich DuFollow-Eingestellung wir betreiben einen Job-Portal und haben lange Zeit die Detail-Ansichtseite der Job-Angebote auch Index-Follow gestellt nun haben wir für circa 10 14 Tagen die Detail-Seite auf Index DuFollow wahrscheinlich war es auf Index-No-Follow vorher gestellten jetzt aber Index-Follow also das normale dieses hat sich positive auf den organischen Traktik ausgewirkt dies hilft nur für 3 Tage und jetzt stürzt alles ab was könnte das sein schwierig zu sagen ohne die Website anzuschauen in der Regel wenn man jetzt mit den No-Follow-Robots-Metathag arbeitet betrifft das natürlich auch die interne Verlinkung das heißt wenn ich eine Seite habe innerhalb einer größeren Webseite und ich habe No-Follow-Robots-Metathag, dann gilt das für die ganze Seite und betrifft auch die Navigation, die ganze interne Verlinkung und das macht es für uns sind sehr schwierig da irgendwie festzustellen wie passen diese Seiten zusammen was ist der Kontext von den einzelnen Detail-Seiten von den Kategorien wie funktioniert das eigentlich alles zusammen das heißt da würde ich auf jeden Fall die andere Einstellung geben wie jetzt gesagt Index-Follow oder einfach kein Robots-Metathag verwenden so dass wir zumindest die Webseite selber sauber Kron indexieren können wenn ihr Angst habt, dass Firmen vielleicht kaum links platzieren auf euren Seiten, dann könnt ihr natürlich für die ausgehenden Links gezielt einen No-Follow auf die einzelnen Links setzen, aber ich würde nicht in einem solchen Fall per Robots-Metathag die ganze Seite auf No-Follow setzen, ich denke das damit für USA kann Probleme als die man irgendwie beheben kann wie sich das auf die Suchergebnisse entsprechend auswirkt ist schwierig zu sagen ich denke auf jeden Fall wenn wir erst mal anfangen können die Webseite zu Kron und zu indexieren normal, dann gibt es da wahrscheinlich schon rechte Schwankungen, bis sich das alles wieder einträgt und das kann durchaus sein dass wir anfangen zu Kron und wir finden sehr viele neue Seiten oder erkennen den Kontext von einzelnen Seiten viel besser dass man erst mal einen starken Anstieg sieht und dass es dann nachher sich dann irgendwo wieder stabil auspendelt an einem anderen Niveau aber es ist jetzt auf jeden Fall nicht so, dass ich sagen würde wenn man jetzt von No-Follow-Metathag auf einem Follow-Metathag umschaltet dass man da einen Short sehen würde oder so etwas sondern eigentlich braucht es da jetzt einfach eine gewisse Zeit bis sich dann natürlicher Zustand der Webseite wieder einstellt wir haben eine externe Bilder-Seitenheit eingereicht, es wurden allerdings nur 18 indexiert obwohl sie bereits Ende September uploadet wurde woran kann das liegen und was ist der Vorteil einer externen Image-Seitenheit kann das Vorteil für das Ranking sein ja ich weiß jetzt nicht warum wir nur so wenig Bilder indexiert haben das scheint ein bisschen problematisch vielleicht zu sein wichtig gerade bei der SideMap bezüglich der Indexierung Anzeige ist es so, dass sich das genau auf die URLs bezieht, die eingereicht worden sind das heißt, wir schauen dann nicht, ob die Inkannte indexiert sind sondern wir schauen genau wie sie eingereicht worden ist ist die so in unserem Index wenn sie leichten in anderen Formen bei uns im Index ist dann zählt das nicht manchmal ist das schwierig zu erkennen bei normalen Webseitenapps sieht man das vielleicht eher noch dass man die Webseitenanteil anschaut und sieht man, ich habe alles mit index.atml am Ende eingereicht und auf meiner Webseite selber habe ich es verlinkt mit index.atml und dann sind unsere Systeme und überlegen ja mit index.atml und ohne indexieren wir vielleicht ein Teil so ein Teil so und wenn man die SideMap-Datei dann anschaut den Indexierungstatus dann sieht man da ist viel weniger indexiert als eigentlicher Wade bei Bildern ist das noch eine Stufe komplizierter indem, dass wir einerseits die Bild-Landing-Page also die Webseiten in richtiger Form haben müssen das heißt auch eben diese Frage Index.atml oder nicht oder mit www all das kommt dazu und die Bilder URL müssen auch genau in diesem Format indexiert werden das heißt wenn die Bilder leicht anders eingebunden sind auf der Webseite selber dann kann es sein, dass wir die Bilder schon indexiert haben aber mit einer anderen URL das heißt die SideMap-Datei ist sehr praktisch um festzustellen habe ich alles ganz genau wichtig gemacht heißt aber nicht, dass wir dann gar nix indexieren wenn da jetzt weniger steht das heißt unter Umständen hat man dann trotzdem noch eine gewisse Sichtbarkeit in der Bildersuche auch wenn die Bilder SideMap ganz falsch eingereicht worden ist bezüglich Ranking ist es so dass die Bilder für die Bildersuche in erster Linie verwendet und die Bilder SideMap wird auch für die Bildersuche in erster Linie verwendet das heißt wenn ihr Inhalte habt die über die Bildersuche gefunden werden sollen, macht das sicher Sinn wenn hingegen die Besucher alle über die normale Web-Suche kommen dann hilft eine Bilder SideMap eigentlich nichts in dem Sinne dass Ranking der Web-Resultate nicht verändert wird dass wir jetzt Bilder noch indexiert sind in vielen Fällen ist es aber trotzdem so, dass Besucher über die Bildersuche auch kommen und von dem her würde ich das jetzt nicht ganz vernachlässigen aber wenn man sich wirklich nur auf die Web-Suche konzentriert braucht man vielleicht eine Bilder Web sein Bilder SideMap nicht unbedingt okay, ich glaube da haben wir es soweit alle durch da sehe ich noch eine Frage in den Chat ob ich in die Liste von den Supergebnissen wie zum Beispiel Veranstaltung Frankfurt und da können wir drauf weiß ich nicht was da gemeint ist darf ich das hier fragen? ja, weg los also es wenn ich jetzt bei Google Veranstaltung Frankfurt angebe dann kommt es immer dazu dass ich oben eine komplette Liste von Frankfurt habe die Veranstaltung in Frankfurt finde das geht aber auch für Bonn oder einen anderen Stadt außer Köln und da wollte ich jetzt mal fragen ob ich meine Snippet so eingereicht habe dass ich eine Veranstaltung in Frankfurt oder in Bonn habe komme ich nicht in die Liste rein okay darf ich ein Screenshot geben? ja, genau ah, jetzt, okay bei mir hat es auf Englisch irgendwie umgestellt da hat es gar nichts dargestellt also die kommende Veranstaltung quasi oben ja, das sind die Kunden Veranstaltungen und wie schaffen die Leute das dort rein und ich schaffe es mit meinem Snippet und mit meiner Kulturung nicht ähm gute Frage so weit ich weiß funktioniert das über die normalen Event Markup die eigentlich da vorhanden ist bei einigen dieser Webresortaten ist ja unten dieses Rich Snippet mit Datum und Event wer hat das bei bei eurer Website auch dargestellt oder? das wird bei mir in der Suchergebnis dargestellt aber in die Liste komme ich nicht da oben also in diese große Liste okay ähm gute Frage weiß ich jetzt nicht auswendig ob es da ähnelt was Spezielles noch dazugehen ja, ich habe auch nicht auf Englisch oder Eredoms kannst du mir vielleicht in den Chat reinschreiben dann kann ich es nachher mal anschauen ähm okay, ich muss da mal selber suchen, weil es gibt so viele Domains die ich da getestet habe ähm, da kann ich das gleich mal auf den Chat machen, gerne super, okay, danke soll ich dann vielleicht kurz noch zwischendurch? ja okay, hi wir betreiben eine der führenden Gutscheinseiten in Deutschland und da gibt es ja die Offers und da haben wir jetzt gestartet das mit Schema-Orcs-Sale-Events auszuschnücken und das hat auch den also das führt dann auch dazu dass in der Search Engine und Saltpage das wie ein Event dargestellt wird jetzt bin ich mir nicht ganz sicher es sind ja Gutschein-Codes für Online-Shops also in der Liste von Gutschein-Codes ob das wirklich konformist mit Google sind das Sale-Events oder sollte man doch lieber ein Offer nehmen kann das zu einem Spam dort führen oder ist das okay? das klingt nach etwas wo man wahrscheinlich einen Offer nehmen würde wenn du mir ein Beispiel schicken kannst oder in den Chat reinschreiben kannst auf der Archive-Seite dann, wenn kann ich das mit dem Team nochmal anschauen aber ich vermute dass das wäre eher problematisch wenn man das jetzt als Event markieren wird ja, weil das Sale-Event hat eben auch was in den Search passiert und wir haben vielleicht mehr Clips bekommen ah, so, das ist sogar schon weg warte mal vielleicht wurde jetzt gerade auch was gemacht von Google ich weiß es eigentlich das ist nach den gestern ja also wir haben jetzt hier ja, es sind schon damit, da habe ich schon ein bisschen mitgezogen es haben alle ein bisschen gestartet da sehe ich, wenn es zu nutzen das hier war unsere Seite und vor kurzem war gerade noch Events in the Search drin also, das einzelne das einzelne Sale-Event wurde ein bisschen größer ja also lieber auch was wahrscheinlich als Sale-Event ja da gibt es einen Bewerb auf Platz 1 mit dem Term mit dem wird es angezeigt noch das eine Sale-Event ja, ich sehe es gerade, genau interessant also, wir wollten das schon also, wir dachten wir sind es da nicht gegen die Richtlinien und wollten das Sale-Event nutzen damit wir ein bisschen mehr Clips durch die Search bekommen haben, aber wenn es gegen die Richtlinien wäre und das Geld Problem dann würden wir da wieder wahrscheinlich zurückzumachen einfach mal abwarten ja es sind natürlich viele Creative mit Rich Snippet oder ja, viele einige sind Creative und da ist es dann schon manchmal so, dass einfach das Webspam-Team das mal anschaut und sieht, ja, das ist jetzt irgendwie doch nicht so wie das gedacht war und dann kommt entsprechend eine manuelle Maßnahme bei den manuellen Maßnahmen ist es allerdings so, dass wir dann einfach die Rich Snippets ausschalten für die Website bis es überhaupt mehr ist dass das Ranking dann verändert wird wäre das okay wenn wir das jetzt mal so abwarten und dann entfernen ich frage auf jeden Fall mal nach ich habe mir das mal hier morgiert dass ich das mit dem Team mal anschauen kann aber meines Wissens bei ähnlichen Sachen die wir schon mal gesehen haben was jemand eventverwendet hat für etwas, was eigentlich kein Event ist da hat das Team dann doch irgendwie einschreiten müssen also eine Verkaufsaktion ist kein Event für Schema also kein Sale Event Sale Event ist natürlich vom Namen her wird das fast ein bisschen verwehrend, ja okay, und wenn wir jetzt so ein Spam-Report in den Search Console bekommen und das beheben und dann haben wir zumindest wieder die Sternchen sehen, weil die schauen wir auch okay zu sein das hat keinen Nachwirk also wenn es dann behoben ist und wir wieder konform sind dann ist das einstellig okay alles klar, wie würde ich da Rückmeldung bekommen das nächste mal vielleicht noch mal fragen ähm gute Frage vielleicht kannst du mir einfach auf Google plus seine Nachrichten dann kann ich das mal anschauen okay, alles klar, vielen Dank ja, bitte okay, weitere Fragen also wenn jemand wenn keiner eine Frage habt ich hab jetzt links hier durchgeforscht wo ich dir das zeigere ich versuche mal mein Bildschirm freizugeben wenn es okay ist so dauert doch wild also kommt schon so, jetzt seht ihr euch natürlich, ich hab hier jetzt Google, kannst du Google Rich Google Rich Snubbit geschrieben und das erste Link den wir jetzt sehen ist auch unser Link und da steht wann das gestartet wird und so weiter fort was du eigentlich gefragt hast John und auf der Webseite sieht das so aus dieser Beitrag, Artikel oder Veranstaltung und wenn ich das auf der Google Test Tool hier strukturierte Daten reingehe und da gucke da siehst du auch, dass es ein Event ist und wenn ich da draufklicke kriegt man dann auch dementsprechend die Event Einstellungen rein im Moment hab ich da 1, 2 mit Warnungen aber das hat damit zu tun dass ich den Ticketpreis nicht da rein bestellt habe und deswegen sind die Warnungen dran weil das ein kostenloser Event war und jetzt komme ich aber trotzdem nicht in diese große Liste rein wenn ich Veranstaltungen und Stadt eingebe das ist mein Problem ich möchte das mit dem Team mal genauer anschauen was da ist bei bei diesem Suchergebnis sind ja unten schon die Events auch aufgeführt und von dem her denke ich, erkennen wir die Events wir müssen das im Ranking in den allgemeinen Events dieser Events-Box oben quasi berücksichtigen ich könnte mir vorstellen dass gerade so bei größeren Städten gibt es natürlich Konkurrenz und da kommen natürlich alle möglichen Events zusammen und da gibt es vielleicht einen Ranking Algorithmus der versucht festzustellen welche sind jetzt allgemeine Events die da Sinn machen die wir so darstellen müssen aber wie das genau stattfindet weiß ich jetzt nicht und da müsste ich mal mit dem Team nachfragen ob es da irgendetwas gibt was wir vielleicht das Hinweise geben kann was da am besten hinkriegt also noch mal das was du gerade gesagt hast habe ich getestet mit kleineren Städten und wenn ich in eine kleinere Stadt nehme, so ein Kaff zum Beispiel und da kommt da kommen die Events von Köln oder von von also wenn ich jetzt zwischen Köln und Bon irgendwas in Stadt nehmen würde in Example Loma da kommen die Events von Köln oder von Bon in diese große Liste ein weil das näher liegend ist also das hat mit dem Ranking gar nicht zu tun meine ich nur zur Info, dass du auch mal Bescheid weißt würde mich sehr sehr dringend interessieren weil es gibt ja so eine riesen Liste und wie machen die das und wenn ich deren Seite oder deren Links angucke diesen Grotten schlecht und die kommen trotzdem dort rein irgendwie keine Ahnung wie du das machen wenn das ein Werbemaßnahme ist dann machen wir die Werbung kein Thema Nein, also so weit ich weiß ist das natürliches Ranking da drin aber wie das zusammengestellt wird das weiß ich jetzt wirklich nicht muss ich mal nachschauen Okay, würde mich freuen wenn ich eine Bescheid bekommen würde, danke Okay vielleicht noch Zeit für eine Frage falls eine von euch noch etwas hat ansonsten können wir auch Pause machen dann habt ihr wieder ein bisschen Zeit da habe ich noch eine Frage als Facebook Super Okay, wie sieht denn Google unsere Seiten also wenn ich zum Beispiel eine Fanpage habe bei Facebook und die auch COTechnisch so gut angegeben habe wie krabbelt Google Facebook Fanseiten Wie normale HTML-Seiten das heißt wir machen da eigentlich nichts spezielles wenn das Seiten sind und die Inhalte sind öffentlich verfügbar dann können wir die holen wenn man sich bei Facebook anmelden muss oder einen Mitglied zeigen muss bis wir diese Seiten sehen können dann können wir die Seiten natürlich nicht sehen aber ansonsten sind das aus unserer Sicht die HTML-Seiten wie wie jeder andere Okay, danke schön Macht's ein bisschen einfacher ich müsste ja nicht spezielles machen Okay, dann machen wir doch hier mal Pause ich schaue nachher mal die die einzelnen Fragen nochmal an und guck mal ob ich da ein bisschen mehr Informationen rausfinden kann die wir dann vielleicht das nächste mal oder separaten dann bedanke ich nochmal bei euch für die vielen Fragen die ihr eingereicht habt und die ihr gestellt habt und hoffentlich sehen wir uns in einem der nächsten Hangouts wieder Alles klar, danke schön, tschüss Auf alle Fälle, bis denn, take care