 Okay, herzlich willkommen beim heutigen Google Webmaster Central Sprechstunden Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trans Analyst hier bei Google in der Schweiz und Teil von dem, was wir machen, sind solche Webmaster Hangouts mit Webmastern, Publishern, wie ihr zieht live im Hangout und wie natürlich auch bei uns Fragen gestellt haben auf den Google Plus Thread, für euch versuche ich da möglichst die Antworten rauszuholen. Okay, wenn einer von euch möchte, könnt ihr gerade loslegen mit irgendeiner Frage? Wenn es irgendjemand ist, der das gerade auf dem Herzen ist, ja. Hallo gerne erstmal, ich wollte mal kurz fragen, ob das neue Google My Business auch mit dem Search Engine 40 Minuten hat. So weit ich weiß nicht, also ich, so weit ich weiß, ist Google My Business eher mit der Map-Seite, mit der Ad-Seite verbunden und von dem her ist das nicht etwas, was wir direkt mit den Suchresultaten zusammenbringen. Was einfach sein kann, ist, dass ein Google My Business Eintrag natürlich sichtbar sein kann in den Suchergebnissen und vielleicht auch auf der Seite mit dem Knowledge Panel quasi sichtbar sein kann. Aber es ist nicht so, dass ein Google My Business Eintrag das Ranking beeinflusst von der normalen Webseite. Okay, bin ich aber My Business jetzt mit same as bei dem strukturierten Dateneingegebe. Hat das mehr Erfolg? Meines Wissens benutzen wir das nicht. Ich glaube, das same as hilft uns zu erkennen, welche Sachen zusammengehören. Aber es ist nicht so, dass wir dann sagen würden, das gehört zum My Business Eintrag, deswegen müssen wir diese Webseite auch ein bisschen höher platzieren in den Suchergebnissen. Okay, danke. Okay, ich lege vielleicht sonst mal los mit den Fragen, die eingereicht worden sind. Wenn euch noch zwischen euch irgendetwas einfällt oder irgendetwas unklar ist, einfach losreden. Dann schauen wir das auch an. Okay, in den Google Docs zum Thema Datatype Article ist aufgeführt, dass ein Artikel, Non-AMP, ein Image Object bei den strukturierten Daten definieren sollten. Die Größe für das Bild wird angegeben, 696 Pixel Breite. Ist dieses Image Object relevant und notwendig für das Anzeigebild in Google News? Habt ihr Probleme damit, wenn das Bild nicht genau die gleiche Breite ist? Was macht man stattdessen? Ich weiß nicht, wie das bei Google News verarbeitet wird. Das ist vielleicht mal vorweg. Ich vermute, dass bei Google News wird das ein bisschen anders verarbeitet als bei unseren Websuchen. Was ich aber weiß, ist, dass auf unserer Seite ein bisschen daran gearbeitet wird, diese ganzen Bildereigenschaften ein bisschen genauer zu definieren, beziehungsweise ein bisschen klarer zu definieren. Das heißt, dass man ein bisschen versteht, woher die unterschiedlichen Breiten kommen und für welches Objekt man welche Art vom Bild braucht und wie das Bild optimal in der Größe, in Seitenverhältnissen sein sollte, damit man das wirklich selber aufnehmen kann. Das ist erstaunlich kompliziert, hat sich herausgestellt, einfach dadurch, dass über die Jahre hinweg sind da viele verschiedenen strukturierten Datelemente gekommen, die dann Bilder brauchen und dann jedes hat ein bisschen seine eigenen Eigenschaften gesucht und so hat sich ergeben, dass je nachdem, welche Art von Widgetnipzmann haben möchte, sind da ganz unterschiedliche Bildeigenschaften, die gefordert werden. Wir versuchen das ein bisschen klarer zu machen, ein bisschen einfacher zu machen, damit man auch versteht, woher die einzelnen Breiten kommen und was man optimalerweise verwenden könnte, um wirklich die verschiedenen Elemente auch sauber abzudecken. Hätte ich jetzt nicht erwartet, dass das so kompliziert ist, aber da sind wir jetzt schon einige Zeit dran, das ein bisschen zu vereinfachen oder besser zu dokumentieren zumindest. Manchmal kann es Sinn machen, eine Seite auf No Index zu setzen, wenn diese Seite nun extern verlinkt wird. Wie geht Google mit dem erhaltenen Linkjuice um? Wird dieser und natürlich auch über interne Verlinkung erhaltenen Linkjuice vollständig auf die Seite, verlinkt die Seite weitergereicht oder bleibt etwas übrig? Was, was, was passiert da? Es ist auch erstaunlicherweise, naja, ich weiß nicht, erstaunlicherweise, aber unerwarteterweise ein bisschen kompliziert, das Ganze mit dem No Index, weil einerseits kann man zwar angeben, dass eine Seite No Index follow hat, das heißt, dass Links, die zu dieser Seite gehen, sollen dazu führen, dass diese Seite selber nicht indexiert wird, dass quasi der, der PageRank und die Signale weitergegeben wird auf die Links, die auf dieser Seite drauf sind. Andererseits ist es natürlich so, dass No Index Befehl uns sagt, dass diese Seite jetzt nicht indexiert werden soll. Wenn eine Seite nicht indexiert ist, dann sind da auch keine Links, die irgendwie etwas weitergeben können. Und da ist es dann oft, ich sage mal, ein Balance zwischen diesen beiden Varianten, in dem Sinne, dass wir teilweise diese Seiten indexieren und einfach nicht in den Suchergebnissen zeigen und dann können wir diesen Links weitergeben und teilweise sagen wir, gut, No Index ist No Index, wir sparen uns die Arbeit und lassen die Seite und alles, was wir dazu kennen, aus dem Index fallen und dann geben diese Links eigentlich nichts weiter. Das heißt, wenn etwas wirklich wichtig ist, dass es indexiert werden sollte, dann würde ich schauen, dass es normal verlinkt ist mit der Website und nicht nur über No Index Seiten weiter verlinkt wird. Das heißt, dass man eine saubere Struktur hat auf der Website, dass wirklich man von einer indexierten Seite zu anderen kommen kann über die Links und dann finden wir in der Regel diese Links schon weiter und wenn etwas nicht so wichtig ist oder wenn eine Seite jetzt auf No Index gesetzt werden soll, weil es zum Beispiel eine Kategorien Seite ist, die man nicht indexieren haben möchte, dann muss man einfach damit rechnen, dass diese Seite und die Links, die von dieser Seite herausgehen, unter Umständen nicht, nicht gezählt werden. Ich hoffe, das macht es ein bisschen klarer, aber eben wie gesagt, es ist ein bisschen schwierig, weil eigentlich der Robots Text oder der Robots Matter Tag Directive da, sagt natürlich aus No Index und Follow und aus unserer Sicht, wenn eine Seite wirklich nicht indexiert ist, dann gibt es da nichts, was man followen kann. Okay, dann mal etwas anderes. Mir ist bei drei großen Projekten Online Shops aufgefallen, dass meine Besucherzahlen anfangs sehr gut waren. Nach einigen Monaten sind die Zahlen zurückgegangen. Nach einem weiteren Monat sind sie wieder da, wo sie am Anfang waren. Wir haben über 99 Prozent über den Longtail-Bereich auf einzelnen Produktzeiten. Die Frage also, ob Google eine Art Spam-Schutz hat, wenn eine neue Website sehr viele Seiten, zum Beispiel 100.000 Produkte mehr an den Index schickt. Wir haben schon verschiedene Systeme, die versuchen, so, einen großen Rahmen Spam abzufangen, rechtzeitig. Und das könnte unter Umständen auf so etwas auch zutreffen. Aber in den meisten Fällen ist es einfach wirklich so, dass eine Website, wenn sie ganz neu ist auf unserer, bei uns im System, dann haben wir gar keine Signale für diese Website oder sehr wenig Signale. Und dann müssen unsere Algorithmen erst mal eine grobe Einschätzung machen. Dann sagen sie, diese Website ist wahrscheinlich etwa da anzusiedeln. Und nach einer gewissen Zeit haben wir dann mehr und mehr Signale und wissen dann ein bisschen besser, wo wir diese Website einziehen sollen. Und dann kann es sein, dass es erst mal vielleicht ein bisschen runter geht oder ein bisschen hoch geht oder ein paar Monate geht, bis es sich wirklich sauber eingependelt hat. Und von dem her vermute ich, dass es weniger eine Frage bezüglich Spam ist oder der Anzahl der Seiten, die da indexiert werden, sondern einfach, weil es jetzt eine größere neue Website ist, wissen wir nicht genau, wo wir sie einsiedeln sollen. Und dann machen wir erst mal eine Abschätzung am Anfang. Im Laufe der Zeit pendelt sich das dann irgendwo ein. Und nach einigen Monaten ist es dann meistens einigermaßen stabil. Wenn ich ein Domain per disseval entwerten lasse und später die URL wieder aus der disseval-Dataille entferne, wird der Linktoes wieder gewertet. Wie lange dauern solche disseval-Enderungen? An und für sich wird das gleich verarbeitet. Das heißt, auf unserer Seite ist es so, wenn man etwas in die disseval-Dataille hinein nimmt, dass nächstes Mal, wenn wir diese Seite crawlen oder den Domain oder diese einzelne URL, je nachdem, was man angegeben hat, werden diese Links nicht gezählt. Und wenn ich diesen Eintrag aus der disseval-Dataille rausnehme und das wieder einschicke, dann das nächste Mal, wenn wir die Seiten von diesem Domain crawlen, werden die wieder normal gezählt. Das heißt, das geht eigentlich direkt. Es ist ein sehr schneller Vorgang. Es hängt aber davon ab, wann die Seiten natürlich gecrawl werden. Und das ist meistens unterschiedlich. Wenn ich einen Text schreibe, wo zum Beispiel das Keyword Blaue Socken sehr oft drin vorkommt, wird dieses Vorgehen ja als Keyword-Stuffing angesehen. Wie aber verhält sich das, wenn ich ein Shop habe mit der Kategorie Blaue Socken, dann sind dort zum Beispiel 100 bis 200 Produkte aufgelistet, welche im schlimmsten Fall alle das Keyword Blaue Socken waren, beinhalten. Ist das ein Problem oder nicht? In den meisten Fällen ist das unproblematisch. Was wir versuchen, in solchen Fällen algorithmisch zu machen, ist einfach das Ganze zu behandeln, als ob dieses Wort oder dieser Term ist auf dieser Seite drauf. Aber wir erkennen, dass es jetzt übermäßig, oft auf dieser Seite vorhanden ist, also versuchen wir das ein bisschen in einem normalen Rahmen zu behandeln. Und dass wir dem dann nicht übermäßig viel wert geben, sondern dass wir sagen, gut, dass auf dieser Seite vorhanden, auf den einzelnen Produkten auch vorhanden, vielleicht macht es unter Umständen Sinn, eine Produkteseite für diesen Term zu zeigen, vielleicht die Kategorienseite. Und von dem her würde ich mir da an für sich nicht allzu viel Sorgen machen. Wir haben recht viel Erfahrung. Gerade im e-commerce-Bereich ist das ja Gang und Gebe, dass man eine Kategorienseite hat und alle Produkte haben dieses Wort auch in der Beschreibung dabei oder im Titel dabei. Das ist halt einfach so. Und von dem her würde ich mir da nicht so viel Sorgen machen. Dann eine andere Frage. Wir werden zu wenig als 30% den Search Console erfasst. Wir übermitteln 12.000 URLs. Davon sind etwa 3.000 indexiert. Im Indexstatus stehen etwa 8.000. Und in den Search Console bei dem Produktemarkab steht nur etwa 800. Wo kommt quasi dieser Unterschied her? Ich denke, das ist schwierig zu sagen. Da müsste man wahrscheinlich die Webseite ein bisschen genauer anschauen. Aber grundsätzlich sind da verschiedene Sachen, die wahrscheinlich zusammenkommen. Einerseits bezüglich der Anzahl indexierter Seiten ist es immer eine Frage davon, welche URL effektiv indexiert wird. Das heißt, wenn ich eine Sitemap-Datei einreiche, dann werden in den Sitemap-Eigenschaften in Search Console angezeigt von diesen URLs, die eingereicht worden sind per Sitemap-Datei, welche sind eins zu eins wirklich so indexiert. Und in manchen Fällen ist es so, dass wir eine leicht andere URL indexieren, als die in der Sitemap angegeben. Und in solchen Fällen zählt das bei der Sitemap-Datei nicht. Meistens ist das ein Anzeichen, dass man mit der Canonicalization ein bisschen arbeiten kann. Das heißt, dass vielleicht intern etwas anders verlinkt ist, als in der Sitemap-Datei angegeben ist, oder REL Canonical leicht anders ist, oder dass man vielleicht mit einem Schrägstrich am Ende der URL gearbeitet hat an einem Ort und nicht am anderen Ort. Solche kleine Unterschiede machen schon für uns den Unterschied, dass die URL nicht wirklich identisch ist und dass die nicht so als indexiert gezählt wird. Das heißt, da vermute ich, ist zumindest mal dieser Unterschied zwischen diesen 3000 in der Sitemap und der 8000, etwa die in Indexierungstatus sind. Zudem kann natürlich auch sein, dass im Indexierungstatus URLs dabei sind, die gar nicht in der Sitemap-Datei erwähnt werden. Vielleicht sind das Paginierungsurals solche Sachen, die indexiert wurden, die aber nicht explizit mehr angegeben sind. Vielleicht hat man in der Sitemap-Datei die Produkte dabei und den Blog nicht. Das sind Unterschiede, die es oft gibt. All solche leichten Unterschiede kann es da geben. Grundsätzlich finde ich bei diesen Größenordnung von Zahlen, also 12000 eingereicht, 3000 im Report, könnte man das wahrscheinlich anschauen und überlegen, ob das Sinn macht, das zu vereinheitlichen oder wo diese Unterschiede genau herkommen. Man kann das ein bisschen untersuchen, indem man kleinere Sitemap-Dateien macht, um so ein bisschen eingrenzen kann und genauer sieht, bei dieser Sitemap-Datei sind gar keine indexiert worden. Also schaue ich mir die URLs von dieser Sitemap-Datei mal an. Ich vermute allerdings, dass das nicht etwas Kritisches in diesem Fall ist. Zumindest bezüglich der indexierten Seiten. Das ist eigentlich ganz normal, dass wir da leicht andere URLs manchmal wählen und nur weil wir nicht die gleiche URL genommen haben für die Indexierung, heißt nicht, dass die Website oder diese Seiten schlechter ranken. Wir zeigen einfach eine andere URL. Bezüglich vom Produktenarkup ist es dann ein bisschen schwieriger, weil Search Console sich für gerade für diese Auswertungen auf die wichtigsten Seiten der Website, wie wir sie mit einigen Algorithmen da versuchen zu erkennen. Da kann es durchaus sein, dass selbst wenn alle Seiten, die wir indexiert haben, mit Produktenarkup versehen sind, dass die Anzahl, die in diesem Bericht angezeigt wird, nicht übereinstehnt. Und ich würde da eher auf die Fehler dann achten in solchen Fällen. Und er schauen, wo sind die Fehler und wenn man diese Fehler möglichst beheben kann, dass möglichst keine Fehler vorhanden sind, dann sollte das eigentlich in Ordnung sein. Gerade wenn die Anzahl quasi gradlinig weitergeht und nicht große Schwankungen hat, dann würde ich davon ausgehen, dass wir den Produktenarkup auf allen Seiten jetzt gefunden haben. Trotz echter Bewertungen wurden bei mir die Sterne in den Suchergebnissen entfernt. Technisch ist alles okay. Unsere Konkurrenten haben trotzdem noch die Sterne. Was kann man da tun? Das kann frustrierend sein. Das verstehe ich. Grundsätzlich ist es so, dass gerade für Rich Snippets schauen wir 3 Sachen an. Einerseits, ob es technisch korrekt implementiert ist, das klingt so, als hättet ihr das gemacht. Mit dem Structured Data Testing Tool gut testen. Da arbeiten wir auch dran, dass wir da jetzt ein neueres Tool machen, weil es ein bisschen mehr Möglichkeiten auch darstellt. Andererseits muss es gemäß unseren Policies zusammenpassen. Das heißt, dass die Bewertungen wirklich für die richtigen Elemente gemacht werden. Das heißt, dass man zum Beispiel nicht eine Firmenbewertung auf jeder Seite der Website hat, sondern dass man die Firmenbewertung auf der anderen Seite zur Firma hat und auf den einzelnen Seiten Produktebewertungen quasi macht. Und drittens, was wahrscheinlich am schwierigsten ist, ist, dass die Qualität der Website insgesamt einigermaßen okay sein muss. Das heißt, wenn sie nicht sicher sind, ob die Website wirklich hoch ein qualitativ hohen Standard entspricht, dann zeigen sie eher die Rich Snippets nicht an. Man kann das einigermaßen testen, indem man eine Side-Abfrage macht und dann schaut, ob in der Side-Abfrage die Rich Snippets gezeigt werden und wenn sie dort gezeigt werden und in den normalen Suchergebnissen nicht, dann ist das ein Regelnzeichen, dass unsere Qualitätsalgorithmen nicht ganz so mit der Website überein zufrieden sind. Und da gibt es natürlich nicht irgendwie ein Mattertag, dass man das ändern kann oder dass man uns kurz anruft und sagt, ihr sollt das wieder einschalten für uns, sondern da muss man wirklich vielleicht einen Schritt zurücknehmen und die Website insgesamt mal anschauen und überlegen, wo kann ich da Hand anlegen, um das wirklich ein großes Stück weiter nach vorne bringen vom Qualitätsstandard her. Bei einem Projekt ignoriert Google zum Teil die gesetzten Canonicals und indexiert Version. Canonical ist korrekt gesehen und kommt auch nur einmalig im Code vor. Die korrekte URL wird allerdings aus der Side-Ab verlinkt während die interne Verlänkung auf die Parameterversion verweist. Kann hier ein Zusammenhang bestehen oder was könnte da passieren? Grundsätzlich ist die Wahl vom Canonical URL ein kompliziertes Thema. Das heißt wir versuchen da verschiedene Signale zu nehmen und überlegen welche dieser Signale wirklich am stärksten sind und versuchen dann den Signalen entsprechend ein Canonical auszuwählen. Das heißt, wenn wir verschiedene URLs haben, wenn wir erkennen können, dass sie alle zusammen gehören, alle die gleichen Inhalte haben, dann nehmen wir verschiedene Sachen zusammen und sagen von diesem Satz von URLs, welches ist das beste. Einerseits schauen wir den World Canonical an, wir schauen Redirect an, wir schauen die interne Verlänkung an, externe Verlänkung, wir schauen die Side-Maps Dateien an, hreflang schauen wir an, all diese Signale versuchen wir zusammenzunehmen und sagen dann aufgrund von dieser Signale vermuten wir, dass diese URL diejenige ist, die der Webmaster sehen möchte in den Suchergebnissen Das heißt, gerade wenn man ein Konflikt hat in der Art und Weise, wie man die auf die URLs verweist, wenn z.B. intern verlinkt eine Version ist und wenn der Side-Map eine andere und ein World Canonical noch da ist und vielleicht noch ein Redirect, dann ist es manchmal schwierig für uns zu erraten, welche Variante ihr wirklich wollt. Für uns ist World Canonical ein Signal, es ist nicht ein Befehl, es ist nicht so, dass wir dem immer die Signale sehen, aus dem einfachen Grund, dass viele das auch falsch setzen. Wir sehen z.B. immer häufiger, vielleicht nicht immer häufiger, aber immer noch ab und zu Fälle, wo der World Canonical immer auf die Startseite von einer Website zeigt, obwohl das vielleicht ein Produkte-Seite ist. Und gerade solche Situation müssen wir natürlich mit unseren Algorithmen auch anschauen und überlegen, nicht wirklich so, sondern vielleicht meint er ein bisschen was anderes. Das Praktische an dem Ganzen ist, dass es eigentlich keinen Einfluss hat auf das Ranking von diesen Seiten. Das heißt, wenn wir verschiedene URLs haben und wir wissen, die gehören zusammen, die sind alle im Teil vom gleichen Cluster und wir suchen eine aus, dann wird diese URL gleich gerenkt, wie wenn wir eine andere aussuchen würden. Von dem her ist es nicht so, dass es ein Ranking-Problem hat, wenn wir die falsche URL zeigen in den Suchergebnissen, sondern es ist vielleicht einfach nicht so, wie man das haben möchte. Es ist nicht schön, oder es ist nicht das, was man sich vorher vorgestellt hat. Oder wo das natürlich einen Einfluss haben kann, ist gerade mit hreflang, wenn ich verschiedene Seiten verlinke und wir wählen eine andere als Canonical aus, dann kann es sein, dass dieser hreflang Satz bricht. Da ist es vielleicht ein bisschen kritischer, dass wir wirklich den Canonical auch aussuchen, den ihr im hreflang sauber so verlinkt habt. Aber wie gesagt, in einem solchen Fall, was ich das erstes machen würde, ist mir überlegen, woher kommt dieser falsche Canonical oder der andere Canonical und was kann ich auf meiner Seite machen, dass Google gar nicht erst auf die Idee kommt, dass diese URL existiert und dass die vielleicht ein Canonical sein könnte. Die Sightlings werden normalerweise anhand der internen Linkstruktur angezeigt. Uns ist aufgefallen, dass bei einigen Suchanfragen oft die Anzahl von Produkten aus interner Navigation angezeigt wird und bei den meisten Sightlings nicht. Warum ist das so und wie können wir die Sightlings beeinflussen? Derzeit ist die Anzahl von Produkten im Anchor Text verlinkt. Ja, ich vermute, also was bei uns auf jeden Fall passiert, ist, dass wir die Anchor Text nehmen und ein bisschen mehr über diese Seite selber zu erfahren und manchmal fließt das auch in den Titel ein, den wir in den Suchergebnissen zeigen. Das kann der Titel, der Seite in den normalen Ergebnissen sein oder es kann auch der Titel in den Sightlings sein, wo wir viel weniger Platz zur Verfügung haben. Wenn die Anzahl da jeweils verlinkt ist mit dem gleichen Anchor Text, dann kann es schon sein, dass unsere Systeme das aufnehmen und sagen, diese Zahl ist irgendwie wichtig für diese Seite, also zeigen wir sie gerade in den Sightlings auch an. Manchmal sieht man das auch z.B. bei paginierten Seiten, dass da Seite 2 oder Seite 3 oder Seite 4 verlinkt wird und dass das auch in den Suchergebnissen im Titel quasi dazu kommt. Einfach weil unsere Algorithmen denken, dieser Titel Seite 2 scheint sehr wichtig zu sein für diese Seite, die wir indexiert haben. Also zeigen wir sie auch den Benutzer. Wenn ihr das aus dem Anchor Text herausnimmt, vermute ich, wird das im Laufe der Zeit verschwinden. Man kann sich vielleicht auch überlegen, ob das irgendwie praktisch sein könnte, dass so etwas sichtbar ist in den Suchergebnissen. Vielleicht, wenn man die Zahl nach vorne nimmt, dass da z.B. steht 2157 Mountainbikes, dann wäre das vielleicht auch eine Variante. Aber das ist eher, sag ich mal, euch überlassen. Schwierige ist natürlich, dass wir einerseits den Titel auf den Seiten nehmen, andererseits die interne Verlinkung, die Anchor Texte daneben und manchmal, je nachdem, wie viel Platz wir zur Verfügung haben, müssen unsere Algorithmen das ein bisschen algorithmisch anpassen und versuchen da ein Titel selber zu erstellen. Und da quasi die richtige Balance zu finden zwischen einer gut erkennbaren internen Verlinkung und etwas, was auch für die Suchmaschinen klar erkenntlich ist, das ist manchmal ein bisschen schwierig, braucht ein bisschen Übung. Eine Frage zum Thema Page Browser. Wir haben Produktergebnisseiten, z.B. Südafrika und das sind Produkte auf mehreren Seiten aufgeteilt sind. Z.B. Seite 1-5 mit Rail Next und Rail Previous. Den Canonical auf Seite 1 haben wir nach dem Hinweis, den ich hier erhalten habe entfernt, da die Inhalte, sprich die Produkte auf den Seiten unterschiedlich sind. Titel Description, H1 Einleitungstext, aber sind aber natürlich auch für die Seiten 2 die gleichen wie auf Seite 1. Dieses Vorgehen wird in unserem Analyse-Tool als Duplicate Content ausgewiesen, sprich Seite 2 von Südafrika Rundreisen soll Duplicate Content von Seite 1 sein. Kann ich das ignorieren? Ich vermute schon. Also ich weiß jetzt nicht welches Tool ihr da verwendet, aber wenn das wirklich nur blind, sag ich mal den Titel der Seite verwendet, dann ist das wahrscheinlich etwas, was ihr ignorieren könnt. Das ist natürlich immer ein bisschen so, dass wenn man solche Tools verwendet, muss man die Auswertungen, die daraus kommen, auch einigermaßen interpretieren und auch wissen, wann die Tools, die Eingaben, die man bringt, vielleicht missverstehen können oder falsch verarbeiten können und wann die Ausgaben wirklich relevant sind, wann sie weniger relevant sind. Ich vermute, das ist jetzt der Fall hier, dass das Tool Duplicate Content sonst relativ gut erkennt, aber gerade in dieser Situation erkennt, dass das irgendwie falsch und von dem her würde ich jetzt gerade in dieser Situation das durchaus so sein lassen. Ich habe 814 URLs übermittelt, aber bisher wurden laut Search Console nur 28 indexiert. Fischenzeitlich waren es schon über 50. Mit welchem Zeitraum muss ich etwa rechnen, bis alle URLs indexiert sind. Schwierig zu sagen. Die Anzahl also einerseits ist natürlich die Anzahl, die dargestellt wird, hängt davon ab, wo man jetzt nachschaut. Also wenn ich jetzt bei der Sidemaps-Anfrage schaue, dann kann das unterschiedlich sein, als wenn ich beim Indexierungstatus nachschau. Das haben wir vielleicht vorher bei einer der früheren Fragen noch angeschaut. Woher das kommen kann, also diese anderen Seiten. Andererseits ist es so, dass wir nicht alle URLs indexieren, die wir kennen. Das heißt, wenn eine Segmat-Datei eingereicht wird mit vielen URLs und wir das Gefühl haben, es lohnt sich nicht, wirklich alles von dieser Website zu indexieren, dann kann es durchaus sein, dass wir nur ein klein Teil der Website indexieren. Das hängt ein bisschen davon ab, von der Website, was wir über die Website wissen, was wir über diese Website haben. All das kann dazu führen, dass wir vielleicht weniger indexieren, als was eingereicht worden ist. Ich finde allerdings der Unterschied gerade mit bei der Größenordnung von 800 URLs, die eingereicht worden sind und nur 28 indexiert, macht das schon komischen Eindruck, weil normalerweise selbst wenn wir eine Website nicht ganz verstehen, dann ist so die Größenordnung von ein paar hundert URLs, können wir locker indexieren, bevor wir da vielleicht einen Schritt zurücknehmen und sagen, wir wissen nicht, was wir da machen sollen. Das heißt, ich vermute, dass da vielleicht eher das Problem irgendwie vorlegt, dass wir die Seiten nicht sauber crawlen können. Das könnte einerseits sein, dass vielleicht Serverfehler zurückgegeben werden, dass wir vielleicht Noindex für einige diese URLs gesehen haben. Anderseits könnte es sein, dass die Website auch einen sehr langsamen Server steht, wo wir einfach sehr langsam crawlen können. Und da kann es durchaus sein, dass wir wirklich nur ein paar Seiten am Tag crawlen, weil wir einfach das Gefühl haben, dass wir sonst den Server überlasten. Aber was das genau sein könnte, in diesem speziellen Fall ist schwierig zu sagen. Ich denke, das könnte auch eine Kombination von verschiedenen Sachen sein. Was ich da vielleicht machen würde, ist einfach mal ein Thread im Hilfeforum starten und bei den anderen mal nachfragen, ob das jemand anschauen kann und zumindest einigen von den standard technischen Problemen ausschließen kann, so dass man sich ein bisschen auf ein Teil vom Problem konzentrieren kann. Das heißt, ich würde in einem solchen Fall nicht einfach warten, bis wir mehr indexieren, sondern wirklich überlegen, 48 URLs ist schon sehr, sehr wenig. Was könnte der Grund sein für nur 28 URLs? Wie bewertet ihr extern duplikat Content? Wird bei euch irgendwie gewertet, wann der Content zum ersten Mal auf eine Domain gesichtet wurde, was passiert zum Beispiel, wenn eine andere Domain Textheile übernimmt und die original Seite ein Relan steuern und eine Weiterleitung einrichten. Ein bisschen unklar, wo die Weiterleitung hingehen soll. Wenn das die externe Website geht, dann ist das natürlich auch ein bisschen anders. Grundsätzlich versuchen wir schon zu erkennen, wo Content zum ersten Mal gefunden wurde und je nachdem versuchen wir das auch dafür zu verwenden, welche Version wir zeigen in den Suchergebnissen. Allerdings muss man da vielleicht auch sagen, dass nur weil Textheile dupliziert sind auf eine andere Website, heißt nicht, dass die Version schlechter bewertet werden soll als die Originalquelle. Manchmal ist es ja auch so, dass irgendetwas publiziert wird und jemand andere schreibt eine große Abhandlung dazu und nimmt an einzelne Zitate heraus. Und dann ist vielleicht diese größere Abhandlung über das andere Thema eigentlich relevanter für viele als die Ursprungs-Website. Das sind manchmal schwierige Situationen, wo wir dann nicht genau wissen, welche dieser Varianten sollen wir wie in den Suchergebnissen zeigen. Und das ist schon mal ohne diesen extra Zuschatz schreibt, dass vielleicht die Originalseite sich inzwischen verändert hat. Und von dem her, denke ich, gibt es dann nicht irgendwie eine einfache Antwort auf so eine Frage, aber wir versuchen da möglichst das zu machen, was wir können, um relevanten Antworten zu bringen zu diesen Ergebnissen. Wir erkennen auf jeden Fall, wenn Inhaltsstücke dupliciert sind, intern und extern und versuchen da saubere Wahl zu machen. In einer früheren Sprechschwunde haben wir über international SEO gesprochen. Trotz Beachtung der Guidelines, Sidemaps, Search Console, Landauswahl, hreflang, Auszeichnungen, URL-Struktur werden teilweise bei Google DE Inhalte eingeblendet, die eigentlich vorgesehen sind. Unsere Landesseiten sind vom Content her fast gleich. Aufgrund unseres e-Commerce Angebots benötigen wir aber verschiedene Länderversionen. Und da eine Suchanfrage was können wir da machen, um wirklich nur die deutschen Inhalte in Deutschland und die österreichischen Inhalte in Österreich anzuzeigen. Ich habe das kurz angeschaut und das Problem, was ich hier an erster Stelle sehe ist, dass wirklich die Seiten so gut wie identisch sind. Das heißt, für uns sieht die österreichische Seite fast gleich aus wie die deutsche Seite und was wir dann intern machen ist, wir falten diese Seiten zusammen und sagen, beide diese Seiten sind eigentlich gleich, wir nehmen eine und wählen die als canonical und indexieren die entsprechend so. Mit dem hreflang hilft uns was ein bisschen das andere zu halten, aber wenn es wirklich so aussieht, als ob diese Seiten gleich sind, dann kann es trotzdem sein, dass wir die zusammenklappen und so als eine Version behandeln. Das heißt, was man am ehesten machen kann in einem solchen Fall ist wirklich sicherstellen, dass die Seiten deutlich unterschiedlich sind, dass unsere Systeme gar nicht auf die Idee kommen, dass wir die zusammenklappen können. Das ist vielleicht die eine Variante, manchmal ist es weniger praktisch zu machen. Das andere, was ich machen würde in einem solchen Fall ist einfach davon ausgehen, dass Besucher auf eure Website unter Umständen vom falschen Land her kommen. Das heißt, ob sie ja von Google aus aus dem falschen Land kommen oder über Facebook oder andere Social Media Kanäle quasi auf die falsche Version der Website kommen, damit muss man einfach rechnen. Das kann einfach passieren und dass man vielleicht oben auf der Website wenn man das erkennt, per JavaScript einfach ein Balken oben einländet und sagt, es sieht so aus, als ob du aus Österreich kommst, wir haben für dich speziell die österreichische Version, willst du nicht hierhin gehen und dann kann man die Wahl vom Benutzer auch in Cookie abspeichern, so dass es nächstes Mal, wenn dieser Benutzer kommt, direkt auf die österreichische Seite weitergeleitet wird und so kann man zumindest ein bisschen steuern, dass Benutzer, die auf die falsche Version trotzdem noch auf die richtige den Weg weiterfinden. Wichtig ist einfach, dass nicht die ganze Seite ausgeblendet wird. Wichtig ist auch, dass nicht automatisch ein Redirect gemacht wird. Weil in beiden von diesen Fällen kann es dann sein, dass Googlebot diese quasi interstitial indexiert oder diesen Redirect weiterfolgt und dann am Ende kommt es so, dass wir vielleicht nur die englische Version indexiert haben, weil wir keine Inhalte für die einzelnen Sprachversion haben. Aber wenn man ein Balken oben einblendet zum Beispiel, dann ist das in der Regel kein Problem. Aber es ist auch trotzdem aus unserer Sicht ist es etwas, was wir versuchen besser zu machen und solche Beispiele sind für mich sehr praktisch, weil mit denen kann ich dann auch gezielt zum Team gehen und sagen, hey eigentlich wäre hier ja hreflang geben, das könnten wir doch unter Umständen sauber erkennen, das könnten wir doch besser machen, auch wenn die Inhalte gleich sind. Und von dem her, wenn ihr weitere Beispiele habt in dieser Art, dann bin ich sehr dankbar um diese Beispiele. Ich weiß, dass das Team ist im Mountain View in Kalifornien und in Amerika, sieht man solche Unterschiede nicht so häufig wie hier in Europa, gerade auf Deutsch, mit drei Länder, die Deutsch sprechen, passiert das ja relativ häufig und von dem her bin ich sehr dankbar um eure Beispiele, weil die mir wirklich da weiterhelfen. Bei meiner Seite ist mir aufgefallen, dass ich für den Suchbegriff Steuerberater plus Stadt auf der ersten Seite renke, jedoch mit dem Begriff Steuerberatung plus Stadt weiter abgeschlagen auf der 10. Seite stehe. Woran kann das liegen? Sind beide Begriffe nicht stark verwandt? Das kann durchaus sein, dass wir da einen Unterschied zwischen diesen Wörtern erkennen und die nicht einzueins als synonym beobachten, den Betrachten. Und das ist normalerweise etwas, was wir nicht manuell beeinflussen, sondern etwas, was wir versuchen, automatisch zu kennen. Und in den meisten Fällen können wir das relativ gut erkennen. In manchen Fällen klappt das vielleicht nicht so gut. Es kann auch sein, dass unter Umständen benutzer auch unterschiedliche Sachen suchen, wenn sie unterschiedlich so mit leicht veränderten Wörtern suchen. Von dem her ist es nicht unbedingt etwas, wo ich sagen würde, das ist ein Fehler auf unserer Seite, sondern es ist einfach so, wie unsere Algorithmen jetzt eure Seite einschätzen und die Suchanfragen, die wir sehen, einschätzen. Das kann sich natürlich schon im Laufe der Zeit verändern. Es kann aber auch sein, dass wenn ihr sagt diese beiden Suchbegriffe sind für mich sehr relevant, dass ihr die vielleicht auch selber direkt auf der Seite verwenden könnt und dass ihr so das ein bisschen beeinflussen könnt. Ich weiß jetzt nicht, ob auf Deutsch oder in Deutschland da ein Unterschied gemacht wird zwischen Steuerberater und Steuerberatung. Ob das eine vielleicht eher für Privatpersonen, das andere eher für Firmen gedacht ist. Vielleicht gibt es so subtile Unterschiede und dann macht es aus unserer Sicht vielleicht Sinn, die separat zu betrachten. Wenn es so subtile Unterschiede gibt, macht es vielleicht auch Sinn für euch das gezielt anzuschauen und zu überlegen, welches diese beiden Varianten möchte ich anpeilen und wie kann ich das am besten präsentieren auf meiner Seite, dass sie Suchmaschinen erkennen, dass entweder beide Varianten oder eines dieser beiden Varianten für mich die wichtigere ist. Wir haben eine Webseite für die relativ viele Crawling-Fehler vom Tipp nicht gefunden angezeigt werden. Aktuell etwa 10.000. In der Regel handelt es sich um Seiten, die im Verlauf der letzten Monaten gelöscht wurden und deren Aufruf jetzt ein 404-Fehler zurückgegeben wird. Wenn ich die einzigen Fehler im Detail anschaue, stelle ich fest, dass viele Fehler unter verlinkt unter interne Links von Seiten angegeben werden, die nicht existieren. Was kann man da machen? Ist das ein Problem? Vielleicht erst einmal, wenn diese Seiten nicht existieren und wenn da keine Inhalte sind, die ihr indexiert haben wolltet, dann ist das ganz okay. Könnt ihr das so lassen? Es hängt nicht davon ab, wie viel Crawling-Fehler man hat. Für uns sind Crawling-Fehler eigentlich ein Zeichen, dass die Webseite so weit gesund ist, wie man das einhält, dass Seiten, die entfernt werden 404 zurückgeben, ist eigentlich die richtige Sache, die man da machen sollte. Wenn ja, von dem her würde ich mir da gar nicht allzu große Gedanken machen über die Anzahl Crawling-Fehler, die dargestellt werden, das ist eigentlich aus unserer Sicht vollkommen okay. Das verändert das Ranking vom Rest der Webseite nicht. Für die Crawling-Fehler nachschauen, welche URLs an erster Stelle in diesem Bericht gezeigt werden, wir versuchen da eine Art Priorität darzustellen für die Crawling-Fehler, sodass man erkennen kann, welche Seiten vielleicht aus Versehen ein 404 zurückgeben. Das heißt, das sind meistens URLs, die in der Sidemap-Latei sind oder die vielleicht noch intern verlinkt sind, solche Seiten als 404 zurückgeben. Würde ich mir vielleicht überlegen, habe ich da die richtigen Seiten gelöscht oder ist das etwas, was ich noch behalten wollte oder gibt es vielleicht eine neue URL, die diese Seite ersetzt und wenn man eine neue URL hat, die diese Seite ersetzt, würde ich da einfach ein redirect einrichten für diese wichtigeren Seiten, die man gelöscht hat. Aber im Grunde genommen, wenn das 10.000 sind oder 100.000 oder eine Million, aus unserer Sicht vollkommen unproblematisch, nicht etwas, worüber man sich den Kopf zerbrechen muss, solange das wirklich auch Seiten sind, die wirklich nicht existieren sollten. Ist SEO in Zukunft relevante Content erstellen, um die Kosten sowie die Anzeigeposition zu verbessern? Puch, das war eine philosophische Frage. Ich weiß nicht, was man da am besten sagen kann. Wie verändert sich SEO? Schwierig zu sagen. Wie viel Einfluss hat Google My Business fürs Ranking? Macht es Sinn, ein Google My Business Website anzulegen? Wie gesagt, Google My Business hat eigentlich kein Einfluss für das Ranking von der Website selber. Ob man eine Google My Business Website einrichten möchte, davon ab, ob ihr das wirklich braucht oder nicht. Viele dieser Google My Business Websites sind ja einfach so Platzhalter mehr oder weniger mit der Adresse, den Öffnungsseiten, Telefonnummern, vielleicht ein paar Bilder dabei. Und wenn man gar keine andere Website hat, dann ist das eine gute Variante. Wenn man hingegen sowieso schon eine gute Website hat, dann würde ich einfach die bestehende Website weiterhin weiternehmen. Da in Chat sind noch Sachen. Frage zu schema.org Wenn die Website unter HTTPS läuft, sollte dann die Referenz auf schema.org auch mit HTTPS bestehen oder nicht. Das könnt ihr machen wie ihr wollt. Grundsätzlich ist dieser Verweis auf schema.org einfach eine Referenz. Also wie ein Art von ID oder Namen, die man angibt. Und das ist ja nicht so, dass die Webseite selber diese schema.org Website aufmacht und danach schaut, was steht da. Sondern es ist eigentlich nur ein Referenzwert, der da angegeben wird. Das heißt, man muss nicht die HTTPS Version annehmen. Wir akzeptieren beide HTTPS und HTTPS Version von diesem schema.org Namen, der da angegeben wird. Woran kann es liegen, dass Search Action nicht in den Suchmaschinen angezeigt wird, sondern in den Such-Brand-Zuchen. Search Action ist für dieses Suchfeld, was man in den Suchergebnissen sehen kann manchmal, wenn man vielleicht bei einer größeren Website nach dem Namen der Website sucht und wir können erkennen, das wahrscheinlich meint der Besucher irgendetwas innerhalb dieser Website. Wenn ich zum Beispiel YouTube schauen suche, dann kommt da so dieses Suchfeld und ich kann sagen, was für ein Video möchte ich auf YouTube schauen. Ich gehe wahrscheinlich nicht einfach auf YouTube um irgendetwas anzuschauen, sondern ich habe gezielt irgendetwas vor und da macht das Sinn. Grundsätzlich kann man mit Search Action angeben, welche Art von quasi Untersuchseite man angegeben möchte. Meistens wird das verwendet, um eine interne Suche darzustellen in den Suchergebnissen. Bei uns ist es so, dass einerseits braucht es eine gewisse Zeit bis wir den Search Action verarbeitet haben, das kann mehrere Wochen gehen, das geht nicht von einem Tag zum nächsten. Andererseits verwenden wir dieses Markup nur, wenn wir sowieso dieses Suchfeld zeigen würden. Das heißt, wenn man nach der Marke sucht oder nach der Website sucht und wir zeichnen dieses Suchfeld an, dann können wir das unter Umständen austauschen gegen eins, was mit dem Suchfeld verbunden ist. Aber es ist nicht so, dass wenn man Search Action Markup verwendet, dass automatisch dieses Suchfeld dargestellt wird. Manchmal macht das einfach nicht so wahnsinnig viel Sinn. Wenn die Website so weit überschaulich ist, wenn man mit den Side Links jeweils die Benutzer an die richtige Stelle locken können, dann muss man ja nicht noch dieses Suchfeld dazu haben, dann macht das wahrscheinlich weniger Sinn. Und von dem her würde ich dieses Markup eher dann verwenden oder einrichten, wenn ihr wirklich schon seht, Google zeigt dieses Suchfeld an in den Suchergebnissen und ich möchte Besucher dann eher auf eine bestimmte Richtung weiterleiten für mehr Information. Okay, mal schauen, ob da noch mehr Fragen bekommen sind oder gibt es vielleicht von euch irgendetwas in der Zwischenzeit noch nichts Neues gekommen. Irgendetwas sonst womit ich noch helfen kann aus eurer Sicht. Das wäre natürlich auch schön, wenn alles geantwortet ist, dann bin ich auch zufrieden. Ah, da kommt noch eine Frage. Unser Shop hat nach dem letzten Google Update leider wieder deutlich an Sichtbarkeit verloren, obwohl wir deutlich an unserem Content gearbeitet haben. Woran kann es liegen? Ist unser Domain beschädigt? Wenn ja, soll man das Risiko eingehen den Shop auf ein neuer Domain zu legen ohne 301, zweite Leitung. Ich weiß nicht, ob ich da zu groß etwas sagen kann. Wenn ich das so anschaue, sehe ich da eigentlich nichts, was da bezüglich Domains selber problematisch sein würde. Von dem her denke ich jetzt eine Weiterleitung oder ein Wechsel auf einen anderen Domainnamen würde da wahrscheinlich nicht wahnsinnig viel bringen. Was ich vielleicht machen würde ist das Ganze mit vielleicht einem kleinen Benutzerstudy anschauen und überlegen, was man insgesamt machen könnte, um die Webseite ein bisschen einen Schritt weiterzubringen. Ich sehe hier jetzt nichts Spezielles, wo ich sagen würde das oder das oder das ist ein Problem. Aber wenn ich die Webseite aufmache, sehe ich einfach sehr viele verschiedene Sachen, die da passieren, die da auftauchen sehr langer Text mit verschiedenen Wörtern, die hervorgehoben werden interne Links, die da drin sind und ich vermute, dass man das Ganze vielleicht ein bisschen vereinfachen könnte, einerseits für Besucher einfacher ist zu verstehen, wo können sie hingehen, was können sie machen, andererseits verstehen dann die Suchmaschinen das Ganze dann auch ein bisschen einfacher und verstehen dann auch ein bisschen besser was ist da jetzt gedacht was sollten Besucher machen wie können sie diese Seite verstehen, ohne dass man da irgendwie seitenweise Text lesen muss um dazu erkennen, was was da gemacht wird. Was ich jeweils gesehen habe was sehr hilfreich war für uns zumindest intern wenn wir Websites wenn wir unsere Produkte angeschaut haben ist, dass man eine kleine Menge von Personen findet, die zu diesem Thema interessiert sind, einigermaßen und dass man den dann diese Website mal vorliegt in Person und sie dann bittet vielleicht einige Schritte durchzuführen oder die vielleicht erstmal fragt grundsätzlich, was sieht man hier, wo würdest du gehen wenn du jetzt das oder das machen möchtest wie gehst du mit dieser Website um und meistens sieht man dann sehr schnell wo sich Leute ein bisschen verheddern wo sie dann nicht genau wissen wie sie weitergehen sollen oder welche Teile der Website die vielleicht ganz überspringen und sagen, ich schau mir jetzt nur die Bilder an und gehe dann so entsprechend weiter und so kann man dann ein bisschen eingrenzen, ein bisschen genauer sehen welche Teile der Website sollte ich mir neu überlegen neu überdenken welche Teile der Website funktionieren vielleicht sehr gut und dass man so dann Schritt für Schritt ein bisschen einen kleinen Weg nach vorne findet aber grundsätzlich würde ich auf jeden Fall jetzt hier nicht raten um einen neuen Domainnamen zu nehmen und dann zu hoffen dass das alles dann besser wird wenn ich genau das gleich auf einen neuen Domainnamen nehme ich denke da hat man mehr Ärger mit den ganzen Fluktuationen erst einmal bis sich das einigermaßen wieder gleich einpendelt und dann hat man trotzdem noch die gleiche Website und hat vielleicht die gleichen Probleme wieder einfach auf einem neuen Domainnamen und von dem her würde ich da eher Richtung User Study mit Personen die zu diesem Thema einigermaßen interessiert sind die jetzt nicht eure Website schon auswendig kennen, das Ganze auch mal anzuschauen. Okay, dann noch 2 Fragen in the chat zur Frage zum schema.org würde es Sinn machen alle Produktdetails mit schema Produktmarkup in einer gesonderten Webseite zusammenzufassen Was ist jetzt nicht mehr welche Frage das war, wahrscheinlich wegen der anzahlindexierten Seiten und so Ja, ich denke wenn man jetzt kleinere Seitenabstarteien erstellt die vielleicht passend zu einem bestimmten Thema sind wenn man jetzt irgendwie so logische Gruppen in einer Website herausholen kann und sagen kann, das sind jetzt alle Kategorien Seiten, das sind alle Details Seiten, das sind alle Nachrichten Seiten die ich habe, das sind vielleicht alle allgemeine Informationsseiten die ich habe, wenn man das getrennt und Zeitmaps aufnimmt sieht man dann auch ein bisschen besser wo in meiner Website ist dieses Problem mit der URLs die angegeben sind, bezüglich der URLs die wirklich so indexiert worden sind und dann vielleicht bei den Kategorien Seiten funktioniert alles bestens, bei den Details Seiten ist die Anteilindexiert sehr klein also ist vielleicht da eher ein Problem mit der URL die angegeben worden ist da und man kann das beliebig klein einteilen man kann auch einen großen Zeitmap Datei behalten und dann trotzdem noch diese Kleineren dazunehmen um das Ganze ein bisschen genauer anzuschauen für uns sind Zeitmaps ein technisches Hilfsmittel um diese neuen und veränderten Seiten zu erkennen und von dem her könnt ihr da durchaus ein bisschen experimentieren und schauen wie kann ich das aufteilen so dass ich die Informationen herausholen kann die für mich relevant sind okay, ich denke da haben wir soweit alles durch wenn noch weitere Fragen kommen richtig auf jeden Fall den nächsten Hangouts noch ein oder ihr könnt natürlich auch in den anderen oder im englischen Hangout morgen früh nachfragen alles euch überlassen ansonsten wünsche ich euch erstmal einen schönen Nachmittag und hoffentlich sehen wir uns in einem der nächsten Hangouts wieder tschüss allerseits tschüss