 Okay, willkommen beim heutigen Webmaster Central Sprechstunden Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trans Analyst hier bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster Hangouts. Zusammen mit einigen, manchmal wenigen Webmastern aus der deutschsprachigen Welt. Wie immer sind da schon einige Fragen eingereicht worden, aber falls dir Stefan oder dein Kollegen irgendwas auf dem Herzen liegt, könnt ihr gerne loslegen. Ja, danke, wir haben nur eine Frage, die haben wir schriftlich gestellt, das dementsprechend. Ja, okay, super. Dann schauen wir mal, dass wir da durchkommen. Schauen wir mal die Fragen an. Eine Frage ist ein bisschen Webseiten spezifisch. Unsere Webseite hat einen heftigen Absturzer Ranking seit Mitte April gesehen. Wir haben mittlerweile bei blockierender Werbung extrem aufgeräumt. Wie lang sollte es dauern bis solche Maßnahmen greifen? Wir haben auch beobachtet, dass häufiger falsche Bilder aus den Artikeln in diversen News-Ergebnissen landen. Kannst du da uns allgemeine Hinweise geben, was man machen könnte? Mit den falschen Bildern ist das vielleicht eine Sache, je nachdem, wo die Bilder auf den Seiten platziert sind, kann es natürlich sein, dass gerade von der News-Seite her Bilder vielleicht aus dem Sidebar genommen werden, statt aus dem Hauptteil vom Artikeln. Da würde ich einfach mal schauen, dass die Bilder wirklich auch am richtigen Ort sind, dass die sauber erkennbar sind. Da würde ich gegebenenfalls auch, gerade wenn es Google News spezifisch ist, im News-Publisher-Forum nachfragen, ob da jemand ein bisschen das anschauen kann. Wegen allgemeinen Absturz bei Rankings ist es natürlich schwer zu sagen. Das gibt verschiedene Updates, die wir jeweils machen. Wir machen ständig Updates in der Suche. Zum großen Teil versuchen wir einfach, um relevantere, gute Inhalte jeweils in den Suche-Ergebnissen zu bringen. Da kann es natürlich sein, dass manche Webseites dann ein bisschen höher platziert werden, andere vielleicht ein bisschen tiefer platziert werden. Das ist schwierig zu sagen. Eine Sache, die mir gerade aufgefallen ist, weil wir dann auch wegen blockierender Werbung etwas gesagt werden, ist, wenn ich diese Seite, die verlinkt ist, aufmache, habe ich eigentlich ziemlich schnell die ganze Seite ersetzt durch eine Art Interstitial mit Empfehlungen für andere Leser, was im Prinzip eigentlich nur Werbung ist. Und wenn natürlich die Inhalte so blockiert werden, dann könnte ich mir schon vorstellen, dass Benutzer im Laufe der Zeit sagen, gut, ich finde jetzt doch nicht das, was ich gesucht habe auf dieser Website. Ich weiß nicht, ob das etwas ist, was ich weiter empfehlen würde. Das heißt, da würde ich vielleicht ohne, ohne tief in die Website hineinzuschauen, würde ich vielleicht schauen, ob man da wirklich mal einen Schritt weiter bezüglich allgemeiner Qualität der Website gehen kann, dass man da wirklich nicht nur so leichte Optimierungen macht, sondern vielleicht insgesamt mal überlegt, was möchte ich wirklich anbieten? Was ist der Mehrwert meiner Website? Wie kann ich das den Benutzern zeigen, ohne dass ich sie gleich wieder mit Werbung weiterschicke? Aber das sind natürlich nicht so einfache Sachen und das ist dann nicht einfach eine Frage von einem Mattertag mehr oder weniger. Wir haben bedenken, wenn wir ein Product Carousel Slider auf der Homepage mit sehr vielen, fast 1000 Links von Kunden, die dafür bezahlen, Produkten implementieren, dass die Linkkraft vor allem auf die Produktzeiten weitergegeben wird und die gesamte Website geschwächt wird. Was kann man da empfehlen, soll man für Crawler die Links nicht zichtbar machen oder mit No-Follow arbeiten? Das ist schwierig zu sagen. Was natürlich jeweils ist, wenn man mit einem Slider oder ein Carousel oder allgemein mit einem größeren Menu arbeitet, dann sind das jeweils Links, die innerhalb der Website weiter gereicht werden und dann nehmen wir diese Links dann auch, um ein bisschen den Kontext der einzelnen Seiten besser zu verstehen. Einerseits wird natürlich auch PageRank und die Signale so jeweils weiter gereicht. Zum großen Teil ist das ja auch okay, wenn das ein bisschen breit gefächert verteilt wird. Andererseits versuchen wir aber auch den Kontext zu erkennen. Und wenn in einem extremen Fall das so ist, dass jede Seite der Website mit allen anderen Seiten der Website verknüpft ist, dann ist das manchmal schwierig für uns zu erkennen, wo sind quasi die Sammelpunkte innerhalb der Website, welche Seiten sind wichtig, dass wir die oft crawlen und indexieren, damit wir Veränderungen rechtzeitig feststellen können und wie können wir Benutzer quasi zu den richtigen Orten weiterleiten durch die Suche. Das heißt, was ich jetzt in konkreten machen würde in einem solchen Fall ist vielleicht nicht gerade mit 1000 Links anfangen, solche Sachen zu implementieren, sondern da Schritt für Schritt angehen. Und was sich wahrscheinlich auch lohnen würde, ist, dass man damit abtesting das Ganze einfach mal ausprobiert und sagt, gut, ich mache jetzt eine Variante ohne Slider, vielleicht eine Kategorie innerhalb meiner Website, eine Kategorie mit einem mittleren Slider, mittleren Carousel Setup, eine Kategorie mit einem größerem Setup und dass man dann einfach allgemein sieht, wie reagieren Benutzer auf diese Funktionalität, wie reagiert die Suche, das Crawling, das Indexing auf diese Verlinkung zwischen den Seiten und dass man dann so ein bisschen eine bessere Basis hat, um die richtige Lösung zu finden. Dass man dann so auch vielleicht Schritt für Schritt sich an etwas heranwagt, was von der Anzahl her für Benutzer und für Suchmaschinen soweit Sinn macht. Sollte man PageSpeed Insights oder Test My Side Tool benutzen, um die Geschwindigkeit, Optimierungsgrad zu messen, man kann beide benutzen. Das heißt im Moment, so wie ich das verstanden habe, verwendet Test My Side die PageSpeed Insights API. Das heißt, es sollten eigentlich die gleichen Werte herausgegeben werden. Die sind natürlich ein bisschen anders verpackt von den einzelnen Tools, weil sie auch ein bisschen für unterschiedliche Personen gemacht worden sind. Es gibt aber auch andere Speed Tools, die man verwenden kann. Und ich denke, gerade als Entwickler lohnt es sich, diese Tools mal auszuprobieren und festzustellen, welche Tools für einen die relevantesten Signale quasi zurückgehen. Weil die Tools testen oft verschiedene Aspekte von der Geschwindigkeit und die können ja nicht wirklich eins zu eins messen, was ein normaler Benutzer sehen würde. Und so findet man vielleicht mit einem Tool Möglichkeiten, wie man Server-Satix besser machen kann. Anderen Tools finden man vielleicht Sachen, die man in JavaScript oder CSS besser machen kann. Und so kann man insgesamt die Webseite an Geschwindigkeitsmäßigkeiten ein bisschen vorantreiben. Wichtig ist vielleicht auch, dass wir für die Google Suche, wir verwenden da weder noch diese Tools im Moment, sondern wir haben da unsere eigenen Messmöglichkeiten, um die Geschwindigkeit festzustellen. Und im Moment unterscheiden wir eher zwischen sehr, sehr langsamen Seiten und sehr, sehr schnellen Seiten. Das heißt, bezüglich SEO macht es wenig, wenig aus, ob jetzt eine Seite in, sag ich mal, 1000 Millisekunden lädt oder 1200 Millisekunden. SEO-mäßig ist das für uns im Moment gleichwertig. Für Benutzer kann es aber einen sehr großen Unterschied haben. Und dementsprechend würde ich da wirklich für diese Tools eher auf die Usability achten, auf das, was Benutzer effektiv sehen und das dann jeweils verwenden für die Optimierung und dann überlegen, ja, wie kann ich die Geschwindigkeit meiner Webseite so verschnellern, dass Benutzer vielleicht länger auf der Webseite bleiben, mehr anschauen, dass sie dann eher auch etwas kaufen, eher vielleicht etwas ausfüllen auf der Webseite. Einfach, weil die Webseite so schnell ist, dass man eher ein bisschen herumklicken kann und Sachen ausprobieren kann. Und indirekt hat man natürlich dann schon auch ein SEO-Effekt, in dem das Benutzer gute, schnelle Websites dann auch weiter empfehlen und weitere Benutzer. Und das können wir dann jeweils schon sehen durch, durch Links zum Beispiel. Bei einer Restaurant-Bewertung-Seite wird eine Art Widget mit Restaurant-Bewertungen erstellt, sodass die Restaurants diese Widgets mit deren Noten auf die eigenen Websites einbinden können. Diese Widgets werden aber mit einem Link auf die Bewertung-Seite versehen, sodass die User dort den vollständigen Berecht über das jeweilige Restaurant lesen kann. Sollen die Links no-follow sein oder nicht? Ich würde allgemein Widget-Links eher auf no-follow empfehlen, einfach, dass man da wirklich auf der sauberen Seite ist. Ich könnte mir vorstellen, dass gerade in einer solchen Funkt-Situation, wo wirklich auch von der Funktionalität her eine Verknüpfung ist mit den beiden Websites, könnte man unter Umständen auch sagen, das sind normale Links zwischen diesen beiden Seiten. Aber wenn man das gerade als Widget in größeren Rahmen verteilen möchte, dann würde ich schon eher auf no-follow empfehlen. Einfach damit wirklich auch klar ist, dass diese Websites unabhängig voneinander funktionieren. Okay, jetzt eine lange komplizierte Frage von Pascal. Laut diesem Hilfercenter-Artikel, dass der Artikel ist über relnext und relprevious, bezüglich die Parameter und URLs, die angegeben werden für relnext und relprevious. Das ist quasi die Frage bezüglich der Session-IDs und im Hilfercenter-Artikel steht, dass man die Session-IDs beidehalten sollte, wenn man jetzt eine relnext und relprevious Verknüpfung macht. Stimmt das noch oder stimmt das nicht? Ich denke, im Grunde genommen würde ich eher empfehlen, wenn das irgendwie möglich ist, nicht mit Session-IDs in der URL zu arbeiten, weil das verursacht einfach allgemein relativ, manchmal macht das Crawling viel, viel schwieriger, weil wir sehen dann jedes Mal, wenn wir diese Seite aufrufen, sehen wir andere Links mit anderen Session-IDs und müssen dann erst mal wieder uns überlegen, ja, halt die Session-ID-Parameter können wir ignorieren, also müssen wir das anders crawl, müssen wir das vielleicht anders indexieren, da müssen wir vielleicht mit dem rel canonical auch schauen, ob jetzt da ein Session-ID dabei ist oder nicht oder ob wir das rausnehmen können. Mit hreflang Verknüpfungen, mit mobile Verknüpfungen sind dann die Parameter noch dabei. Das heißt, all diese Links innerhalb der Website, gerade die Links, die nicht direkt sichtbar sind, also zum Beispiel hreflang oder die mobile oder die arm Verknüpfungen, die können unter Umständen auch ein Session-ID dabei haben, das macht alles einfach viel komplizierter. Das heißt, wenn es irgendwie möglich ist, dass man ohne Session-ID arbeitet, das wäre mal meine Empfehlung. Wenn man doch mit Session-ID arbeiten muss, dann ist es aus unserer Sicht einfach wichtig, dass man entweder zum canonical verlinkt zwischen den News in Rel Next und Rel Previous. Das heißt, wenn ihr selber feststellen könnt, Session-ID ist irrelevant hier, dass ihr das gerade wegleist, also das könntet ihr zum Beispiel machen oder dass ihr zumindest die gleichen Session-IDs weiterverwendet, sodass wenn wir die Seite mit der alten Session-ID aufrufen, das dann jeweils auch der Link mit der gleichen Session-ID da ist, dass wir nicht jedes Mal, wenn wir Rel Next, Rel Previous verfolgen, dass wir da immer wieder neue URLs sehen. Das wären da an und für sich meine Empfehlungen. Ich müsste diesen Artikel dann vielleicht nochmal genauer anschauen, dass wir da vielleicht mit unserem Techwriter das genauer durchgehen und überlegen, wie könnte man das so vereinfachen, dass es wirklich auch einfacher verständlich ist, nicht, dass man sich da zu fest verwirrt. Im Grunde genommen ist Rel Next und Rel Previous ein relativ kleines Signal auf unserer Seite. Also ist es jetzt nicht etwas, wo ich mir den Kopf zerbrechen würde, wenn das nicht hundertprozentig korrekt ist, aber wenn man da schon beeinflachen kann auf der Server-Seite und mit den Canonicals verlinken kann oder wenn man ganz mit Session-IDs das rausnehmen kann, dass man zum Beispiel in Session-ID einfach im Cookie speichert. Das wäre natürlich noch eine optimalere Variante. Dann kommt dann noch eine Frage zu Agentur-Meldungen bei Nachrichten Websites von Google-Wetemfohlen, die es auf No Index zu setzen. Allerdings ranken diese oft gut und generieren organischen Traffic. Kann eine Seite als Ganzes wegen indexierten Agentur-Meldungen abgestraft werden? Ich denke, das ist an und für sich euch überlassen. Ich weiß nicht genau, wo diese Empfehlung bezüglich No Index herkommt, aber im Grunde genommen ist es eher das Problem, dass wenn ihr eine Agentur-Meldung für eure Website rausgebt, die dann auch verschiedenen anderen Nachrichten Websites veröffentlicht wird, dann konkurrieren Sie sich natürlich diese Meldungen in der Suche. Und dann kann sein, dass ein Besucher eure Seite findet und die Meldung auf eurer Website findet. Vielleicht findet Benutzer dann auch eine andere Nachrichten Website mit dieser gleichen Meldung. Und das ist dann eher einfach die Frage quasi, wenn das für euch okay ist, wenn Benutzer über andere Nachrichten-Seiten zu eurer Website kommen, dann könnt ihr das so machen. Es ist nicht unbedingt etwas, wo ich sagen würde, es gibt dann ein manueller Maßnahme vom Web-Spam-Team, weil ihr Agentur-Meldungen macht. Agentur-Meldungen sind ja zum großen Teil, einfach im Teil, davon wird man jetzt Neuerungen veröffentlicht auf einer Website. Bezüglich einer Einladung zum Hangout, es müsste der Link direkt in der Google Plus, in Google Plus dabei sein. Wobei der Link jeweils so umgeschrieben wird. Bezüglich, es sieht dann so aus, Accounts.Google.com statt direkt den Namen vom Hangout. Was ist die Empfehlung bei Schema-Auszeichnungen für the same as? Sollten hier nur Social-Media-Kanäle rein oder können auch andere Websites oder Portale wie etwa Booking.com hinterlegt werden? Ja, das könnt ihr durchaus machen. Wir verwenden meines Wissens das nur für die Social-Media-Profiles im Moment, aber wenn ihr das so verknüpfen wollt, könnt ihr das machen. Ich weiß, es sind diverse Gespräche intern und mit anderen extern auch bezüglich gerade dieser same as Verknüpfung, weil das wäre ja vielleicht praktisch, dass man da allgemein Seiten so verknüpfen kann. Aber auf jeden Fall ist es so, dass wenn ihr weitere Websites dahinein nehmt, dann verursacht das keine Probleme. Wenn ich versuche, in Google Analytics Search Console zuzugreifen, wird die Weiterleitung keine Website angezeigt. Wie kann ich Search Console mit Google Analytics verknüpfen? Schwierig zu sagen. Ich weiß nicht genau, wo du da stecken bleibst. Was ich da vielleicht machen würde, ist im Hilferforum mal nachfragen und vielleicht auch die Screenshots, so wie du da siehst, dort posten, damit jemand dir vielleicht ein Tipp geben kann, wo man das verknüpfen kann bezüglich oder falls etwas auf unserer Seite kaputt ist, damit man das auch entsprechend im Team weiterleiten kann und das dort verbessern kann. Vielleicht ist auch einfach eine Frage, dass man das irgendwie klarer machen kann, wie man davor gehen muss. Wenn ich in einem Unterverzeichnis eine Domain, eine independent CMS System habe, muss dann die Robots Text für diese CMS trotzdem im Root der Domain sitzen. Ja, wir lesen die Robots Text Datei nur im Root vom Hostname. Das heißt, das kann auch ein Subdomain sein, aber dort suchen wir die Robots Text Datei. Das heißt, wir schauen nicht in Unterverzeichnissen nach einer Robots Text Datei, sondern wirklich nur im Root Verzeichnis für das Domain oder für diesen Subdomain. Zwei Fragen zur Verlinkung. Wir haben auf einem Projekt alle Unterseiten am Seitenende mit fünf für sieben internen Links versehen, für weiterführende Infos, verwandte Themen etc. Wie werkt sich das auf, den Index aus, da diese Linkstruktur projektweit nun natürlich eine ganz andere ist. Das kann ganz okay sein. Das ist eigentlich normal. Wir sehen solche Querverlinkungen sehen wir eigentlich auf fast jeder Website und in diesem Fall sieht es ja auch so aus, dass diese Querverbindung seitenspezifisch ist. Das heißt, der weiterführende Information sind vielleicht passend zu diesem Produkt, dass man vielleicht verwandte Produkte jeweils verlinkt. Das ist, finde ich, eine tolle Sache. Das macht das Crawling viel einfacher, weil wir können an einem Produkt anfangen und können dann relativ gut dem Rest der Website durch das Crawling abdecken, ohne dass wir einen Kontext verlust haben, sondern dass wir trotzdem sehen, diese Seiten sind miteinander irgendwie verbunden, verknüpft und dass wir das so entsprechend weiterverfolgen können. Zweite Teil von der Frage ist, traditionell haben wir alle externen Links of No Follow. Ich würde das gerne ändern und alle auf Follow setzen, da wir ausschließlich primär geblinken. Schadet das oder nützt das eher. Aus unserer Sicht ist das vollkommen euch überlassen. Das ist nicht so, dass wir die Website, die diese Links hat, irgendwie besser oder schlechter sehen würden, wenn die Links mit Follow versehen sind. Wenn das natürliche Links sind, die zu externen Websites führen, ist das total okay. Wenn das hingegen, sag ich mal Werbelinks sind, bezahlte Links oder von User Generated Content Links sind, die ihr nicht genau überprüft habt, dann würde ich da vielleicht eher auf No Follow setzen. Aber wenn das wirklich normale Links sind, auf andere Seiten, die ihr aus Referenz sieht, finde ich das eine tolle Sache. Würde ich die einfach mit, also ohne No Follow versehen, so verlinken. Wir würden gerne Remarketing-Listen mit E-Mail-Adressen in Adwords anlegen. Gibt es nur die Möglichkeit, die Listen regelmäßig manuell hochzuladen? Ich habe leider keine Informationen zu Adwords, da kann ich leider nicht weiterhelfen. Da würde ich entweder im Adwords-Forum nachfragen oder soweit ich weiß, gibt es auch eine Möglichkeit, Adwords Support direkt zu kontaktieren und die dann auch in Personen quasi mal zu fragen. Wir überlegen, ob wir in unseren International Shop die Lieferregion automatisch per GOIP einstellen lassen sollen, so quasi die Preise und Versandkosten automatisch anzupassen. Ist das ein Cloking-Problem oder wie kann man das am besten machen? Was da schwierig ist, aus unserer Sicht ist das Google-Bord in der Regel aus Amerika crawled. Das heißt, wir sehen an und für sich die Inhalte, wie das ein Benutzer aus Amerika sehen würde. Vielleicht ist das aus eurer Sicht okay, vielleicht sagt ja gut, Benutzer in Amerika können sehen, was sie wollen. Wir zeigen einfach die normalen Preise an. Wenn ihr hingegen dann vielleicht mal die Preise alle auf US-Dollar wechselt und die Versandkosten auf US-Dollar wechselt automatisch, dann wird es so sein, dass Google-Bord nur die US-Dollar-Preise sieht und das sind dann entsprechend dann auch die Preise, die vielleicht im Rich-Snipot gezeigt werden, die allgemein im Snipot oder im Titel der Seite gezeigt werden und das wäre vielleicht nicht so optimal, weil Benutzer dann denken würden, ja das sind nur Preise in US-Dollar, ich suche nach einer lokalen Website lieber. Das heißt, was ich da eher empfehlen würde, ist, dass man nicht die Preise und die Inhalte automatisch anpasst, sondern dass man vielleicht ein Banner oben zeigt und sagt, du befindest dich momentan auf der deutschen Website, die Website für die Schweiz ist hier und dass man so dem Benutzer leicht zur richtigen Version weiter leitet, ohne dass die Benutzer gezwungen werden, zur anderen Version zu gehen. Und so kann dann Google-Bord trotzdem all diese verschiedenen Länder-Versionen crawlen und indexieren, sieht jeweils die Preise, die Beschreibungen, die Lieferkosten, die Adressen, was man halt unterschiedlich hat, in der jeweiligen Landesvariante und kann die dann auch separat indexieren und separat in den Suchergebnissen zeigen und entsprechend auch mit den richtigen Titels und Snippets darstellen. Search Console zeigt, dass wir mit unserem Markennamen und der zugehörigen Homepage im Schnitt auf Rang 2.2 liegen. Da wir eine relativ starke Marke sind, würden wir gerne wissen, wer damit uns in Konkurrenz steht. Vielleicht ja wir selbst. Ja, könnte sein. Ich würde für solche Sachen gibt es einerseits ein Hilfesenter-Artikel, welcher ein bisschen eingeht, auf wie das Ranking für Search Console zusammengestellt wird, welche Elemente dazu zählen. Manchmal ist es ja so, dass vielleicht noch ein lokales Ergebnis oben drüber ist oder ein featured snippet, so etwas, das würde jeweils auch dazu zählen. Was man auch machen kann, ist mit den Filter in Search Analytics ein bisschen genauer feststellen, wo genau diese Zahl herkommt. Bei welcher Suchvariante taucht das wirklich so auf? Das heißt nicht nur nach der Suchanfrage, sondern vielleicht nach dem Land ein Filter einsetzen oder nach der Art von Sucher auf Mobile oder Desktop oder Bilder oder Videos und solche Sachen. Und dass man dann so möglichst genau das nachstellen kann, dann kann man das auch ausprobieren in der normalen Suche und dann sieht man auch ein bisschen genauer, bei dieser Variante vielleicht in diesem Land gibt es eine lokale Website, die die gleichen Produkte anbietet und die Ranking vielleicht an erster Stelle. Aber dass man allgemein mit diesen Filter ein bisschen einfach so ein Fine Tuning macht und sich überlegt, genau bei welcher Suchvariante ist das effektiv ein Problem oder ist das vielleicht gar kein Problem und dass man sich dann so ein bisschen überlegen kann, muss ich etwas machen oder ist das eigentlich okay für mich so? Was hältst du von Snackable Content in der nachfolgenden Form? Wenn beispielsweise jemand die Kaloriendaten zu Bananen sucht, muss ich ihm ja keine Liste von allen Offsorten bieten, sondern könnte einfach eine Unterseite mit Kaloriendaten zu Bananen liefern. Damit bekommt der User genau das, was er sucht oder muss ich sage mal tausend Wörter Text zu den Kalorien in Bananen schreiben. Aus meiner Sicht ist das eigentlich euch überlassen, wie ihr das machen wollt. Wenn ihr natürlich wenig Informationen auf einer Seite habt, dann kann es sein, dass Benutzer weitergehen und woanders für mehr Informationen suchen. Wenn ihr einfach irgendwie Keyword-Stuffing macht auf diesen Seiten und möglichst überall tausend Wörter Text dazu nehmt, dann ist das vielleicht auch verwehren für den Benutzer. Das heißt, ihr müsst da überlegen, welche Variante funktioniert am besten für unsere Benutzer. Welche Variante, wo macht es vielleicht am meisten auch Sinn, dass man verschiedene Elemente zusammen nimmt auf eine Seite, dass man nicht einfach einzelne Seiten hat, wo dann steht Bananen, so viel Kalorien pro 100 Gramm, sondern dass man sich überlegt, vielleicht kann ich verschiedene Obst-Sorten vergleichen oder zusammen auf eine Liste nehmen oder vielleicht gibt es andere Aspekte von Bananen jetzt in diesem Fall, die interessant sein könnten für jemanden, der nach diesen Kaloriendaten sucht, so dass ihr nicht einfach nur zu dünne Seiten erstellt und auch nicht seitdem künstlich quasi aufbläst, sondern einfach eine relevante Seite bietet, die für die Benutzer wirklich auch interessant ist, die genug Informationen hat, die von sich auch selber stehen kann und relevant sein kann für die Suche in allgemein. Aber ich würde da jetzt nicht nach künstlichen Werten suchen und sagen, dass wir mindestens 1000 Wörter haben oder mindestens sieben weitere Attribute dabei sein, sondern das müsst ihr vielleicht mit AB-Testing mit den Benutzern auch mal anschauen und überlegen, was passt in meinem konkreten Fall und das muss da nicht das gleiche sein, was andere mit vielleicht anderen Produkten machen. Vor einigen Monaten hat mir die Problematik angesprochen, dass kleine Websites und Nischenportale in den schlissen Arktzahlen zur organischen Suche fast nicht mehr berücksichtigt werden und nur noch große Portale. Das ging dann eine Weile gut und jetzt ist seit Ende Mai wieder alles beim Alten. Das heißt, die großen Portale sind quasi wieder mehr sichtbar und wir sind jetzt weniger sichtbar. Und weitere Informationen da sind in Search Console sind keine Fehlermeldungen. Die Seiten entsprechend im Google Richtlinien verfügen über HTTPS sind Mobile Friendly und AMP. Ja, es ist schwierig zu sagen in solchen Fällen, was einfach wirklich relevant ist in vielen Situationen ist, dass wenn wir die Qualität einer Website insgesamt anschauen, dann ist es oft nicht so, dass wir die technischen Attribute von einer Website anschauen, sondern dass wir wirklich die Website als Ganzes anschauen und unsere Algorithmen überlegen sich dann ja gerade bei neuen Informationen, wie sollen wir das einstufen? Und das sind dann manchmal Sachen, die lassen sich nicht 1 zu 1 in technische Merkmale zurückverfolgen, so dass man sagen kann, ah, das HTTPS, also ist diese Website definitiv eine höhere Qualität. Wir verwenden viele von diesen Faktoren schon als Ranking Faktor, aber das sind dann eher kleinere Faktoren und das verändert dann nicht das große Bild. Das heißt, wenn ich jetzt zum Beispiel AMP auf meiner Website einsetze, dann ist sie nicht automatisch 2, 3 Stellen höher in den Suchergebnissen, sondern wie verstehen wir einfach diese Verknüpfung und können Benutzer dann über die AMP-Seiten zur Website schicken und da ist es vielleicht ein bisschen schneller und dann bleiben Benutzer vielleicht auch ein bisschen länger. Aber konkret habe ich da eigentlich nichts, wo ich hinweisen könnte und sagen könnte, das müsst ihr genauso machen, sondern das ist wirklich einfach eine Frage von der allgemeinen Qualität einer Website, die sich nicht so 1 zu 1 in Zahlen ausdrücken lässt. Aber ich kann dein Feedback gerne mal mit dem Team noch mal besprechen. Vielleicht sehen Sie da weitere Varianten, die man auf unserer Seite optimieren können. Vielleicht sagen Sie mir auch, dass da etwas Technisches auf Eurer Seite nicht ganz optimal ist, dass worauf wir hinweisen könnten. Es klingt allerdings so, als ob wir die technischen Sachen relativ gut im Griff haben. Wir haben unter anderem Videos mit Metadata nach schema.org strukturiert und alle notwendigen required Felder angegeben. Auch für Thumbnail URL. Das Testtool zeigt keinelei Fehler an, dennoch wird das Thumbnail nicht in Suchergebnissen angezeigt. Kann es einer nicht vorhanden Datei Endungen der URL liegen? Ja, kann sein. Das heißt gerade für Thumbnails und oft für Bilder insgesamt bei Structured Data ist es so, dass wir verschiedene Tests haben, um festzustellen, ob diese angegebenen URLs effektiv geeignet sind als Bilder. Und bei einigen Formaten ist es so, dass wir gewisse Dateiformate erwarten. Bei anderen ist das eher offen. Wenn wir aber gewisse Dateiformate erwarten, dann ist bei uns auch oft ein Test dabei, ob jetzt die richtige Datei Endung dabei ist, damit wir dem einigermaßen optimal ein bisschen das anschauen können, ohne dass wir wirklich alle URLs anschauen müssen. Und wenn gar keine Datei Endung dabei ist, dann könnte ich mir vorstellen, dass das unsere Tools oder unsere internen Tests ein bisschen verwirrt. Das heißt, ich würde gerade in einem solchen Fall, würde ich das mal ausprobieren mit der richtigen Datei Endung und dann über Search Console mit der Submit to Index Funktion, das auch mal einreichen lassen. Normalerweise sind die anderen Attribute weniger wichtig, aber wichtig ist für uns vor allem, dass wir erkennen können, dass das Video vorhanden ist auf der Seite. Das können wir relativ gut mit das schema.org markup machen. Wichtig ist auch, dass für uns klar ist, das Video ist ein Hauptteil dieser Seite. Das heißt, es ist nicht einfach ein kleines Video in der Seite oder im Futter, irgendetwas, was zufälligerweise noch verlinkt ist dort, sondern wirklich ein Teil von den Hauptinhalten der Seite und dass wir die einzelnen URLs, die zu diesem Video gehören, sauber extraieren können. Das sind, sag ich mal, die Embed-Urall, die Content-Urall und natürlich auch die Thumbnail-Urall. Wir betreiben in einigen europäischen Ländern eine Metasuchmaschine für Jobs und hätten da zwei Fragen. Wir stellen fest, dass einige URLs nicht korrekt zugeordnet werden, obwohl es die passenden URLs für die jeweiligen Suchbegriffe gibt. Zum Beispiel eine Suche nach Büro Jobs zeigt Büro Berlin oder wenn man Büro Jobs Hamburg sucht, kommt Büro Kauf Frau Hamburg. Wie könnte man das verbessern? Im Grunde genommen ist das nicht unbedingt etwas, wo wir nur auf die URL schauen und sie versuchen zu überlegen, welche URL ist wirklich die genau passendste, sondern wir versuchen diese Seiten insgesamt untereinander abzuwägen und da kann es durchaus sein, dass wenn man sehr viel verschiedene Seiten hat, die sehr ähnlich sind, dass unsere Algorithmen sich vielleicht einzeln Seiten raussuchen und sagen, für diesen allgemeinen Suchbegriff finden wir diese Seite fast am passendsten und vielleicht ist es dann nicht gerade die, die ihr haben möchtet. Was ich da empfehlen würde, ist, dass man wirklich schaut, dass die interne Verlenkung sehr sauber ist, dass man nicht überflüssige URLs verwendet innerhalb der Website, sondern dass wir da wirklich ganz klar und sauber diese Seiten crawlen und indexieren können, ohne dass Googlebots sich da in wilden Jungle von der Website irgendwie vergraben kann. Das wäre da mein erster Vorschlag. Was man auch machen könnte, wenn man sieht, dass Googlebot wirklich, sag ich mal, zu spezifische Varianten von allgemeineren Seiten nimmt, ist es, wenn man sich überlegt, macht es vielleicht Sinn, diese Seiten zusammenzuklappen oder macht es Sinn, mit dem REL canonical zu arbeiten, dass man sagt, für diese sehr spezifische Variante ist eigentlich eher die allgemeine Variante genauso gültig und dann machen wir den canonical von dieser sehr spezifischen Variante zur allgemeinen Variante, welches auch diese in spezifischen Teil abdeckt. Dann geht die Frage weiter, wie werden doppelte oder dreifache Redirects gehandhabt? Bei uns ist es so, dass wir Redirects, ich glaube, bis zu fünf Redirects hintereinander direkt bei diesem einen Crawl verfolgen. Das heißt, wenn wir normale serverseitige Redirects sehen, 301, 302, dann können wir diese Redirect-Kette verfolgen, bis wir da Inhalte sehen. Wenn es mehr als fünf sind, die hintereinander sind, dann machen wir das im zweiten Schritt und machen das vielleicht morgen oder einen Tag später. Und da sieht man dann vielleicht eine Verzögerung. Aber wenn das jetzt zwei oder drei sind, dann sollten wir die eigentlich direkt eins zu eins verfolgen und so weiter verwenden für die Indexierung. Bezüglich der URL, die dann in den Suchergebnissen gezeigt wird, ist es so, dass wir da unsere normalen Systeme zum Suchen von Canonicals verwenden. Das heißt, wir nehmen nicht nur diesen Redirect dazu, sondern wir nehmen zum Beispiel auch die interne Verlinkung, die Sidemap-Uralles, der REL Canonical auf diesen Seiten. All diese Sachen kommen ein bisschen dazu zusammen und so versuchen wir dann den URL zu finden, der wirklich passend ist für dieses Inhaltsstück. Das heißt, wenn wir die Redirect-Quellen nehmen statt das Redirect-Ziel in den Suchergebnissen, dann ist das oft ein Zeichen, dass einfach die Signale nicht ganz klar für uns waren, dass wir gedacht haben, ja, das ist wahrscheinlich die URL, die ihr dargestellt haben wollt und nicht die andere URL. Das heißt, wenn das falsch dargestellt wird in den Suchergebnissen, würde ich wirklich schauen, dass REL Canonicals sauber gesetzt ist, dass die URL eins zu eins so auch in den Sidemap-Sateien drin ist, dass intern die Verlinkung auch wirklich klar auf diese URL auch zeigt, so dass alles zusammenkommt. Wir sehen diese Redirect-Kette, wir sehen dann diese Zieluralles eigentlich diejenige, die verlinkt ist und die relevant ist und so nehmen wir die dann auch oder versuchen wir die dann auch zu nehmen für die Canonicalization und die zeigen wir dann auch in den Suchergebnissen. Was manchmal ein bisschen verwirrend ist, ist, wenn man gezielt nach der falschen URL sucht, dann versuchen wir die euch auch zu zeigen. Das heißt, gerade wenn ich jetzt mit zwei Websites arbeite und die eine hat ein Redirect auf die andere, wenn ich gezielt nach der Redirect-Ziel-Website suche, dann zeigen wir euch diese URL auch, weil wir denken, der Benutzer sucht gezielt danach, also möchte wir den Benutzer nicht enttäuschen und zeigen dann auch die URL, obwohl wir eigentlich die Inhalte mit der neuen URL schon indexiert haben. Als Nachrichtenportant besitzen wir über die Jahre hinweg sehr viele Artikel, die wir natürlich alle gerne im Index der Suchmaschine lassen wollen. Wir machen uns hier doch Gedanken in Hinsicht Crawling-Budget. Wir würden das Budget gerne auf unseren neuesten Themen und Artikel konzentrieren. Kann man das irgendwie steuern? In Grunde genommen ist das für die meisten Websites kein Problem, bezüglich Crawling. Das heißt, wir können eigentlich fast alle Websites bis auf, sag ich mal, die sehr sehr großen Websites können wir so crawlen, dass wir wirklich das Gefühl haben, wir kommen eigentlich an alle Inhalte heran. Das heißt, oft macht man sich umsonst Gedanken über das Crawling-Budget und das klappt auf unserer Seite eigentlich schon. Was uns auf jeden Fall hilft, ist, wenn man mit einer Sign-Up-Datei arbeitet und das Änderungsdatum der URLs jeweils bei den Sign-Up-Dateien sauber nachführt, so dass wenn wir die Sign-Up-Datei holen, dass wir sehr schnell sehen, das sind die neuen Seiten, das sind die geänderten Seiten. Die können wir jetzt gerade mal holen und dann sehen wir vielleicht auch, dass die anderen Sachen als nicht geändert markiert werden und die gehen wir dann gelegentlich trotzdem mal durch und schauen, dass wir da nichts verpasst haben. Und das ist eigentlich so die beste Variante, die wir da empfehlen. Was natürlich auch hilft, ist, wenn man eine saubere interne Verlinkung hat, wenn man saubere URL-Struktur hat, so dass wir beim Crawling immer die gleichen URLs finden und nicht jedes Mal neue URLs oder neue URL-Varianten finden, die wir dann auch noch mal nachschauen müssen und ausprobieren müssen. Aber normalerweise mit einer sauberen internen URL-Struktur und einer sauberen Sign-Up-Datei sollte man da eigentlich keine Probleme haben bezüglich Crawling-Budget. Die Frage hat auch erwähnt auch noch kurz, noindex. Noindex ist ein Metatag auf den Seiten. Das heißt, wir müssen die Seiten jeweils Crawling um diesen Metatag zu sehen. Das heißt, das würde das Crawling-Budget eigentlich gar nicht verändern. Macht es für Google einen Unterschied, ob man Sonderzeichen beziehungsweise umlaute in URLs verwendet oder ob diese Zeichen beispielsweise mit % URL encoded. Wertet das Google als unterschiedliche URLs aus, sollte man da die internen Links in eine der beiden Varianten verwenden. Es gibt ja anfühlt sich die Standardencoding für URLs und für uns spielt es dann keine Rolle, ob ihr jetzt die, sag ich mal, mit % Schreibweise nehmt oder ob ihr einfach mit Unicode die URLs direkt verlinkt. Das sollte eigentlich, ja, normalerweise macht das ein CMS eigentlich für euch automatisch. Auf unserer Seite sehen wir diese URLs als equivalent und machen eigentlich keinen Unterschied. Das heißt, well-canonical, all die internen Verlinkungen spielen eigentlich keine Rolle für uns. Das sehen wir so an, dass diese URLs eigentlich gleich sind. Wichtig ist vielleicht, dass groß und klein Schreibung ist für uns unterschiedlich. Das ist eine Variante, auf die man vielleicht achten muss. Und erwähnt ist da noch %20 in der Frage. %20 ist ja ein Leerschlag. Ich würde eher empfehlen, dass man keine Leerschläge in URLs verwendet. Einfach aus dem Grund, dass es sehr schwierig manchmal ist, diese URLs dann auch per Copy and Paste weiter zu verwenden, dass wir da die Links dann nicht sauber erkennen können. Wenn zum Beispiel jemand einen URL mit einem Leerschlag in ein Forum hineinkopiert, dann verwendet die Forum Software oft einfach den ersten Teil von der URL und verlinkt das. Und den zweiten Teil, das wird dann verloren. Und dementsprechend geht dieser Link dann schnell kaputt. Das heißt, statt Leerschlägen würde ich vielleicht einen Strich, Minuszeichen oder einen Unterstrichenzeichen nehmen, welches von beiden ihr verwenden wollt. Es ist euch überlassen, aber eher Leerschläge vermeiden. Auf unserer Seite ist es nicht so, dass da etwas kaputt geht, wenn Leerschläge verwendet werden, aber es macht es einfach für Benutzer ein bisschen schwieriger, sauber auf eure Links, auf eure URLs zu verlinken. Welche Auswirkungen haben implementierte Dienstleistungen von Google auf das Ranking? Oft eigentlich keine. Also wir haben gezielt in der Websuche ist es so, dass wir versuchen, neutral gegenüber anderen Google Produkten zu sein. Das heißt, ob ihr jetzt Analytics oder AdWords verwendet oder AdSense auf den Seiten verwendet aus unserer Sicht für die Google Suche ist das total egal. Das sind Sachen, die ihr auf euren Seiten einbauen könnt. Manchmal machen sie eure Seiten langsamer, manchmal machen sie eure Seiten ein bisschen besser. Es sind einfach andere Produkte, die ihr verwenden könnt auf euren Seiten. Und aus unserer Sicht unterscheiden wir dann nicht, ob ihr jetzt AdSense verwendet von Google oder ob ihr Ad von irgendwelchen anderen Anbietern auf euren Seiten verwendet. Die sind manchmal genauso gut. Auf jeden Fall spielen sie für die Websuche keine Rolle da. Duplicate Content in einem Portal zur Unternehmensnachfolger bieten Gesellschaften Unternehmen zum Verkauf an. Dafür wird für jedes zu verkaufene Unternehmen eine eigene Kampagnen-Seite erstellt. Die Angaben über die verkaufene Gesellschaft wiederholt sich in jeder Kampagnen-Seite. Ist das ein Problem? Soll man da etwas machen? Aus unserer Sicht, was in solchen Fällen passiert, ist, dass wir diese Seiten normal chronen und indexieren. Weil das sind ja meistens irgendwelche Informationen, sind spezifisch zu diesen Seiten zumindest dabei. Was wir dann allerdings machen in der Suche, wenn man gezielt nach diesen weitervermentenden Texten sucht, dann kann es sein, dass wir die die Seiten ein bisschen zusammenklappen. Und so kann es zum Beispiel sein, dass wir verschiedene Seiten indexiert haben. Wenn ich gezielt nach diesem kopierten Text suche, dann zeigen wir vielleicht einfach nur eine von denen, weil wir sagen, die anderen Seiten sind ja genau das gleiche bezüglich dem, was jetzt der Benutzer gesucht hat. Und so ist es dann nicht, nicht eine Frage von einer manuellen Maßnahmen oder Qualitätsproblem oder dass wir sagen, die die Webseite wird jetzt schlechter eingestuft, weil sie Duplicate Content hat, sondern es ist eher eine technische Frage. Der Benutzer sucht nach diesem Text. Wir wissen, verschiedene Seiten haben den genau gleichen Text drauf. Also zeigen wir ein von diesen Seiten und so findet der Benutzer eigentlich diesen Text. Und das ist eigentlich das, was man erreichen möchte. Von dem her würde ich mir da nicht allzu viele Gedanken machen. Was man vielleicht einfach überlegen müsste, ist, wenn diese Kampagnenseiten existieren und wenn die die Firmen separate Websites haben, die die gleichen Texte haben, dann hat man natürlich eine gewisse Konkurrenzsituation da, indem das Benutzer vielleicht diese Kampagnenseiten finden oder vielleicht die Webseite von der Firma direkt finden. Und da müsste man sich vielleicht mal überlegen, ob das Sinn macht, dass man sagt, gut, die Kampagnenseiten sind wirklich ganz eigenständig und die haben andere Texte als die eigentliche Webseite dieser Firma. Aber das ist eher fast eine Marketingfrage, dann, okay, ich glaube, jetzt haben wir alle Fragen durch geschafft. Gibt es vielleicht von euch noch irgendwelche Fragen? Wie ist Stefan? Nein, eigentlich nicht. Super. Ist es komisch, dass da diesen Hangout-Lenk sonst niemand gefunden hat? Also, hat es irgendwie nicht angezeigt, also zumindest nicht überall. Okay. Müssen wir mal überlegen, ob das irgendwie anders machen muss oder ob das irgendwie einfach Google Plus heute einen schlechten Tag hat, mal schauen. Okay, ich richte auf jeden Fall den nächsten Hangouts bald noch ein. Ich bin zwischendurch noch in den Sommerferien. Ich weiß nicht genau, ob das jetzt vorher oder nachher die nächsten Hangouts kommen, aber auf jeden Fall gibt es sicher Platz für weitere Fragen. Und wenn ihr zwischendurch auf Fragen habt, könnt ihr auch gerne ins Hilferforum kommen. Das sind auch gute Top Contributor, die weiterhelfen können. Okay, dann wünsche ich euch erst mal einen schönen Tag noch und bis zum nächsten Mal. Danke ebenso und bis zum nächsten Mal. Tschüss. Tschau.