 Hallo, alle Sites. Willkommen beim nächsten Webmaster Essentials Sprechstunden Hangout. Wie immer, ich bin Johannes Müller, Webmaster Trends Analyst bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster Hangouts, wo Webmaster, Publisher, SEO alle dazu kommen können und ihre Fragen stellen können und wo die Sachen ein bisschen anschauen können. Es sind schon einige Sachen eingereicht worden auf YouTube, nicht allzu viele, aber vielleicht hat eine von euch auch irgendwie eine erste Frage, mit der ihr loslegen möchtet. Tatsächlich hätte ich gerade eine kleine Frage, die ist wahrscheinlich echt einfach zu beantworten. Wir haben immer noch das Problem mit den Side Maps und ich wollte mich mal kundigen, ob vielleicht, also weil wir voller Moten vielleicht, dass wir was falsch gemacht haben, ob es die Möglichkeit gibt bzw. ob Google ein Testing Tool hat, wo wir sagen können, wir werfen die Side Map rein und die sagen uns, also quasi wie bei den Rich Snippertools, ob da was falsch ist oder nicht auf eurer Sicht, weil andere Side Map-Tools sagen, alles ist okay. Und wir verzweifeln langsam, weil das mit den Side Maps immer noch nicht so funktioniert wie es sollte. Also was sieht ihr da? Hier war also was, was geht da? Also wir haben eine Index-Side Map, also wir haben zwei Index-Side Maps und bei der ersten ist alles okay, aber da sind auch noch fünf Einträge. Bei der zweiten wird zufällig der dritte und der fünfte Eintrag aus der Liste genommen und auch angezeigt in der Google Search-Konsol und ansonsten gar nichts. Also keine weitere Side Map wird daraus aufgelistet. Und einzeln einreichen, die Side Maps habt ihr mal probiert oder sind das ja noch zu viele? Das sind zu viele. Wir haben halt quasi Kataloge mit 3D-Teilen, die zu Herstellern gehören. Und wir lassen das halt automatisiert durchgenerieren. Und das sind halt dann 1000, also grob 1000 Kataloge sind das. Also 1000 Side Maps auch wirklich. Ja, ja, das klingt nicht so optimal. Also wir haben anfühlt sich keinen Testing-Tool, was man da direkt verwenden könnte. Aber normalerweise ist es so, wenn wir die Side Map Datei nicht verarbeiten können, dann zeigt es schon Fehler an. Aber es klingt so her so, als ob die Side Map gar nicht verarbeitet wird. Also sie wird ja offensichtlich verarbeitet, weil zwei, also aus dieser Index-Side Maps werden zwei Side Maps rausgezogen, aber nicht die obersten zwei, sondern mitten drin einfach welche. Das heißt irgendwie verarbeitete er was damit, aber er verarbeitet nicht alle. Und wie gesagt, die kannst du nicht nachvollziehen, woran es liegt. Und sind ja jetzt mittlerweile seit über einem Monat dran. Okay. Kannst du mir vielleicht mal ein Screenshot schicken? Immer meine E-Mail-Alfester rein. Im Chat und da. Das kann ich einfach, wie das ungefähr aussieht und welche Side Map-Burale das ist, dann kann ich das direkt an das Team mal weitergeben zur Kontrolle. Okay, näher Frage, weil du hattest das schon mal weitergegeben, den Fall, also zumindest die Side Map jetzt ohne Screenshot. Und dann hatte ich jetzt eine Weile gewartet, oder es ist sogar schon mehr als vier Wochen her. Das ist jetzt vor drei Wochen gewesen und vor, ja genau, vor drei Wochen hattest du das damals mal eingereicht worden. Und seitdem ist halt nichts passiert oder vielleicht ist da auch schon, ja, ist nicht mehr zeitlich genau bei euch in Ordnung. Okay, dann frage ich noch mal beim Team nach. Das wär nett, vielen Dank. Okay, cool. Okay, weitere Sachen, bevor wir mit den eingereichten Fragen loslegen. Tatsächlich jetzt sogar noch eine Frage. Okay, super. Wir haben noch einen anderen Punkt. Wir haben, auch das ist jetzt fünf, sechs Wochen her, haben wir unsere Domain gewechselt. Die alte Domain zeigt auf die neue Domain. Der zuständige bei uns hat das in der Google Search Console als eigene URL eingetragen. Jetzt haben wir halt einmal eine für die alte Seite, einmal für die, also eine alte Domain, einmal die neue. Wir haben uns jetzt letztens gefragt, bringt es einen Vorteil, wenn wir den alten Eintrag rauslöschen aus das Google Search Console, oder ist das für Google egal? Das ist für uns ein und für sich egal. Das ist wirklich nur, damit die etwaige Fehler auch an euch weiter zurückgegeben werden kann. Da würde ich so weit wie möglich das schon lassen, aber das hat auch nicht irgendwie einen Nachteil. Es ist dann nicht so, dass wir denken, ah, ihr wollt, dass die alte Website weiterhin eine Suche bleibt, sondern wenn das weitergeleitet wird, dann ist das eigentlich alles okay. Es ist wirklich nur, dass ihr die Information dann auch noch habt. Okay, perfekt. Dann denke ich schon wieder. Super. Okay, ich fange mal an. Ich habe eine Frage anschließen, bitte. Okay, leg los. Und zwar, wenn er jetzt hier die von der alten auf den neuen Domain weiterleitet, dann registriert er, dass die alte nicht mehr da ist. Wann verschwindeten die bei euch gänzlich aus dem Index? Wie lange dauert so was? Es gibt keinen Zeitplan dafür, weil es sind da verschiedene Sachen, die da ein bisschen zusammenkommen. Einerseits müssen wir diese Weiterleitung verarbeiten und das machen wir. Einerseits, wenn wir feststellen können, dass wirklich die ganze Domain weitergeleitet wird, geht das ein bisschen schneller. Wenn wir das nicht so eins zu eins feststellen können, müssen wir die URLs einzeln neu crawlen. Manchmal müssen wir die mehrmals crawlen und das Crawling von URLs kann zwischen, ich weiß nicht, ein paar Minuten oder ein paar Stunden jeweils gehen oder es kann bis so ein halben Jahr oder länger gehen. Wenn wir das dann zwei, drei Mal crawlen müssen, kann das im schlimmsten Fall für einige diese URLs relativ lang gehen. Das andere, was dazu noch kommt, ist, dass wir sogenannte alternative URLs bei uns auch kennen. Das heißt, wenn man zum Beispiel eine Site-Up-Frage macht für einen alten Domain, der eigentlich schon weitergeleitet werden, quasi schon lange übertragen ist auf einem neuen Domain, dann kann es sein, dass wir trotzdem noch URLs dort darstellen in der Site-Up-Frage. Und das ist einfach, weil wir erkennen, dass der Benutzer direkt nach diesen alten URLs sucht. Und wir wissen, diese alten URLs sind jetzt zwar woanders, aber die waren einmal da und deswegen können wir sie so in der Site-Up-Frage zeilten. Die sind zwar nicht so indexiert, aber uns ist einfach bewusst, dass diese alten URLs so gleichen Website gehören. Und von dem her ist es dann schwierig zu sagen, wann die effektiv gänzlich aus dem Index fallen, weil wir müssen die Sachen neu crawlen, neu verarbeiten. Und unter Umständen kennen wir diese alten Verknipfungen für eine relativ lange Zeit. Man kann das auch ein bisschen ausprobieren, wenn man einzelne Domains hat, wo man eine solche Weiterleitung schon mal gemacht hat. Wenn man da eine Site-Up-Frage macht, dann sieht man oft für, ich weiß jetzt nicht, ich sage mir jetzt aber mal zwei, drei Jahre, sieht man sicher noch die alten URLs in den Suchergebnissen. Wenn man die gecached URLs anschaut für diese Ergebnisse, sieht man aber, dass effektiv die neuen URLs gecached sind und die neuen URLs indexiert sind. Manchmal ein bisschen verwirrend, wenn man da die Site-Up-Frage nimmt für solche Diagnose-Sachen. Okay, dann glaubt da kommt grad noch eine Frage von dir. Wir haben uns für die 3D Structure Data bei den Early Access-Programmen beworben. Wie können wir feststellen und testen, ob wir freigeschaltet worden sind? Ich weiß jetzt nicht, wie das effektiv bei den 3D Structure Data funktioniert, aber normalerweise bei solchen Programmen wird man dann einfach per E-Mail informiert und kriegt dann auch einen Link zur entsprechenden Dokumentation. Ich weiß nicht, ob bei den 3D Structure Data, ob es da quasi spezielle Dokumentation dafür gibt oder ob die Dokumentation eh schon frei verfügbar ist, aber normalerweise ist das so etwa der Ablauf, dass man da auch ein bisschen Information hat, dass das einfach passiert ist, nicht dass es dann einfach still aufgeschaltet wird und dargestellt wird. Also sag mir noch eine Rückmeldung kriegen. Entschuldige, wenn ich grad rein frage. Ja, ja, ja. Perfekt. Ich könnte mir vorstellen, dass es im Moment alles ein bisschen langsamer geht, weil gerade die ganzen Structure Data-Teams sind sehr mit Coronavirus-Sachen beschäftigt, und da ist alles ein bisschen anders als sonst. Dann die Frage mit dem Domainwechsel haben wir, glaube ich, kurz angeschaut. Fragen zum Crawling und Robots Text im Abdeckungsreport in Search Console unterindexiert, obwohl durch Robots Text blockiert, haben die URLs ein Crawl Datum. An welcher Stelle das Crawling-Prozesses werden dort durch Robots Text blockierte URLs aus der Crawling-Queue aussortiert, fahren sie erst spät im Prozess raus oder verbrauchen sie quasi ein bisschen vom Crawl Budget. Auf unserer Seite ist es effektiv so, dass wir die URLs erst mal in unseren Scheduler nehmen. Das heißt, wir nehmen an, dass wir die erst mal crawlen kann. Und pro Tag schauen wir dann die Robots Text-Datei an vom Server. Und wenn wir sehen, dass diese URLs nicht gecrawlt werden können, dann lassen wir sie wieder rausfallen. Um meines Wissens ist da das Crawl Datum effektiv der Moment, wo wir versucht hätten, diese URL zu crawlen, wo wir dann aber gemerkt haben, ah, die ist per Robots Text blockiert. Das verbraucht kein Crawl Budget. Es ist nicht so, dass solche URLs irgendwie das Crawling der Rest von der Website irgendwie verlangsamen oder blockieren. Sondern wenn wir diese URLs nicht crawlen können, dann können wir sie halt nicht crawlen. Behebung Prüfung in Search Console finde ich in diesem Fall zweischneidig und habe bisher gezögert, es zu starten. Die Standardbehebung wäre ja das Crawling zu erlauben und die Seiten mit meta-robots-noindex zu versehen. Meine Erfahrung nach ignoriert Google auch gerne mal ein Noindex und vielleicht habe ich hinterher noch mehr Seiten im Index, die ich gar nicht dort wollte. Viel lieber hätte ich eine Behebungsvariante mit diese URLs deindexieren. Das gibt's an und für sich nicht. Also es ist nicht so, dass wir eine URL nicht crawlen können und dann auch nicht quasi direkt aus dem Index entfernen lassen. In den meisten Fällen macht das eigentlich auch nicht wahnsinnig viel Sinn, weil gerade wenn man sonstige Inhalte hat auf der Website, dann ist es ja nicht so, dass wir eine URL zeigen würden in den Suchergebnissen für solche Suchanfragen, wenn wir effektiv andere URLs hätten, die wirklich auch Inhalte haben. Das heißt, die URLs, die per robots.txt blockiert sind, die würde man im schlimmsten Fall sehen, wenn man zum Beispiel eine Side-Up-Frage macht oder wenn man gezielt nach diesen URLs irgendwie sucht in eine Art und Weise, dass da keine richtigen Seiten gezeigt werden, sonst in den Suchergebnissen. Von dem her ist es zwar etwas, was wir zeigen in Search Console. Es ist effektiv so, dass wir die Inhalte nicht indexieren können, obwohl wir die URLs vielleicht indexiert haben. Aber wenn das so gewollt ist von eurer Seite, dann ist es eigentlich total okay, da muss man da nichts, nichts dran ändern. Und bezüglich Noindex im Allgemeinen ist es schon so, dass das für uns eine sehr strikte Regel ist. Das heißt, wenn wir erkennen können, dass irgendwo ein Noindex auf einer Seite ist, dann nehmen wir diese Seite auch effektiv raus. Was einfach manchmal passieren kann, ist, dass wir die Seiten halt nicht so häufig crawlen. Und dann kann es durchaus sein, dass man Noindex auf eine Seite tut. Wir haben zwar die Version von gestern auch indexiert. Und wenn man das dann quasi von Hand vergleicht, dass was indexiert ist und dass das auf der Website ist, dann sieht es so aus, also Google das ignoriert. Aber wir haben einfach die Version mit der Noindex noch nicht verarbeitet. Und dann können wir ja auch nicht groß die Seite aus dem Index warnen lassen, wenn wir sie noch nicht richtig gecrawlt und neu indexiert haben. Ich stelle diese auf den ersten Blick schon sehr auf beantworteten Fragen, weil die Daten in der Search Console See, die ich in der Search Console See mir den Eindruck vermitteln, dass Google die blockierten Seiten viel interessanter findet und häufiger versucht, zu crawlen als URLs in meiner Site Map, wo er laut Crawl Datum der Search Console schon länger nicht mehr war. Leider steht mir zurzeit keine Log-File an Lüse zur Verfügung, um von meiner Seite aus der Antwort näherzukommen. Ja, ich denke, dass es immer schwierig zu kontrollieren, gerade wenn man jetzt die Log-Dateien nicht hat, weil je nachdem, wie die Website gestrukturiert ist, kann es sein, dass sehr viele URLs blockiert sind durch Robots Text. Aber das hat effektiv vom Crawling her keinen Einfluss. Und das bedeutet nicht, dass wir die URLs, die wir doch crawlen können oder doch indexieren können, dass wir die weniger interessant finden. Das ist ähnlich wie, wenn man einen großen Teil einer Website überarbeitet und viele Seiten fehlen auf einmal, dann kann es einem vorkommen, dass Google all diese fehlenden Seiten die ganze Zeit crawlt. Dabei sind es einfach sehr viele Seiten und wir probieren die Quart. Und wenn wir da nichts finden, dann gehen wir halt mit den normalen Inhalten trotzdem weiter. Also es ist nicht so, dass da irgendwie etwas blockiert wird. Ich teste gerade ein neues CMS und habe Probleme mit den Buttons, die kein No-Follow-Attribut haben. Wenn ich alle Links auf meiner Seite auf No-Follow setze, dann muss ich dann negative Auswirkungen auf ranking crawlen und so weiter befürchten. Ja, also ich habe jetzt die Seite noch nicht kontrollieren können, was da genau gemacht wird auf dieser Seite. Aber normalerweise, wenn man jetzt alle intern Links auf No-Follow setzt, dann ist es sehr schwierig für uns die Website normal zu crawlen, weil wir im ersten Moment diesen Links einfach nicht so gut nachfolgen können. Das heißt, wir geben ja dann keine Signale weiter an diese URLs. Wir können die noch nehmen zum Erkennen von neuen Inhalten, aber es ist dann sehr schwierig für uns dann, Kontext zwischen diesen URLs festzustellen und das ganze Crawling wird dann einfach sehr viel schwieriger. Von daher würde ich schon schauen, dass für die internen Navigation, dass man da sicher ohne No-Follow arbeitet, dass wir die Seiten innerhalb einer Website normal auch crawlen können. Man kann auch, was man zum Beispiel machen könnte für, ich weiß jetzt nicht, ob das bei deiner Seite passt, aber was man machen könnte, wenn man einfach einzelne Links hat, bei denen man einen No-Follow setzen möchte, wenn man zum Beispiel Werbung auf den Seiten hat und wenn man das nicht direkt im HTML angeben kann, kann man auch per JavaScript diesen No-Follow dazu nehmen bei diesen einzelnen Links. Weil wir renderen ja die Seiten in der Regel und wenn wir das JavaScript ausgeführt haben, No-Follow dort sehen, nachher dann ist das für uns eigentlich auch okay. In der Google-Bildersuche werden bei einigen Bildern Produkten auf Preise angezeigt, werden in den Suchergebnissen mit einem Produkttag versehen. Wir sind auch im B2B-Bereich tätig und einer unserer Kunden hat ein Shop-System mit mehreren Tausend Artikeln. Bei diesen Kunden sollen die Preisen also nur nach einer Anmeldung im Shop angezeigt werden. Vor einem Monat wurde ein Update auf eine neuere Shop-Version durchgeführt und die strukturierten Daten wurden währenddessen wieder in die Seiten geschrieben. Einige Seiten wurden auch direkt vom Google-Bad gekrawlt und indexiert. Als das aufgefallen ist, wurden die strukturierten Daten natürlich wieder sofort aus den Seiten entfernt. Also es sind nur noch die Bilder und Preise sind noch im Index. Kurz darauf habe ich die Side-Map zum Recrawlen eingereicht. Kann ich sonst noch etwas machen, damit die Preise aus der Bilder sogar verschwinden oder muss ich für jedes einzelne Bild die URL-Prüfung in Search Console nutzen? Grundsätzlich würde ich da die URL-Prüfung in Search Console für so etwas eher nicht verwenden, weil das ist wirklich für einfach Notfallsanpassungen gedacht. Man kann das natürlich machen, wenn man jetzt quasi das Gefühl hat, das ist wie eine Notfallssituation, wenn das wirklich sehr kritisch ist und man die Informationen angepasst hat auf diesen Seiten, dann kann man das auch für sich schon so machen. Eine Side-Map-Datei ist eher das Richtige, was man da machen sollte. Das heißt, mit der Side-Map-Datei einfach ein Änderungsdatum bei den einzelnen URLs angeben, damit wir wirklich auch sofort losgehen können und diese Seiten möglichst schnell wieder neu crawl. Grundsätzlich, wenn das eine größere Website ist mit vielen URLs, dann dauert das einfach eine gewisse Zeit, auch mit einer Side-Map-Datei. Da sehe ich ja eigentlich keinen schnellen Umweg, wie man das umgehen kann. Sondern wir müssen da wirklich die Seiten einfach neu crawl, neu indexieren und dann, wenn wir die neu instrukturierten Daten haben, können wir die entsprechend darstellen in der Suche oder halt nicht darstellen in diesem Fall. Ja, ich denke, das sind eigentlich so die Varianten. Die extreme Variante, wenn das wirklich sehr, sehr kritisch ist, wäre natürlich, dass man die URLs entfernen lässt aus den Suchergebnissen. Ich vermute, das ist jetzt nicht so extrem in diesem Fall, aber das wäre auch eine Variante, die man machen könnte, wenn das wirklich kritisch ist, dass man diese Information möglichst schnell aus den Suchergebnissen herausnimmt. Wenn das zum Beispiel persönliche Angaben sind, die man wirklich nicht allen zur Verfügung stellen möchte. Ich sehe ganz unterschiedlich lange Descriptions in den Suchergebnissen. Ich kann auch gerne ein Screenshot schicken als Beispiel die Such-Phrase Länge SEO-Titel Descriptions 2020. Okay, was mir dabei auffällt, erscheint das Google alle vorgegebenen Description-Tags, es setzt hat, greift die an dieser Stelle mittlerweile stärker ein als früher. Stärker als früher ist schwierig zu sagen, weil dieses Umschreiben von den Description-Matter-Tags ist eigentlich schon lange eine Sache, die unsere Systeme machen. Es kann sein, dass das vielleicht verstärkt auf Englisch erst mal war und dann jetzt im Laufe der Zeit auch ein bisschen verbreitet in anderen Sprachen ist. Vielleicht fällt das deswegen ein bisschen mehr auf hier. Aber anfühlt sich machen wir das schon eine Weile. Und wir versuchen einfach, die Seite so zu präsentieren, dass sie für die Suchernfrage für den Benutzer entsprechend auch ein bisschen mehr Sinn macht. Das heißt auch, dass manchmal den Snippet, den wir zeigen, unterschiedlich sein kann, je nachdem, welche Suchernfrage man stellt. Zweitenteil hier, die Länge variiert zwischen den üblichen zwei Zeilen bis hin zu vier Zeilen. Ich weiß, ihr gebt da ungern Auskunft, aber gibt es eine empfohlene Zeichen beziehungsweise Pixel-Abmessung, vielleicht auch für den Titel. An und für sich nicht, weil wie man da sieht oder wie man in anderen Fällen sieht, ist es so, dass wir da manchmal hat mehr zeigen, manchmal weniger zeigen. Und anfühlt sich sagen, haben wir da nicht irgendeine Länge, die wir sagen würden, es sollte mindestens so lang sein, dass ihr da möglichst davon profitieren könnt, sondern wir wollen, dass er der Website auch überlassen. Was man einfach machen kann, wenn man eine Beschränkung haben möchte, kann man natürlich mit den neuen Robots Mattertags arbeiten. Ich weiß nicht, Max Snippet heißt das, glaube ich, wo man angehen kann, wieviel Zeichen maximal verwendet werden können. Aber das ist immer noch so, dass das, was ihr quasi angibt auf den Seiten, ist quasi erst einmal das, was wir nehmen würden. Und dann mit dieser Beschränkung würden wir da dann einfach weniger darstellen. Position 1 und 2 werden von derselben Domain mit zwei unterschiedlichen Beiträgen eingenommen. Soll das so sein? Das kann so sein. Das ist, denke ich mal, bei vielen Ansprachen so. Manchmal ist das der Fall, wenn wir feststellen können, dass jemand gezielt nach einer Website sucht. Also wenn ich zum Beispiel gezielt mit irgendeinem Markennamen noch eine Suche mache, dann nehmen wir an, dass man eher Resultate von dieser Website sehen möchte, manchmal auch für allgemeine Suchanfragen. Es gibt bei uns auch keine absolute Beschränkung, wo wir sagen würden, maximal so viele Einträge pro Suchergebnisseite von einem Domain, sondern wir versuchen das ein bisschen flexibel zu machen und einfach, ich glaube, wir haben mal angesagt, dass wir versuchen, weniger als drei oder bis zu drei darzustellen von einzelnen Domains. Aber auch da gibt es quasi Suchergebnisseiten, wo wir deutlich mehr zeigen. Über das Gefühl haben, jemand sucht gezielt nach dieser Website zum Beispiel. Die Lesbarkeit ist natürlich beim maschinell erstellten Tag sehr dürftig. Wollt ihr nicht den Webmastern wieder mehr Kontrolle geben? Das kommt immer wieder auf. Also ich denke, einerseits, wenn ihr solche Suchergebnisseiten seht, wo die erstellten Descriptions oder Titles wirklich schlecht sind, das heißt, dass sie wirklich keinen Sinn machen auf Deutsch, dass sie schlecht leserlich sind, wäre ich froh um solchen Feedback. Ich vermute, dass wir weniger in die Richtung gehen würden, dass wir sagen, würden wir überlassen das vollständig den Webmastern, weil wir einfach sehen, dass es sehr viele Seiten gibt, die haben sehr schlechte Descriptions, wo entweder die gleiche Description auf allen Seiten vorhanden ist, wo kein Description vorhanden ist, wo nur eine Sammlung von Keywords als Description angegeben ist. Und solche Sachen helfen den Benutzer natürlich nicht wahnsinnig, dass sie wissen, worum es geht auf dieser Seite und warum diese Seite für sie jetzt relevant sein sollte. Ein paar Tipps in diesem Bereich, Best Practice oder ein Ausblick, falls künftig Änderungen anstehen. Tipps schwierig zu sagen, also was ich einfach machen würde, ist gerade, wenn man mehr Wert auf die Präsentation in den Suchergebnissen legt, würde ich einfach schauen, ob man mit Structured Data etwas machen kann, dass man zum Beispiel zumindest mit Breadcrumbs arbeitet, weil das ist ja dann Oberhalt vom Suchergebnis, dass man da gezielt Breadcrumbs angebt, die relevant sind für die Seite. Damit man da ein bisschen was hat, vielleicht gibt es auch andere Varianten von Structured Data, die man angeben kann, wo man das Ganze ein bisschen besser selber präsentieren kann. Ich weiß es nicht, vielleicht ist FAQ Markup relevant für einzelne Seiten. Die Fragen und Antwortvarianten sind vielleicht relevant für einzelne Seiten. Es gibt da inzwischen sehr viel verschiedene Varianten, wie man das ein bisschen verschönern kann, die Suchergebnisse dort. Ja, das darf ich da kurz anschließen, nicht? Ja. Du hast zu den Metersnippets gesagt, man kann das verschönern. Gleichzeitig ist es aber doch auch so, dass wenn man da zu viele Emojis oder Icons oder irgendwie so diese Sonderzeichen einbaut oder alles in Capital schreibt, dass ihr das dann schon irgendwann auch rauskürzt oder dann durch eigene ersetzt. Also das wird nicht toleriert, wenn das zu Spammy, sag ich mal, aussieht. Also ich würde nicht sagen, dass es nicht toleriert wird, aber einfach das gewisse Zeichen finde ich total okay, wenn man die in den Suchergebnisseiten so quasi hinein nimmt, wenn es da einzelne Symbole gibt, die speziell zu den Seiten passen. Was für uns einfach problematisch ist, ist, wenn die ganze Suchergebnisseite quasi gefüllt ist mit Symbolen und was auch problematisch ist, ist, wenn Symbole verwendet werden in einer Art, die für den Benutzern ein bisschen verwirrend sein können. Das heißt, wenn ich zum Beispiel Unicoat-Sterne verwende und das so hinstelle, als ob das quasi eine 5-Sterne-Bewertung sein soll, dann könnte ich mir vorstellen, dass unsere Teams das anschauen würden und sagen, wir müssten da an unseren Algorithmen arbeiten, damit wir solche Situationen besser erkennen können und dem Benutzer wirklich etwas Sinnvolles zeigen können in den Suchergebnissen. Okay, aber das wird ja im E-Commerce schon häufig genutzt, dass du dann irgendwie da ein grünes Riechchen hast oder ein roser Herz oder whatever. Also es kann halt auch ein Zufall sein, wenn ihr das ausblendet. Ja, ich weiß nicht, ob das häufig benutzt wird oder einfach auf Deutsch häufig benutzt wird. Also persönlich sehe ich das eigentlich mehrheitlich auf deutschen Seiten. Ich finde das okay. Ich meine, wenn das für eure Benutzer geht, wenn das für euch passt, wenn ihr so präsent sein wollt in Suchergebnissen, könnt ihr das gerne machen. Aber das ist natürlich immer etwas, wo es natürlich sein kann, dass unsere Systeme dann irgendwann sagen, das ist jetzt zu viel oder ihr habt irgendwie die Zehnhaken hintereinander und das sieht einfach sehr komisch aus. Man kann da nicht wirklich erkennen, worum es geht bei dieser Seite, dass unsere Systeme das dann ein bisschen ausblenden würden. Okay, super, danke. Ja. Okay, eine Frage zur Internationalisierung, Online-Shop-Sportartikel, Zieländer Deutschland, Österreich, Schweiz mit jeweiligen Länder-TLD. Die hreflang Auszeichnung sorgt lediglich dafür, dass die länderspezifischen URLs für den Google-Index ausgesucht werden. Ja, also mit dem hreflang ist es einfach so, dass wir die Verknüpfung zwischen diesen Seiten haben wollen und verstehen wollen, welche Seiten zusammengehören. Und wenn wir dann die falsche Version zeigen würden, dem Benutzer, würden wir die URL austauschen gegen die richtige Version. Das heißt, wenn wir wissen, dass eine Schweizer Seite vorhanden ist und wir würden einem Schweizer Benutzer sonst die deutsche Version zeigen, dann tauschen wir die einfach aus gegen die Schweizer Variante. Das ist der technische Hintergrund. Das habe ich schon verstanden. Jetzt ist aber für mich die Frage nach dem Content. Also wenn ich jetzt eben einen Shop-Up und ich beschreibe, weiß ich nicht, Berg-Sport, dann kann ich das für die deutschen Beschreiben mit deutschem Hintergrund und kann sagen, hier, das kommt aus der und der Tradition. Ich kann ein paar deutsche Sportler nennen. Für die Schweizer kann ich aber auch sagen, das kommt aus der Schweizer Historie und kann Schweizer Berg-Sport nennen. Also ich kann spezifisch lokal auf die einzelnen Gegebenheiten noch mal stärker eingehen. Würde das ein Vorteil sein oder nicht? Ich denke, das macht immer Sinn. Also was natürlich gerade beim ATRAF-Line ein bisschen speziell ist im deutschsprachigen Sprachraum, ist, dass wenn die Seiten ganz gleich sind, wenn sie identisch sind, dann werden unsere Systeme da eine Version als die Canonical Version nehmen und die quasi indexieren und damit im ATRAF-Line die URLs einfach austauschen. Und dann kann es zum Beispiel sein, dass wenn ich in der Schweiz suche, dass ich dann die Europreise sehe, weil die deutsche Variante quasi indexiert ist, hingegen, wenn man dafür sorgt, dass die Inhalte wirklich auch unterschiedlich sind, dann kommt das gar nicht bei uns im Spiel. Dann sehen wir ja, es sind unterschiedliche Seiten. Wir können die separate indexieren mit ATRAF-Line, tauschen wir die richtige Variante aus. Und dann hat man da quasi schon eine Problemquelle ein bisschen beseitigt. Also es ist anfühlsich, aus unserer Sicht ist es nicht wirklich eine Problemquelle, aber man hat einfach weniger Kontrolle, als wenn man das ein bisschen selber in die Hand nimmt und sagt, diese Sachen sind effektiv unterschiedlich, ihr müsst die unterschiedlich indexieren. Aber das ist ein ganz gutes Beispiel, wenn wir dabei vielleicht nur ganz kurz bleiben und wir haben dann diese Abteilung, weiß ich nicht, Bergsport und wir haben die im Deutschen, wir haben das auf dem Schweizer Domain und wir haben das auf der Österreichen Domain. Jetzt könnten wir natürlich hingehen und könnten sagen, okay, der Text ist für alle drei Kategorieseiten auf allen drei Domains gleich oder wir könnten hingehen und könnten sagen, nein, wir tauschen Abschnitte aus und machen die für den Schweizer Markt speziell, für den Österreichischen Markt speziell und für den Deutschen Markt speziell. Hätte das dann aber vermutlich dann auch demzufolge Vorteile für die Rankings auf den einzelnen Märkten, oder? Ich vermute... Ja, also ich nehme mal an, die Benutzer suchen auf der gleichen Art und Weise für die gleichen Keywords. Ja. Dann wäre es eigentlich vom Ranking her würde das keinen großen Unterschied machen. Aber für Conversion ist das natürlich ein bisschen etwas anders, wenn Benutzer auf eine Version kommen, die wirklich für Schweizer Kunden ausgerichtet ist, dann fühlen sie sich da eher ein bisschen zu Hause und kaufen dann vielleicht eher etwas. Also vom Ranking her, wenn Benutzer nach den gleichen Sachen suchen, sehe ich da keine Veränderung, von quasi alles, was nachher passiert, dann schon. Wenn hingegen die Benutzer auch anders suchen, dann sind natürlich die Schweizer Begriffe auf diesen Seiten drauf, dann werden die natürlich schon besser ranken. Ja, genau. Okay, super. Das hilft uns. Danke. Super. Wir beobachten bereits länger das Verhalten unseres Online-Shops in Bezug auf die Rankings. Gerade aktuell haben wir in Sachen Nutzer-Signale eine sehr positive Entwicklung zu verzeichnen. Unsere Rankings verbessern sich dabei aber nicht. Wie wir halten unsere Seiten stets aktuell. Besonders auffällig ist, dass bei einigen Suchen, zum Beispiel Plexiglass, unsere Seite gleich mit zwei Treffern unter den ersten Zehen vertreten ist, wäre es vom Vorteil, wenn nur eine Seite gerankt wäre und diese also die volle Power hat. Statt Platz fünf und sechs würden wir natürlich lieber die relevantere Seite weiter vorne sehen. Was kann man tun? Wenn die Seiten wirklich auf Position fünf und sechs ranken, könnte ich mir schon vorstellen, dass wenn man eine kombinierte Seite hat, dass man da ein bisschen besser dasteht. Einfach, weil unsere Systeme dann alle Signale konzentrieren können, auf eine Version konzentrieren können und dann ein bisschen stärker mit dieser Seite arbeiten können. Einerseits intern, innerhalb eurer Websites, andererseits alle externen Links, die zu diesen Seiten gehen. Wenn wir das konzentrieren können, ist die natürlich ein bisschen stärker in unseren Augen. Es ist natürlich schwierig zu sagen, ob das genug ist, um einen Schritt oder zwei Schritte weiter nach vorne zu kommen oder ob quasi die Stufe zum nächsten Resultat so stark ist, dass man da viel mehr braucht, das einfach die Seiten zu konzentrieren. Das lässt sich an und für sich nicht voraussagen, aber man kann es natürlich ausprobieren. Bezüglich Nutzer-Signaler und Rankings ist natürlich so, dass unsere Algorithmen dann nicht eins zu eins auf die Nutzer-Signale reagieren und es ist nicht so, dass nur weil mehr Leute auf eure Website gehen, dass auf einmal auch eure Website besser in den Suchergebnissen erscheinen. Indirekt kann das natürlich schon ein bisschen zusammenkommen, indem, dass wenn mehr Leute auf eure Website gehen, dann sind das eventuell auch mehr Leute, die eure Website weiter empfehlen würden und dementsprechend hätte man da vielleicht einen positiven Effekt, der einfach ein bisschen längerfristig ist. Ja, ich denke, von dem her, ob man jetzt Sachen konzentriert oder nicht, ist natürlich immer ein bisschen eine Frage. Ich tendiere eher dazu, dass man weniger Seiten hat und dafür stärkere Seiten macht, von dem her würde ich das vielleicht eher zusammenklappen. Anderseits, wenn diese Seiten ganz unterschiedliche Bedürfnisse abdecken, dann macht es vielleicht Sinn, dass man die unterschiedlich behält. Wenn ich zum Beispiel, ich weiß jetzt nicht bei Plexiglas, was man da nehmen würde, wenn man da vielleicht irgendwie Einzelstücke oder große Mengen hat und diese Seiten total anders gestaltet sind, quasi für, ich weiß nicht, normale Menschen, die Plexiglas ab und zu kaufen und für Industrie, die Plexiglas vielleicht in großen Mengen braucht, dann macht es vielleicht Sinn, dass man die Seiten separat behält, weil sie wirklich unterschiedliche Bedürfnisse abdecken und je nach Suchanfrage auch total anders ranken können. Das heißt, für eine allgemeine Suche werden sie vielleicht beide dargestellt, weil sie beide relevant sein können. Für eine speziellere Suche, wenn ich zum Beispiel Plexiglas in großen Mengen suche, wie man da halt sucht, dann macht es für uns vielleicht Sinn, dass wir eher diese quasi Großmengenseite zeigen würden. Und von dem her ist es unmöglich zu sagen, dass man sie separat halten sollte, aber das sind da so Varianten, die kann man auch mal ausprobieren. Vielleicht nicht gerade mit der wichtigsten Seite auf einer Website, aber wenigstens mit einer Seite, die genug Verkehr an der Suche bekommt, dass man da auch den Unterschied sehen würde, ob das jetzt anders ist, wenn man das zusammenklappen würde oder nicht. Wir haben einige Product-Gurals unseres Online-Shops mit UTM-Parameter in Google Index erschienen. Also per AdWords-Links sollen wir diese Product-Links besser auf No Index setzen. Aktuell haben die Urals zwar ein Self-Cononical auf die Original-Ural ohne Parameter, doch das scheint nicht auszureichen. Und dann auch ein paar Beispiele, die haben ich jetzt nicht angeschaut, muss man nachher mal anschauen. Grundsätzlich ist es schon so, dass mit dem Canonical die einfachste Variante das zu machen, weil dann werden auch alle Signale, die an diese Urals gehen, weitergeleitet. Grundsätzlich denke ich aber, dass man da wahrscheinlich sind, dass Urals, die eher weniger verlinkt werden innerhalb der Website und wahrscheinlich auch weniger verlinkt werden extern von der Website, weil das sind ja dann wirklich Sachen, wo jemand eine AdWords-Ural direkt verlinken würde. Vermutlich ist das eher die Ausnahme als die Regel und von dem her könnte man die auch problemlos auf No Index setzen. Im Allgemeinen denke ich, macht es aber auch keinen großen Unterschied. Wenn man jetzt die auf No Index setzt, sind diese Urals dann nicht mehr im Index, die normalen sind weiterhin im Index. Ich denke, gesamt gesehen auf die ganze Website verändert sich da wahrscheinlich nichts. Man kann natürlich viel Arbeit machen, wenn man will. Das wäre jetzt kein Problem hier an der Stelle No Index und das Self-Canon-Ingle zu kombinieren. Das wäre kein Problem, aber ich denke, das wäre das Gleiche wie ein No Index aus unserer Sicht. Hinter dieser Beispiel URL sieht man, dass 2000 oder 3000 Urals, die eben indexiert wurden, wo wir es vielleicht nicht so gerne haben möchten. Ich denke, schwierig. Was ich da einfach achten würde, ist, wie viele diese URLs effektiv auch in der Suche erscheinen. Das heißt, in Search Console beim Performance Report, das man da auch gezielt nach diesem Parameter mal filtert. Weil es kann sein, dass die einfach indexiert sind. Aber wenn sie nie dargestellt werden in den Suchergebnissen, interessiert das ja eigentlich niemanden, ob die indexiert sind oder nicht. Aber der Betrag, also die Anzahl relativ gering ist und wir wissen, dass es sich nicht auf den Rest unserer URLs auswirkt. Ja, sicher. Okay, ich glaube, da sind wir bei den Fragen mal durch. Und kurz nachladen, schauen, ob da noch mehr gekommen ist. Ich glaube, das war es so ziemlich. Was gibt es noch aus eurer Sicht? Womit kann ich noch helfen? Was irgendwas noch da ist. Okay. Alle Wunschlos glücklich. Also ist auch gut. Super. Okay, sonst machen wir doch einfach mal hier eine Pause. Habt ihr ein bisschen mehr Zeit am Tag? Könnt ihr vielleicht noch andere Sachen machen? Ja, ich richte auf jeden Fall noch die nächsten Hangouts ein. Wenn weitere Fragen auftauchen, könnt ihr gerne da die Fragen eintragen. Morgen machen, glaube ich, noch auf English ein Hangout. Seid ihr auch gerne eingeladen, wenn ihr damit machen wollt. Ansonsten wünsche ich euch noch einen schönen Tag. Bleibt gesund, bleibt munter. Bis zum nächsten Mal. Tschüss.