 Okay, herzlich willkommen beim heutigen Webmaster Essential Sprechstunden Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trans Analyst bei Google in der Schweiz und Teil von dem, was wir machen, sind solche Webmaster Hangouts. Heute muss ich es ein bisschen kürzer halten, weil ich noch weiter muss an andere Besprechungen. Aber wir haben natürlich einige Fragen, die schon angereicht worden sind und sind ja recht viele von euch schon hier. Wenn einer von euch möchte, seid ihr gerne dazu eingeladen, schon mal loszulegen. Wenn nicht, geht das auch. Okay, fangen wir sonst mal an mit den eingereichten Fragen und wie immer, wenn ihr Kommentare oder weitere Fragen dazu habt, einfach loslegen zwischen euch. In Bezug auf die Wertschätzung meiner Seite sind nützliche, weiterführende Links doch in der Regel ein Pluspunkt. Wie wirkt sich eigentlich eine externe Verlinkung auf das Ranking aus, wenn ich diese drei Szenarien vergleiche? Erstens, ich zähle alle URLs zu weiterführenden Seiten nur auf, ohne sie zu verlinken. Ich verlinke diese Links mit Follow Links. Ich verlinke die mit No Follow Links. Ist die Wirkung immer gleich oder unterschiedlich? Wie sieht das auch in Bezug auf den inneren Wert meiner Seite aus, wenn ich die Links Follow setze, gebe ich Linkpower an die anderen Seiten weiter, schwäche mich selbst etwas ein und stärke die anderen Seiten, die vielleicht sogar Konkurrenten sind. Wie sollte ich mich verhalten? Gute Frage. Grundsätzlich ist es so, dass man da bezüglich externen Links, wenn das normale natürliche Links sind, innerhalb der Website würde ich mir deswegen eigentlich keinen großen Gedanken machen, sondern einfach normal verlinken. Aus unserer Sicht helfen die Links, die zu anderen Websites gehen, helfen uns ein bisschen zu verstehen, wie ihr eure Seite einschätzt, wie ihr quasi im Kontext vom Rest vom Web platziert werden möchtet. Und von dem her würde ich da einfach ganz normal verlinken. Wenn das natürlich Links sind, die nur da sind, aufgrund einer Beziehung mit der anderen Website, wenn das vielleicht bezahlte Links sind, wenn das Werbung ist, dann würde ich einfach mit No-Follow arbeiten oder mit einem von den drei neuen Attributen, also zum Beispiel mit Sponsored, wenn das zum Beispiel Werbel Links sind. Aber ansonsten würde ich, so weit wie möglich, einfach normal verlinken auf diese Website. Das hat auf jeden Fall keinen Nachteil für eure Website, wenn das normale Links sind, zu denen ihr stehen wollt. Da würde ich da ganz normal hin, dorthin verlinken. Also ich würde mir auch wegen Patreon nicht groß Gedanken machen. Es ist sicher nicht der Fall, dass, wenn ihr externe Links habt, dass auf einer eurer Website schlechter darstellt in unseren Suchergebnissen. Ein paar Fragen zum... Ich hätte dazu noch eine ergetzene Frage, wenn ich gerade darf. Okay. Die ist mir gerade dazu gekommen, wie ist das denn steigt denn, wenn ich jetzt meine Website nehme und jemand zum Beispiel in der News Seite schreibt, was du bei meiner Website verlinkt, oder einen bestimmten Link daraus, steigt der PageRank von der Website weiter ganz normal, wenn die verlinkt wird und nicht gesponsored ist, also speziell gemarkt ist, sondern... Also wenn das ein normaler Link zu deiner Website ist, dann zählt das an für sich für deine Website. Es ist so, wir verwenden PageRank intern, das heißt ein Teil von dem wird da so weiterverwendet, aber wir verwenden viele andere Signale auch noch. Das heißt, es lohnt sich in der Regel nicht, sich wirklich nur Stuhl auf PageRank zu beschränken und da allzu groß einen Wert drauf legen, sondern es gibt wirklich viele andere Sachen, die eine Rolle spielen, leider suche. Aber PageRank ist natürlich etwas, wo man das Gefühl hat, man kann da ein bisschen irgendwas Handfestes haben, man kann die Links zählen, man kann die eigenen Seiten anschauen und überprüfen, von dem her ist das beliebt, dass man das direkt dort anschaut. Aber es gibt viele anderen Faktoren und von dem her würde ich mir wegen solchen Links jetzt nicht allzu große Sorgen machen. Wo ich einfach aufpassen würde, gerade bezüglich Links, ist, dass ihr es einfach macht, dass man auf eure Website verlinken kann. Das heißt, wenn ihr URLs habt, die man gut per Copy & Paste quasi weiter kopieren kann, weiter verwenden kann, das hilft sicher, wenn es relativ einfach ist, dass irgendjemand auf eure Inhalten direkt verlinken kann, dann würde ich das so, wenn möglich, einrichten hingegen, wenn die URLs quasi für jeden Benutzer unterschiedlich sind, wenn man Session IDs dabei hat, dann ist es schwierig, für jemand da sauber auf eure Inhalte zu verlinken. Okay, vielen Dank. Ja, bitte. Ich habe dazu eine Frage. Wie ist das denn mit abgehenden Links innerhalb der Website? Also zum Beispiel, ein Beispiel für Flaggen kaufen haben wir jetzt die Homepage ziemlich weit oben. Jetzt gehen abgehende Links zum Beispiel für deutsche Flaggen raus oder österreichische Flaggen. Zählt dann diese abgehende Link auch zu der Qualität für Flaggen kaufen? Wie meinst du, Qualität für Flaggen kaufen? Ja, also ich sage mal, wenn jetzt jemand nach Flaggen kaufen sucht, dann sucht der zum Beispiel nach einer Deutschlandflagge oder zum Beispiel nach Deutschlandflaggen jetzt zum Beispiel die Bundesländer oder Schweizerflaggen, dann die Kantone. Und wenn diese Links halt abgehen von der Seite, die jetzt für Flaggen kaufen optimiert ist, ist das dann gut für Flaggen kaufen. Also... Ja, also eigentlich... Dann würde es doch eigentlich auch nicht funktionieren, oder? Eigentlich würde das schon Sinn machen. Also es ist ja so, dass wir über die Links quasi, vor allem die interne Verlinkung innerhalb einer Website versuchen wir ja die Seiten ein bisschen im Verhältnis zum Rest der Website zu sehen. Das heißt, wenn wir sehen, dass zum Beispiel die Homepage oder dass die Website allgemein für Flaggen kaufen bekannt ist, dann können viele, sag ich mal, so auf die Website verlinken. Wenn wir erkennen können, dass die Website insgesamt für Flaggen kaufen gut geeignet ist, dann können wir ja auch verstehen, dass wenn auf der Homepage zum Beispiel einen Link einfach nur für Deutschland da ist, mit dem Encrotex Deutschland, dann verstehen wir ja, dass dieser Link im Zusammenhang wahrscheinlich mit diesen allgemeinen Flaggen kaufen zusammenhängt. Das heißt, wir sehen vielleicht ja den Kontext von diesem Link. Das heißt, dass es ja innerhalb dieser Flaggen kaufen, Übersichtseite zum Beispiel. Also solche Links sind dann auch gut, solche internen Links? Ja, auf jeden Fall. Okay. Okay, dann zu Search Console. Es gibt eine Seite mit nur 287 URLs im Bericht für Nutzerfahrung auf Mobilgeräten. Sie sind korrekt und keine Fehler. Aber diese Seite hat über 30.000 indexierte URLs. Und der primäre Board ist Googlebot Mobile. Warum sind im Bericht nur 200 URLs überprüft? Sollte ich mich darum kümmern, wenn es keine Fehler gibt. Es ist so, dass diese Aggregates Berichte, die wir haben, also das sind der Mobile Usability Report, die verschiedenen strukturierten Daten Berichte, die wir haben, die beziehen sich auf ein Sample der gesamten URLs, die wir haben, für eure Website. Und wir versuchen, diese Auswahl möglichst repräsentativ zu haben. Das heißt, wir versuchen herauszufinden, welche Seiten für euch relevant sind, für eure Website, die wir untersuchen sollten, diesbezüglich. Und da kann es durchaus sein, dass wir 30.000 indexierte Seiten haben, aber davon nur ein Stück in diesen Aggregates Berichten überprüft wird. Und die Idee dahinter ist einfach, dass in den meisten Fällen es ist ja so, dass wenn Probleme auftreten innerhalb einer Website, dann sind das allgemeine Probleme, die überall auftreten oder die bei diesem Seitentyp einfach regelmäßig auftreten. Und da ist die Idee, dass wenn wir da ein Sample von den gesamten Seiten der Website haben, dann finden wir solche Fehler auch. Das heißt, wenn in diesem Nutzerfahrungsbericht für Mobile-Geräten keine Fehler verwendet werden und da nur 200 URLs überprüft werden und man hat eigentlich viel mehr, dann kann man in der Regel davon ausgehen, dass der Rest der Website wahrscheinlich auch keine Fehler hat. Weil eben wie gesagt, die meisten Fehler sind ja Fehler, die sich wiederholen innerhalb einer Website, die sind nicht einmalig auf einer einzigen Website. Ich habe auch eine Frage zum Status gecrawlt, zur Zeit nicht indexiert. Die Anzahl der indexierten Seiten sinkt stetig und die Anzahl der Seiten mit dieser Warnung steigt. Und dies gilt zum Beispiel für korrekte Produktzeiten, die in der Vergangenheit indexiert wurden. Was könnte der Grund dafür sein? Ich weiß, dass es viele Faktoren gibt, aber vielleicht haben sie einige Ideen, was ich checken kann. Schwierig zu sagen, ohne die Website zu sehen. In der Regel ist es so, dass die Indexierung ist relativ dynamisch. Gerade bei einer größeren Website kann es durchaus sein, dass die Indexierung manchmal zunehmend, manchmal wieder ein bisschen abnehmend. Es ist selten der Fall, dass wirklich alles indexiert wird und von dem her hat man eigentlich immer einen rechten Anteil von URLs, die bekannt werden von Googlebot, die aber nicht indexiert sind. Und an und für sich ist das nichts, nichts außergewöhnliches. Wenn man sieht, dass über eine längere Zeit die Anzahl indexierter Seiten sinkt, dann ist das meistens ein Zeichen, dass unsere Systeme denken, dass es sich nicht wirklich lohnt, all diese Seiten separat zu indexieren. Und meistens heißt das einfach, dass man vielleicht irgendwie Google zeigen müsste, dass diese Seiten wirklich relevant sind und wichtig sind, dass man einfach insgesamt an der Website ein bisschen arbeiten müsste, um die gesamte Qualität der Website ein bisschen zu verbessern. Das heißt, in vielen Fällen ist das nicht irgendein technisches Problem, dass man da irgendein Metathag oder vielleicht HardTerminal nicht ganz sauber gemacht hat, sondern es ist einfach eher ein gesamthaftes Qualitätsproblem, dass wir nicht ganz 100% sicher sind, dass es nicht wirklich lohnt, all diese Seiten zu indexieren. Weil schlussendlich ist es ja so, dass wenn wir Seiten indexieren, die wir nie in den Suchergebnissen zeigen, dann haben wir die alle indexiert und verarbeitet eigentlich umsonst. Wir möchten ja eigentlich eher Seiten indexiert haben, die wir dann wirklich auch regelmäßig benutzt und zeigen können in den Suchergebnissen. Was könnte der Unterschied in Impression und Clicks im Desktop sein? Ich meine, es gibt deutlich weniger Impression auf Mobile. Stetig seit Anfang, aber in e-commerce Seiten auf diese Kategorie gibt es immer mehr Impressionen auf Mobile. Der primaren Wort ist Mobile Googlebot. Schwierig zu erkennen aufgrund von dem, weil grundsätzlich ist es so, dass wir versuchen, die Suchergebnisse über Mobile und Desktop ähnlich zu halten, aber die sind doch ein bisschen unterschiedlich. Je nachdem, wie wir die Seiten einschätzen, kann es durchaus sein, dass einige Seiten viel besser in den Suchergebnissen da stehen auf Mobile oder vielleicht auch schlechter da stehen im Verhältnis zum Desktop. Da kann es natürlich dann auch Unterschiede geben gegenüber Impression und der Position, vor allem auch bei diesen Seiten zwischen App und Mobile. Deswegen haben wir die auch separat aufgeführt in Search Console, damit man diese Unterschiede ein bisschen besser sieht. Bezüglich den primaren Wort für das Crawling und Indexieren ist an und für sich unabhängig davon. Das heißt, was man da eigentlich sieht ist das, was Benutzer in den Suchergebnissen sehen, nicht was wir vom Crawling und Indexing her verwendet haben. Ich betreue eine Website, die ich anbietet. Ich würde gerne in der Search Console die beiden Produkte separat tracken, allerdings laufen beide unter derselben URL. Einzig, die Verzeichnisse unterscheiden sich, also strich abc, strich 1, strich abc, strich 2. Gibt es dafür eine Möglichkeit? Ich vermute, dass die URLs an und für sich unterschiedlich sind, in diesem Fall, weil wenn die Verzeichnisse unterschiedlich sind, dann ist eigentlich schon mal die URL unterschiedlich, dann müsste man das eigentlich auch separat sehen. Wenn hingegen wirklich die genau gleiche URL verwendet wird für beide Produkte. Das heißt, wenn ich die Adresse per Copy and Paste in ein neues Browserfenster kopieren kann und ich sehe immer das gleiche Produkt, dann ist es effektiv so, dass wir nicht beide Varianten indexieren können. Dass wir auch nicht beide Varianten zeigen können in den Suchergebnissen, wir wissen ja nicht, was man machen müsste, um die andere Variante zu sehen. Und dementsprechend können wir das auch nicht in Search Console separat ausweisen. Das heißt, was man auf jeden Fall darauf achten müsste, ist, dass diese URL separat, oder dass diese Produkte auf separaten URLs sind, damit man die auch wirklich separat sauber indexieren kann. Wie kann ich die Deindexierung Recrawling von Seiten beschleunigen? Ich warte seit Oktober 2019. Über die Seiterfrage erscheinen immer noch Seiten, die raus sollten. Über Search Console URL-Inspectors sehe ich zum Beispiel teilweise letztes Crawling letzten August. Seitdem habe ich schon probiert. Wann wird spätestens ein Recrawling einer Seite gemacht? Spätestens ist schwierig zu sagen. Es gibt sicher Fälle, je nachdem wie das indexiert ist, dass es ein halbes Jahr oder länger geht, bis diese URLs neu gecrawlt werden. Das klingt so, als ob das jetzt eigentlich schon hinüber ist, also schon länger ist, als ein halbes Jahr. Aber das liegt an für sich trotzdem noch im Rahmen, wo ich sagen würde, das kann so passieren. Was da natürlich der Fall ist, ist, dass solche URLs, die so selten gecrawlt werden, auch eher URLs sind die sehr seltenen Suchergebnissen gezeigt werden. Das heißt, wahrscheinlich über normaler Suchen sieht man die gar nicht, sondern man sieht sie wirklich nur über eine Seiteabfrage, wenn man gezielt nach diesen URLs sucht. Und in solchen Fällen ist es effektiv auch nicht etwas, was den Nr. 1 aufwörtern würde. Wenn das Sachen wären, die wirklich nicht in den Suchergebnissen gezeigt werden sollten, wenn das zum Beispiel Inhalte sind, die man absichtlich gelöscht hat, wo man wirklich sicher sein möchte, dass sie nie gezeigt werden, sag ich mal, weiß ich nicht, eine Telefonnummer, die man aus Versehen veröffentlicht hat, dann würde ich über den Entfernungstools die Seiten einzeln herausnehmen lassen. Dann würde ich über den Entfernungstools die mal indexiert wurden und jetzt seit längerm nicht mehr existieren würde ich die einfach sein lassen. Dann würde ich da jetzt eigentlich nicht, sag ich mal, noch manuell die entfernen lassen oder unterdrücken lassen in den Suchergebnissen, einfach damit man die Seiteabfrage ein bisschen sauberer hat. Manchmal geht das einfach sehr lange, bis die wirklich rausfallen. Habt ihr denn ein maximales Recraw das überhaupt? Du hast gesagt August, aber ich meine ich hätte April geschrieben, ich sehe jetzt gerade meine Frage nicht. Wir sind schon drüber, also es gibt URL, sie sind schon über ein Jahr jetzt schon nicht mehr gekreut worden. Natürlich, wenn man jetzt danach sucht, zum Beispiel Autofahne-See-Schellen, das kommt natürlich ganz oben dann halt, aber es sucht keiner danach, also deswegen soll die Seite einfach aus und es gibt halt eine Übersichtseite, wo auch die Autofahne drin ist und wie soll dann dafür kommen, weil die werden dann stärker die Übersichtshalten. Also gibt es dieses was, was ich nach 1,5 Jahren nochmal Recrawling oder habt ihr nicht? Eigentlich nicht, nein. Bei uns ist es wirklich so, dass wir je nachdem wie es indexiert ist, haben wir einfach unsere internen Rechtlinien, dass wir versuchen, diese Seiten zu aktualisieren innerhalb einem gewissen Zeitrahmen, aber es ist nicht so, dass wir das noch nicht haben. Wo wir sagen würden, ab diesem Alter müssen wir sie einfach aus dem Index nehmen, egal ob wir sie neu gecrawlt haben oder nicht. Und wenn ich jetzt eine Sidemap einspiele, die jetzt alle meine No-Index-Produkte enthält, die auch schon raus aus dem Index sind, erkennt das Google und crawlt nicht die nochmals, sondern nur die, die noch drin sind, würde das vielleicht funktionieren? Das sind wahrscheinlich alle noch mal crawled. Gerade wenn jetzt als Änderungsdatum ein aktuelles Datum angegeben wird, dann würden wir die wahrscheinlich alle noch mal anschauen. Es hängt ein bisschen davon ab, wie wir insgesamt mit dem Crawling vorwärts kommen bei der Webseite, wie wir das einschätzen mit diesen URLs. Wenn wir die URLs anschauen und denken, die haben sich seit langer Zeit nicht mehr verändert, die müssen wir jetzt nicht mehr neu crawlen, dann kann es sein, dass wir die direkt so neu crawlen. Okay. Ich hätte dann noch eine Frage zu meiner ersten Frage mit diesem Flaggen kaufen. Und wenn jetzt nur der Text Deutschland flaggen erscheint, also ist ein Link besser oder sollte ein Link nur da sein, wenn man auch möchte, dass Deutschland flaggen die Seite dann noch im Index erscheint. Weil es gibt zum Beispiel verschiedene Piratenflagen und zum Beispiel Piratenflagenflug der Karibik haben wir jetzt zum Beispiel auch mit drin. Wo es jetzt kein Link auf der Seite gibt, sondern direkt in den Warenkorb legen. Also der Link fehlt einfach. Selbst wenn die Seite jetzt auf nur Index wäre, die folgende Seite aber der Link fehlt. Man kann es direkt in den Warenkorb legen. Ist es denn genauso jetzt von der Qualität her, dass der Link unter Text genau so zählt bei euch? Also ich habe gemerkt, eigentlich besteht da keinen Unterschied, ob es jetzt ein Link ist oder ob nur der Text vorkommt. Ja, wenn die verlinkte Seite eh mit einem No Index ist, dann ist es ja nicht so, dass wir mit der verlinkten Seite groß arbeiten können. Und dann sehen wir diesen Anchor Text einfach aus normalen Text auf der Seite an. Ich vermute, das geht in die Richtung bei dir, weil dann ist es ja anfühlt sich gleich, ob wir den Text Piratenflagen finden oder ob wir den Link finden. Weil der Link wirklich einen Link zu irgend einer anderen Seite, wo wir einen Kontext herstellen können. Sondern der Link geht ja auf eine No Index Seite, wo wir eigentlich diesen Link dann schlussendlich dann auch fallen lassen würden. Ja, genau. Also meine Frage wäre eigentlich dieser Kontext, also wie du den jetzt gerade was du jetzt gerade angesprochen hast, ist sowas besser, so ein Kontext zu haben. Also zum Beispiel dieses tiefer einsteigen in die Webseite. Also flaggen kaufen, dann kann man weitergehen oder jetzt Deutschland und so weiter. Ist sowas grundsätzlich besser, wenn es dann noch weiter geht? Oder ist genau das Gleiche wie nur No Index Seite dann praktisch? Das hängt ein bisschen davon ab, wie du es haben willst. Da gibt es keine definitive Antwort. Bei manchen ist es so, dass es Sinn macht, dass man da vielleicht die einzelnen Produktzeiten indexiert hat. Bei anderen hat man vielleicht weniger indexierte Seiten. Man konzentriert sich auf die Übersichtseiten, die man auch hat. Aber das ist schlussendlich eine Wahl, die jeder für sich treffen kann. Manche machen das auch unterschiedlich, dass sie sagen, diese einzelnen Produktzeit ist für mich so wichtig, dass ich sie separat indexiert haben möchte. Aber die anderen Produktzeiten, die ich habe, die sind nicht so kritisch, die möchte ich lieber auf No Index setzen. Das kann man auch machen. Also quasi dieses Abwägen zwischen einzelnen Seiten erstellen, damit sie auch separat da sind oder dass man einfach eine stärkere Übersichtseiten hat. Das kann man beliebig selber entscheiden. Aber wie wichtig ist der Kontext in diesem Ganzen? Wenn Sie immer so ordnete Suche, ich stelle mir das an so vor wie so eine Art Themen, also so ein Silo. Man geht rein in dieses Thema und wie wichtig ist dieser Kontext? Der ist vor allem wichtig für die verlinkte Seite. Das heißt, nicht unbedingt da, wo der Lenk rausgeht, sondern wo du hin verlinkt hast. Das heißt, wenn die Produktseite indexiert wird, dann hilft es uns zu verstehen, wie steht diese Produktseite im Gesamtrahmen der Website. Es ist nicht so, dass wir dann die Übersichtseite anschauen würden und dann da sagen würden, das sind jetzt verschiedene Links und Produkzeiten, also müssen wir das ein bisschen anders behandeln. Sondern es ist wirklich da, wo die Links hingehen, das ist für uns relevant. Danke schön. Bei unserer White Label Website wird der No-Index-Tag nicht erkannt und sie landet im Index. Wenn ich mir den Cash in den Suchergebnissen anschaue, befindet sich dort allerdings nicht die White Label Website, sondern unsere Hauptwebsite. Klick ich auf den Link in den Suchergebnissen, lande ich aber beim White Label. Hast du eine Idee, wie man das Problem lösen kann? Da müsste man wahrscheinlich die Suchergebnisse mal anschauen. Normalerweise ist es, also sollte eigentlich immer der Fall sein, dass wenn wir eine Seite crawlen, eine URL crawlen und da steht ein No-Index drauf, wir haben das verarbeitet, dann würden wir diese Seite direkt aus dem Index fallen lassen. Es ist ein bisschen schwierig zu erkennen, was jetzt effektiv hier passiert. Das klingt fast wie, als ob wir diese beiden Seiten indexiert haben und dass eine vielleicht eine Alternative von der Hauptseite ist und dass wir da vielleicht am Anfang den No-Index nicht gesehen haben. Wenn man vor allem vielleicht mal einen No-Index-Tag später dazu nimmt, dann kann das natürlich sein, dass wir erstmal die Variante ohne No-Index indexiert haben und dann erst den späteren Moment, wenn wir sie neu verarbeiten, sehen wir dann No-Index und lassen die Seite dann herausfallen. Aber dann müsste man effektiv die Seiten mal anschauen. Man kann ja auch die gecached Seite anschauen, ein bisschen von dem her abschätzen, ist da jetzt No-Index effektiv dabei oder nicht. Seit über 20 Jahren haben wir die deutsche Beschreibung der zwei Software-Produkte, die wir herstellen und direkt vertreiben, auf domain.net liegen. Früher war die englische Verletzung auf domain.net und diese seit anderthalb Jahren auf domain.com umgezogen. Wir haben allerdings den Eindruck, dass sich die Rankings davon noch nicht ganz erholt haben. Um nicht Österreich und Schweiz auszuschließen, haben wir in Search Console bisher nicht Deutschland als Lokalisation eingestellt. Jetzt werden bei uns wieder einmal die Stimmen lauter, dass die ein 1 zu 1 Umzug von domain.net auf domain.de favorisieren, damit klar einerseits die Interessen weniger verwirrt sind und das eben auch Google besser versteht. Aber stimmt das denn überhaupt, hätten wir nicht eher durch den ganzen Unruhen der 301-Redirects, eher sogar Nachteile durch den Umzug würden wir unsere über 20-jährige Reputation dadurch nicht wenigstens zum Teil riskieren. Ich vermute also so wie ich das hier einschätze klingt das, als ob man die gesamten Inhalte von domain.net auf domain.de weiterleiten würde. An für sich ist so ein Gesamtumzug relativ unproblematisch. Das heißt die Länderzuordnung ist natürlich dabei. Das heißt einmal ohne Länderzuordnung und einmal mit Länderzuordnung. Das kann ein bisschen eine Veränderung geben. Aber ansonsten, wenn das wirklich 1 zu 1 so weitergeleitet wird, sollte das etwas sein, dass eher unproblematisch ist, das ist in der Regel auch etwas, was wir relativ schnell verarbeiten können. Das heißt, wenn man das in Search Console angibt, dass man diesen Umzug gemacht hat, dann könnte ich mir vorstellen, dass vielleicht sogar innerhalb einer Woche alles verarbeitet ist und sauber umgezogen ist auf die neue Variante. Schwieriger wäre es, wenn man jetzt ein Domain aufteilen oder eben jetzt wie im vorherigen Fall, dass man da quasi die englische Variante raustrennt und auf einen eigenen Domain nimmt. Solche Veränderungen, wo man eine Website aufteilt oder zusammenführt, die sind immer ein bisschen schwieriger zu verarbeiten und das sind in der Regel auch solche Veränderungen, wo man schlecht vorweg sagen kann, wie sich das verändern wird. Und von dem her könnte ich mir schon vorstellen, dass gerade dieses herausnehmen der englischen Version, dass das ein bisschen kritisch ist oder gewesen ist und denke, dass wenn man jetzt umziehen möchte auf domain.de sehe ich da eigentlich keine großen Nachteile. Der einzige Nachteil ist natürlich die Länderzuordnung, dass man da halt sagt, das ist klar für Deutschland. Das heißt, wenn jemand in der Schweiz oder in Österreich nach etwas sucht und alles erwartet, dann könnte ich mir vorstellen, dass unsere Algorithmen sagen, das ist eine Website für Deutschland, vielleicht gibt es lokale Anbieter, die relevant sind. Wenn das hingegen Produkte sind, wo Benutzer in der Regel nicht quasi nach lokalen Ergebnissen suchen, dann denke ich, ist das auch unproblematisch. Also wie am Anfang steht ja, es sind Softwareprodukte. Meistens ist es so, dass die Softwareprodukte für alle Länder geeignet sind und von dem her denke ich, ist es wahrscheinlich weniger der Fall, dass jemand in der Schweiz sagt, ich möchte jetzt eine Software installieren, die speziell für die Schweiz ist die vielleicht trotzdem allgemein ist für alle Deutschsprachigen Benutzer. Wahrscheinlich ist das weniger so der Fall. Und von dem her, wenn man möchte auf domain.de umziehen, ist es eher unproblematisch in diesem Fall. Okay. Ich muss leider los. Das heißt, wir müssen ein bisschen kürzer halten. Machen wir es vielleicht so, wenn noch einer von euch eine kurze Frage hat, versuchen wir die noch reinzukriegen. Hallo, Christian hier. Ich mache vielleicht eine kurze Frage. Ich hoffe, die Antwort ist auch kurz. Und zwar, was mich interessieren würde bezüglich Bildersuche. Was Google ein bestimmtes Bild immer nur einmal indexiert, also das ist gerade im Hinblick auf Stockfotos eine interessante Frage. Oder kann es auch sein, dass das selbe Bild oder das gleiche Bild, muss man ja sagen, wenn es auf verschiedenen Seiten vorkommt, auch mehrfach im Index landet? Ich weiß, dass wir versuchen, auch die normale Canonicalization zu machen bei Bildern. Das heißt, wenn wir erkennen können, dass wir in einer Haupturale indexieren. Bei Bildern ist es aber auch oft so, dass das gleiche Bild unterschiedliche Inhaltsbeits haben kann. Dass wenn es neu komprimiert ist, dass es ein leicht anderer Datei ist. Da könnte ich mir vorstellen, dass es in manchen Fällen dazu kommt, dass wir die Bilder separat indexieren. Aber normalerweise versuchen wir das schon zusammenzuführen und sagen, das ist die Hauptversion. Das heißt, dass es in manchen Fällen unterschiedliche Inhaltsbeits gibt. Da könnte ich mir vorstellen, dass wir unterschiedliche Landingpages zu einem Bild haben und dass wir das dann separat zeigen würden in den Suchergebnissen. Aber in der Regel das Bild selber versuchen wir schon einmal zu indexieren. Das heißt, Google schaut schon in die Bilddatei unterschiedliche Größen vom gleichen Bild sind. Das kann man ja auch so ein bisschen herausfiltern in der Bildersuche. Okay, cool, danke. Okay, dann machen wir vielleicht hier Pause. Vielen Dank für das Kommen. Entschuldigung, dass wir ein bisschen kurz sind dieses Mal. Aber nächstes Mal haben wir sicher wieder ein bisschen mehr Zeit. Wünsche euch allen einen schönen Nachmittag noch und hoffentlich bis zum nächsten Mal wieder. Tschüss.