 Okay, hallo allerseits. Willkommen zum heutigen Webmaster SEO-Sprechstunden-Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Chance Analyst oder Search Advocate bei Google und Teil von dem, was wir machen, sind solche Webmaster-Sprechstunden, wo jeder dazukommen kann und seine Fragen rund um die Websuche entsprechend stellen kann. Es sind einige Fragen schon eingereicht worden, aber wenn einer von euch loslegen möchte mit einer ersten Frage, seid ihr gerne dazu eingeladen. Nicht speziell ist. Okay, ich denke, Zeit hat man auf jeden Fall, da komme ich sicher mal bei allen Fragen frei. Okay, die erste Frage, die ich hier auf der Liste habe, ist, wir betreiben insgesamt 25 Themen und Marken online Shops im Bereich Garden & House. Ich vereinfere das ein bisschen und ihr habt jetzt, ich glaube, ihr seid auch jetzt hier im Hangout dabei, aber ihr habt jetzt quasi ein Hauptjob auch dabei, wo alle Produkte aufgelistet sind und von dort aus mit einem Rail-Canonical auf die jeweiligen quasi separaten Domains auch gezeigt. Und leider merken wir, dass die Rankings seit dieser Umstellung bei allen Shops verschlechtert haben. Was ist hier die optimale Umsetzung, damit sich alle Themen Shops aufgrund von Duplicate Content nicht schädigen beziehungsweise runterziehen? Sollen wir die Seiten des Hauptshops zusätzlich auch nur Index setzen? Was kann man da machen? Grundsätzlich ist die Einrichtung so mit quasi dem Rail-Canonical zur Version, die ihr indexiert haben möchtet, ist allen für sich korrekt, von dem her sollte das eigentlich keinen großen, vielleicht mal negativen Einfluss haben, weil das ist ja eigentlich so, wie man das haben möchte. Was höchstens da passiert, ist, dass wir dann den Hauptjob diese Produkte halt nicht indexieren, weil wir erkennen können, dass die wirklich die gleichen Produkte sind und auf unterschiedlichen URLs und dass wir mit dem Rail-Canonical dann nur mit der quasi Themen spezifischen Version in der Suche das Ganze zeigen. Und an für sich ist das wahrscheinlich auch so okay und gewollt. Aus unserer Sicht ist das wichtig, damit man eben halt dieses Duplicate Content-Thema halt ein bisschen ansprechen kann, weil dann hat man nicht zwei unterschiedliche Websites, die an und für sich die gleichen Inhalte haben, die miteinander dann auch konkurrenzieren in den Suchergebnissen. Dann hat man quasi eine starke Seite, die sauber in den Suchergebnissen dargestellt werden kann und das ist an und für sich okay so. Bezüglich quasi der Verschlechterung verstehe ich nicht ganz, was die Situation vorher war. Karl, könnt ihr das vielleicht mal kurz erläutern oder was hat sich da verändert? Ich kann gern was zu sagen, hört man mich? Ja. Ja, genau. Ja, genauso wie er hat mir davor wie geschrieben, 25 einzelne Shops in den verschiedenen Themen, also Teich, Sauna, was auch immer und haben uns dann Anfang letztes Jahr eben dazu entschieden, auch noch einen Hauptshop zu erstellen, wo eben alle Produkte von den einzelnen drin sind. Genau, ich weiß nicht, was du genau mit der Frage meinst, aber das ist so, was passiert ist und wir merken, also wenn man so den Verlauf anguckt, wie stärker der Hauptshop wirkt, also er hat immer wieder mehr Rankings, desto schlechter und wirklich so ein Ebershop. Also meine Überlegen war, dass einfach Google sieht, okay, der Shop wird inzwischen so stark, dass man dann eben den, dass Google diesen Hauptshop priorisiert und die Ebershops dafür eben ja, untergehen oder schlechter werden. Okay, also... Okay, also es ist quasi die Umstellung, dass man überhaupt diesen Hauptshop eingerichtet hat. Genau, ja. Nicht, was da mit dem Canonical etwas geändert worden ist oder so. Nee, genau, so ein Canonical gab es schon immer. Ja. Ja, an und für sich kann das schon passieren, wenn ihr quasi einen neuen Shop einrichtet, der ähnlich oder quasi auch übergreifend für die anderen Shops da ist, dann kann es schon sein, dass sich die Stärke von, sag ich mal, von diesem Shopsystem insgesamt ein bisschen verteilt. Und dann je nachdem, wie die Konkurrenzsituation in den Suchergebnissen aussieht, dann kann das schon sein, dass dann die einzelnen quasi Themenshops ein bisschen weniger sichtbar sind. Von dem her ist das dann für sich, ja, kann passieren, ist nicht so, dass es unbedingt immer passiert, aber es ist auf jeden Fall eine Variante. Aus meiner Sicht, was eher, sag ich mal, von SEO-mäßigen her wahrscheinlich besser wäre, ist, wenn man einfach nur einen Hauptshop hätte, wo sich dann wirklich der Gesamtwert von all diesen einzelnen Shops konzentrieren kann, dass man wirklich einen sehr starken Shop haben und dass wir diese Seiten dann in Suchergebnissen zeigen können. Das ist natürlich jetzt quasi die extreme andere Umstellung, als was ihr jetzt gemacht habt, oder? Quasi von, erstmal den Hauptshop eingerichtet haben und wenn man jetzt den Hauptshop so einrichten würde, dass das quasi die Hauptvariante wäre, dann wäre das natürlich eine recht große Umstellung. Aus meiner Sicht, was dagegen sprechen würde, ist, wenn ihr wirklich diese einzelnen Themenshops so eingerichtet habt, dass sie wirklich nur ein ganz spezielles Publikum ansprechen. Dann könnt ich mir vorstellen, dass man sagt, gut, ich möchte nicht zu einem, ich weiß nicht, jetzt Garten- und Hausshop gehen, sondern ich möchte speziell zu einem Saunashop gehen, weil die kennen sich da am besten aus, irgend so etwas. Genau, das ist der Gedanke auch, gerade diese Markenshops, also eine spezielle Marke ist eben stärker, wie jetzt einfach ein allgemeiner Shop. Und ja, dann die Frage, wenn, um dieses Signal noch deutlicher zu machen, wäre es dann Sinn machen, also den Hauptshop zusätzlich noch auf die Seiten auf New Index setzen oder auf die Kategories Seiten zusätzlich, die sich irgendwie doppeln könnten, dass man das auch noch irgendwie klarer macht für Google. Ja, ich glaube, die Produktseiten auf New Index setzen, das würde nicht verändern, weil wenn wir diesen Canonical schon folgen, dann geben wir eigentlich diesen Wert schon weiter von den einzelnen Produktseiten. Was natürlich sein kann, ist, dass dieser Shop insgesamt schon ein bisschen Wert angesammelt hat, dass quasi Links auf den Domain allgemein da sind, dass Links auf einzelnen Kategorien da sind, dass wir da einfach wissen, gut, das ist insgesamt ein relativ guter Shop. Und dann kann man natürlich anfangen, einzelne Teilen vom Shop auch weiterzuleiten oder auch mit REL Canonical weiterzugeben, aber das wird wahrscheinlich sehr kompliziert dann, wenn man zum Beispiel die Kategorien weiterleiten möchte, welche Kategorie von welchem Themenshop würde da überhaupt passen. Und ja, ich weiß nicht, wie sichtbar diese Veränderung jetzt bei euch war. Ich vermute schon relativ sichtbar, sonst würdet ihr die Frage nicht so stellen. Ja, es ist auch nicht bei allen Shops, gerade das Gefühl bei den Shops, die auch insgesamt nicht so stark sind, dass es eben sei diese Umstellung ist, es ist eben nicht mehr hochgegangen, die Sichtbarkeit ist eher runter. Bei den starken Shops merken wir schon, dass auch noch der Hauptfokus auf bei Google drauf liegt. Aber wir haben das Gefühl dadurch, dass dieser Hauptshop immer stärker wird bei Google, dass dadurch dieser Shop eher priorisiert wird, statt diese kleinen Themenshops. Also ich denke, dass es immer halt die Frage, wie man das am besten aufteilt. Einerseits ist es aus Google sich besser, wenn man einen starken Shop hat. Aber es kann natürlich sein, dass man aus Marketinggründen sagt, ich muss aber trotzdem separate Shops haben. Und da irgendwie diesen Mittelweg finden, ist nicht immer super einfach. Und ich denke, da gibt es auch keine Antwort, die für alle Shops gilt. Es könnte zum Beispiel auch sein, dass ihr sagt, ihr geht von 25 Shops auf 15 oder 10 runter und macht einfach die anderen kleineren Sachen eher im Hauptshop, sodass das nicht ein bisschen gegenseitig verstärkt. Aber schlussendlich ist das eher, sage ich mal, eine strategische Entscheidung und nicht unbedingt eine SEO-Entscheidung. Okay, ja, ich denke, dass es auch in die Richtung gehen wird, aber dann wissen die mal, es ist soweit gescheitert. Bitte. Okay, da kommt der nächste Online-Shop. Unser Online-Shop ist in der Schweiz mit drei Sprachen aktiv, historisch gesehen sehr viele und starke Backlinks auf die Hauptdomain shop.ch, welche aktuell per 301 redirect weitergeleitet wird auf die Sprachversion shop.ch.de. Dieser permanente redirect führt zu Problemen mit dem Sprachwechsel. Daher möchte die IT dies wieder abändern auf einen temporären redirect, also 302. Wird die Kraft der Backlinks auf shop.ch trotz 302 redirect weitergegeben, oder ist diese dann verloren? Wie sollen wir hier am besten vorgehen, um die Kraft der Backlinks erhalten zu können, obwohl shop.ch ohne Sprachverzeichnis ja überhaupt nicht aufrufbar ist? 301, 302 ist total egal. Das heißt aus unserer Sicht, was da passiert, ist, wir haben die verschiedenen URLs, die an für sich zu den gleichen Inhalten führen. Das heißt, wenn wir shop.ch crawlen, dann sehen wir vielleicht die Inhalte von shop.ch.de, und wenn wir shop.ch.de crawlen, dann sehen wir auch die gleichen Inhalte. Und dann ist das für uns eine Frage der Canonicalization und nicht unbedingt eine Frage von, wie werden die Signale weitergegeben. Und beim Canonicalization versuchen wir einfach ein URL zu finden, welches am besten passt. Und dann nehmen wir solche Faktoren, wie quasi der redirect dazu, wie die interne Verlinkung ist, wie die sidemap-Datei aussieht, wie die externe Verlinkung ist. Und all diese Sachen kommen zusammen und wir versuchen dann, die bestpassende URL zu finden, die wir für die Suchergebnisse nehmen können. Und diese URL bekommt dann alle Signale, die zu diesen beiden überwiegend Varianten passen. Das heißt, alles bezüglich PageRank wird natürlich weitergegeben und all die, ich weiß nicht, hunderte andere Signale, die wir haben, die werden da auch entsprechend weitergegeben. Eine Sache, die wahrscheinlich da auch ein bisschen hineinspielt, ist, dass bei der Canonicalisierung achten wir auch darauf, dass wir möglichst eine saubere URL oder eine kürzere URL verwenden als Canonical. Ich könnte mir vorstellen, dass wir vielleicht auf Shop.ch irgendwie wechseln. Vor allem, wenn die externen Links auch auf Shop.ch zeigen, wenn ihr intern auch eher auf Shop.ch, auf diese quasi Haupturale verweist, dann könnte ich mir vorstellen, dass wir mit dem Canonical eher auf Shop.ch wechseln. Handeln fühlt sich, ändert das für euch nichts, außer, dass ihr in Analytics und in Search Console dort. Aber quasi den ganzen Signalen her und so vom Ranking her sollte das überhaupt nichts ändern bei euch für die Website. Wenn ihr die drei Sprach-Versionen habt, könnte man auch mit hflang arbeiten und da in einer solchen Situation, wo man die Homepage quasi als redirect einrichtet, würde man die Homepage als X-Default angeben und die einzelnen Sprach-Version einzelne auflisten. Das ist die DE, FR und IT-Version im hflang Set und dann noch den X-Default auf die Version quasi vom Hauptdomain. Auch wenn ihr auf dieser quasi root URL dort selber keine Seiten zeigt, sondern wenn ihr da nur diesen redirect einfach macht. Und mit dieser Konfiguration mit dem hflang sollten wir das eigentlich hinkriegen können, hflang ist in so einer Situation vor allem dann praktisch, wenn viele Leute zum Beispiel nach dem Markennamen suchen. Weil oft ist der Markenname ja nicht etwas, was konkret einer Sprache zugeordnet werden kann, sondern bedeutet an und für sich für uns jemand möchte zu eure Website gehen und dann müssen wir auf die Signale achten, welche Sprachvariante wäre die beste für die Website. Ich denke, das sind so die verschiedenen Sachen, die da noch einspielen könnten. Aber eben 301 oder 302 spielt an und für sich da keine Rolle. Wir unterscheiden schon ein bisschen bei der Canonicalization zwischen 302 und 301, aber es ist effektiv nicht so, dass die Signale dann verloren gehen, oder dass da irgendwie mit dem 302 alles blockiert wird. Ich denke, die quasi die diese, ich weiß nicht, Mythos dass das mit dem 302 alles verloren geht hängt eher damit zusammen, dass wir je nach Situation mit dem 302 eher die Ursprungs-Urall indexieren und nicht die Ziel-Urall. Das heißt, wenn man die Ziel-Urall kontrolliert in Analytics, dann hat man vielleicht das Gefühl, Google hat jetzt den Page-Rank verloren, weil die Ziel-Urall nicht mehr indexiert ist oder kein Traffic mehr bekommt. Aber an und für sich ist dann einfach die andere URL sichtbar und an und für sich vom Ranking verändert sich da eigentlich nicht. Das ist wirklich dann nur vom Monitoring her dass es dann ein bisschen anders ist. Es wird immer wieder behauptet, dass es dem Ranking schadet wenn grundsätzlich alle ausgehenden Links eine Website auf NoFollow geschaltet sind, stimmt das? Über eine leutende Antwort wäre ich hoch erfreut. Ja, an und für sich kann man das machen, dass man alles auf NoFollow setzt. Ich denke aus der Hinsicht von unseren SEO-Wichtlinien ist es an und für sich so, dass ihr das selber entscheiden könnt, ob ihr alle Outlinks quasi auf NoFollow setzen wollt. Ich könnte mir vorstellen, dass vielleicht die anderen Websites nicht wahnsinnig erfreut sind und dann vielleicht ein bisschen weniger bereit sind zu euch zu verlinken, aber das ist eher, sag ich mal, ein second-air Faktor. Intern bei uns vom Ranking ist ein bisschen so, dass wir auch darauf achten, wie ist diese Website eingebunden im Rest vom Web. Und wenn quasi alle Links auf NoFollow gesetzt werden, so dass man das Gefühl hat, sie trauen ja selber diesen Links nicht, dann ist es schwierig für uns zu sagen, ja gut, diese Links sind an und für sich wie ein Teil vom Inhalt und müssten quasi ein bisschen dazugezählt werden. Von dem her würde ich nicht grundsätzlich alles auf NoFollow setzen, aber ich würde auch nicht auf das andere wechseln, dass man wirklich einen stark sichtbaren Wechsel in den Suchergebnis sehen würde. Es ist wahrscheinlich eher wirklich ein sehr kleiner minimer Faktor, dass unsere Algorithmen da ein bisschen das Ganze leicht anders anschauen. Aus meiner Sicht würde ich insgesamt auch nicht einfach alles auf NoFollow setzen, einfach nur aus praktischen Gründen, weil das ist ja quasi ein einfacher Ausweg, dass man sich nicht überlegen muss, welche Links wirklich okay sind, aber wenn ihr Links habt, die wirklich okay sind, dann würde ich die doch einfach normal aus Links entsprechend implementieren. Ich hätte Fragen zum URL-Parameter-Tool in Search Console mit dem große Seiten eine Empfehlung abgeben können, welche Parameter beziehungsweise Parameterseiten für Googlebot oder der Googlebot nicht crown sollte. Funktioniert das Tool überhaupt? Wird das für das Tool eine Erneuerung geben? Das Tool funktioniert die Daten, die da dargestellt werden, funktionieren an und für sich nicht im Moment. Das heißt, wenn man in das Tool hineingeht, sieht man ja so viele URLs worden gefunden zu diesen einzelnen URL-Parameter und ich glaube, überall ist im Moment einfach auf 0. Und das ist seit seit langer Zeit leider schon so, aber es wird soweit ich das versstanden habe, wird an quasi einem Ersatz-Tool gearbeitet und jetzt inzwischen sagen wir gut, wir warten einfach bis das Ersatz-Tool fertig ist. Wann das fertig sein wird, weiß ich nicht. Aber die Einstellungen funktionieren, die die Auswertungen dort an und für sich nicht. Ja, da werden, da werden, früher war das so, dass man zu einem einzelnen Parameter, also wenn man irgendwas hat, Price, irgendwas und man sehen, wie viele URLs das betreffen würde und hatte so eine Beispielauswahl. Das ist jetzt erstmal alles quasi herausgefallen. Frage dazu noch, wenn ich jetzt 2 Parameter habe, einen neuen und einen alten, also wenn man in seinem Shop, ich weiß, sollte man natürlich nicht machen, aber wenn man die Parameter vielleicht mal umstellen muss, also den Seitenauswahl-Parameter zum Beispiel, wenn der alte Seitenauswahl-Parameter irgendwie war, alles klein geschrieben, Page, eckige Klammer, Null, eckige Klammer zu und dann irgendwas anderes. Das war der alte und der neue war oder ist, Page ist gleich und dann einfach die Zahl. Dann könnte ich das ja so machen, dass ich beide Parameter angebe. Also ich weiß, im Index wenn ich die Google Crawl die Seite und kenne beide Parameter eben und ich möchte natürlich das beschleunigen, dass dieser Umstieg von dem Alten auf die neuen Parameter sich schneller vollzieht. Jetzt die Frage, wie ich am besten vorgehe, natürlich muss man das von IT irgendwie weiterleiten lassen, dass man sagt, okay, diese alten Parameter leite sie entweder weiter auf den neue URL mit dem richtigen neuen Parameter oder leite sie einfach hart auf die Canonical, auf die Originalressource weiter, dass das halt ein relativ spitze Weiterleitung ist. Und dann ist die Frage, wenn ich beide angebe und ich gebe jetzt in diesem Parameter Tool an Page ist gleich und Page, eckige Klammer auf, dann könnt ihr das schon unterscheiden, wenn ich für beide Gruppen unterschiedliche Anweisungen gebe, wenn ich sage, okay, dass der neue Parameter sollen alle URLs gecrawlt werden und von dem Alten möchte ich eigentlich, dass gar nichts mehr gecrawlt wird. Ja, kann man machen. Nein. Um diesen Prozess also zu beschleunigen quasi. Ja. Ja. Ich weiß nicht, ob es die Umstellung beschleunigen würde, aber das kann man auf jeden Fall machen. Die eine Sache, wo man ein bisschen darauf achten muss, ist, wenn der Parameter Wert in eckigen Klammer ist, dann sehen wir das nicht als normalen Parameter an, sondern wir erwarten für das Parameter Tool wirklich der Name gleich und dann der Wert. Ja. Das heißt, wenn man quasi so ein Shop-System hat, wo dann es steht Page und dann in eckigen Klammern der Page-Nummer oder der Page-Name, dann würden wir das Ganze als ein Parameter ansehen und nicht quasi Page als der Name vom Parameter und dieser Page-Name dann als Wert. Das ist auch in der URL wahrscheinlich encoded an irgendwie so ein Kryptisch mit 0%, irgendwas D, irgendwie so. Es ist auch gar nicht so wichtig, mehr kam es nur darauf an, dass das URL-Parameter-Tool diesen Unterschied ausfindig machen kann und nichts sagt dann, okay, das ist beides Page, ich nehme nur die erste Anweisung zum Beispiel. Ja, das ist okay. Okay. Okay, prima. Danke. Und ich denke da erledigt sich dann auch der zweite Teil der Frage bezüglich Canonical No-Index und Robots Text, oder? Warte, ich muss gerade noch ein bisschen. Wie sollte ein Parameter-Seiten umgegangen werden, wenn diese nicht gekrollt und nicht indexiert werden sollen? Ja, also man kann nicht Robots Text, Tee und No-Index mischen, weil dann tauchen die Seiten trotzdem im Index auf und die Möglichkeit, die ich dann eben nutzen würde wäre es, diese Seiten auf No-Index zu stellen und eben über das Parameter-Tool zu sagen, nein crawl diese Seiten nicht, damit wir Crawl-Budget vielleicht einsparen können und damit halt der Aufwand minimiert wird und damit irgendwann klar ist für den Googlebot auch hey, das ist altes Zeug, das brauchen wir nicht mehr. Ja, das klingt gut. Dann können wir auch um Crawling her uns eher auf die neuen URLs konzentrieren und verteilt sich das ja automatisch weiter. Ja? Ja, genau. Cool. Okay, nach dem PageSpeed Insights Test erreichen wir bereits sehr gute Werte für die Core Web Vitals und der Seiten. Allerdings schneiden wir im Mobile im Lighthouse Performance Score relativ schlecht ab. Hier ist alles tiefrot, das hängt sehr stark mit JavaScript zusammen. Die Frage reicht es aus im kommenden Jahr für den PageSpeed rein auf die Core Web Vitals zu optimieren oder gibt es auch andere Metricen für die wir zwingend gute Werte erreichen sollten. Für, also wir haben ja bekannt gegeben, dass wir die Core Web Vitals als Teil von Page Experience Ranking Factor verwenden würden. Wir haben noch nicht 100%ig alles festgelegt und vom Datum her ist es glaube ich noch nicht ganz festgelegt, wann das passieren wird. Wir geben auf jeden Fall aber sechs Monate vorher Bescheid, damit man sich da konzentrieren kann auf diese Umstellung wenn man etwas machen möchte. Aber so wie es im Moment quasi vorgesehen ist würden wir da effektiv nur die Core Web Vitals nehmen für diesen Ranking Factor, also zusammen mit den anderen Faktoren wie bei Page Experience dabei sind, wie Mobile Friendliness Safe Browsing HTTPS und sonst noch etwas was ich vergessen habe. Aber das sind quasi die Standardsachen die wir sowieso schon nehmen als Ranking Factor und wir würden uns da wirklich nur auf die Core Web Vitals konzentrieren und wir würden uns da auf die Desktop und die Mobile Version separat konzentrieren. Das heißt, wenn die Desktop Version gut abschneidet und die Mobile Version weniger gut, dann ist entsprechend bei die Desktop Version das okay und bei der Mobile Version halt ein bisschen tiefer vielleicht vom Ranking her. Und von dem her, wenn man andere Geschwindigkeitsmetricen anschaut und sieht, die sind schlecht, aber die Core Web Vitals sind alles für sich alles okay, dann ist das eher eine Sache für euch und nicht eine Sache die wir direkt als Ranking Factor dazunehmen würden. Das heißt, für Benutzer ist das vielleicht etwas was ihr mal anschauen müsstet. Gibt es vielleicht da Veränderungen die für die Benutzer sichtbar sind wenn sie zum Beispiel ich sage jetzt mal wenn die Seiten normal schnell laden und die Core Web Vitals okay sind, aber das Einkaufen ist extrem langsam dann ist das ja nicht etwas, was wir direkt als Ranking Factor dazunehmen könnten aber bei euch vom Conversion Rate spielt das wahrscheinlich schon eine Rolle wenn quasi diese nächsten Schritte nicht so toll funktionieren. Und von dem her würde ich eher quasi diese anderen Tests als Hinweis nehmen und sagen das sind vielleicht Sachen die wir auch anschauen müssten, die müssten wir vielleicht einfach mal kontrollieren und überlegen macht es Sinn, dass wir uns da Zeit investieren oder nicht aber bezüglich vom SEO her vom Ranking her ist das quasi okay. Was bei den Core Web Vitals noch ein bisschen dazuspielt ist, dass wir nicht diesen Labortest machen quasi wir lassen den Test nicht künstlich durchlaufen um die Werte zu bestimmen, sondern wir sehen was Benutzer effektiv sehen und das sieht man in den Chrome User Experience Report Daten die dann auch zichtbar in Search Console sind. Das heißt wenn bei euch wenn ihr das quasi manuell testet die Core Web Vitals alles okay sind aber die Benutzer sind vielleicht eher ich weiß nicht in irgendeinem Land wo die Internetverbindung sehr schlecht ist und die sehen eine sehr langsame Webseite dann gilt natürlich das was die durchschnittlichen Benutzer gesehen haben nicht das was ihr da quasi manuell testet. Das spielt manchmal eine Rolle manchmal ist über bestimmt das relativ gut überein. Normalerweise ist da unsere Empfehlung dass man die Daten in Search Console nimmt und sagt gut das ist das was Benutzer im Moment sehen und wenn man da etwas problematisches sieht dass man dann über den Lab Test quasi hineingeht und versucht das nachzustellen und versucht herauszufinden wie können wir unsere Webseite entsprechend für das verbessern. Ja, ich denke das sind so die verschiedenen Varianten die da dazukommen können kurz gesagt wenn die Core Web Vitals für euch okay aussehen in den Chrome User Experience Report dann seid ihr da eigentlich schon schon einen Schritt voraus also mindestens ein halbes Jahr voraus sag ich mal bezüglich diesen Ranking Factor der da kommt. Wir betreiben einen Online Shop für LED-Leuchten, macht es SEO-technisch Sinn die Beschreibung eines Produkts zusätzlich auch in die Meta-Information das Produktbildes zu kreieren wenn ja in welche Alternativ Texts, Titel, Beschriftung Beschreibung wo kann man das dazunehmen grundsätzlich ist es so dass wir den Alternativ Text nehmen als etwas was bei uns dann quasi in Image Search eine Rolle noch dazuspielt und Alternativ Text sollte ja eigentlich das Bild beschreiben sollte nicht unbedingt die Produktbeschreibung sein sondern eher das was man sieht manchmal ist die Produktbeschreibung eigentlich das was man versucht darzustellen im Bild und dann wäre das an für sich auch okay vom SEO her ist es so dass wir das hauptsächlich für die Bildersuche verwenden das heißt wenn ihr Wert auf die Bildersuche legt dann macht es sicher Sinn dass man sich da auf den Alt Text konzentriert Alt Text spielt natürlich auch eine Rolle für alle Benutzer die die Bilder nicht direkt sehen können von dem her ist es nicht etwas was man nur für SEO machen müsste sondern macht auch allgemein Sinn wenn ihr hingegen eine Website Zeit wo ihr sagt Bildersuche ist für uns total irrelevant dann spielt zumindest aus SEO Sicht der Alt Text vielleicht weniger eine Rolle wie gesagt es macht trotzdem Sinn dass man das irgendwie verwendet für Benutzer die jetzt die Bilder nicht anschauen können aber für vom Ranking her spielt das wahrscheinlich weniger eine Rolle ich vermute mal für Shops mit LED-Leuchten oder mit vielen Möbel Shops solche Sachen macht es auf jeden Fall Sinn dass man die Bildersuche nicht vernachlässigt weil es gibt viele die suchen quasi über eine optische Suchmaschine und schließend dann auch erwerben möchten und von dem her würde ich schon vorschlagen dass man das ein bisschen auch anschaut und dass man vielleicht auch die anderen Faktoren anschaut die bei der Bildersuche eine Rolle spielen wir haben da eine Hilfeseite mit relativ viel Detail und dass man sich auch überlegt wie würden Benutzer über die Bildersuche zu eurer Website kommen und was möchten sie da sehen ich könnte mir vorstellen weil so ein Möbelshop ist das eher schnell nachvollziehbar wenn man jetzt eine Website hat ich weiss nicht für ein SEO-Agency oder so etwas dann muss man sich vielleicht schon das Ganze ein bisschen anders überlegen und denken macht es Sinn dass wir überhaupt viel auf die Bildersuche konzentrieren und wenn ja wie würde jemand über die Bildersuche zu uns kommen und die Frage ist natürlich auch wie würde jemand über die Bildersuche zu uns kommen auf eine Art und Weise die für uns auch praktisch ist das heisst wenn jemand einfach nach Bildern von LED-Leuchten sucht dann möchte die Person vielleicht nicht unbedingt jetzt gerade LED-Leuchten kaufen sondern einfach Bilder haben und vielleicht ist das für euch nicht relevant und dementsprechend ist es vielleicht auch so dass wenn ihr die Keywords anschaut die ihr in Search Console seht da ranken wir zwar nicht wahnsinnig toll bei diesen Keywords aber die sind für uns total irrelevant weil wir möchten ja nicht Bilder verkaufen, wir möchten die Produkte selber verkaufen und von dem her muss man das immer ein bisschen einzeln auch anschauen und überlegen was macht für unsere Website Sinn und wo müssen wir uns für unsere Website entsprechend auch konzentrieren wir waren uns unsicher ob das das Crawling unserer Seiten negativ beeinflusst daher haben wir den Googlebot wie ein Useragent ausgeschlossen das heisst der Googlebot bekommt den Banner gar nicht mehr zu sehen der User allerdings schon kann dieses Vorgehen als cloaking gewertet werden und zu einer Abstrafung führen ich denke da gibt es verschiedene Sachen die dazu zusammenkommen einerseits mal vorweg die Frage bezüglich einer Abstrafung oder manuellen Maßnahme das sehe ich als etwas was fast unmöglich ist in solchen Fällen weil das wird ja von unserem Website-Team manuell angeschaut und wenn sie sehen können dass die Seiten an und für sich equivalent sind quasi die Seite wie sie indexiert wird und wie der normale Benutzer die Seite sieht nachdem man vielleicht durch diesen Banner durchgegangen ist dann ist das an und für sich total egal das ist mal das eine das heisst vom Web-Spam her würde ich mir da keine Sorgen machen ich würde mir höchstens Sorgen dann Sorgen machen wenn niemand auf die Website gehen kann ohne dass man irgendwas kompliziertes ausführen muss auf diesem Banner wenn das wirklich nur eine Frage ist vom Ja oder Nein ob man das jetzt akzeptiert oder nicht dann ist das überhaupt kein Problem vermutlich spielt es auch sonst keine Rolle das heisst in den meisten Fällen die wir gesehen haben sind diese Banner einfach implementiert per JavaScript oder quasi ein HTML-Element was über der Seite positioniert wird und für uns sind solche Sachen eigentlich total okay und solange wir die Hauptinhalte trotzdem noch sehen können das heisst vermutlich auch mit diesem Banner je nachdem wir implementiert ist können wir die Seiten normal indexieren und vom Ranking her eigentlich keine Probleme da erwarten würden wo das nicht der Fall ist ist oft wenn man die Inhalte ganz weglassen muss wenn zum Beispiel die Inhalte erst über ein Cookie geladen werden können das heisst ich gehe auf die Website muss erstmal diesen Banner ausfüllen und dann wenn ich das akzeptiert werden die Seite neu geladen mit einem speziellen Cookie dabei und erst dann werden die Daten in der HTML-Version in solchen Fällen können wir natürlich nicht durch diesen Banner durchgehen weil Googlebot hebt die Cookies nicht auf und lädt die Seite dann nicht nochmal neu sondern würde dann quasi wirklich nur die Inhalte von diesem Banner sehen in den meisten Fällen ist es aber nicht so implementiert das heisst kurz gesagt vom Web Spam her würde ich mir keine Sorgen machen vom quasi der Art und Weise wie das implementiert wird kann man darüber streiten ob man das so blockieren soll dass Googlebot das gar nicht sieht oder ob das nicht nötig ist man kann das auch ausprobieren aber anfühlt sich ist das eher euch überlassen eine Variante die noch noch ein bisschen dazu eine Rolle spielt ist das vom cloaking her theoretisch möchten wir dass Googlebot das sieht was ein normaler Benutzer vom gleichen Standort aus auch sehen würde und Googlebot crawlt mehrheitlich aus Amerika eigentlich fasst alle Websites aus Amerika aus das heisst wenn ihr für Benutzer in Amerika diesen Banner nicht zeigen müsst dann ist das sowieso gar keine Frage vom cloaking her dann könnt ihr auch Googlebot diesen Banner müsst den einen für sich auch nicht zeigen je nachdem wie ihr das implementiert habt oder wie ihr das machen müsst mit diesem Banner spielen da die verschiedenen Sachen eine Rolle um WebStamp her keine Sorgen machen und ob ihr das jetzt so implementiert dass Googlebot das nicht sieht andere sehen das schon oder ob ihr da irgendein Mittelweg findet oder da einfach allen diesen Banner zeigt und Googlebot kann das quasi ignorieren beim Indexing das ist anfühlt sich euch überlassen in unserer Website sind Descriptions gepflegt die Descriptions sind vor einigen Wochen bereits hinterlegt worden der Google Cash der Seite ist vom 25.10. noch wird mir eine falsche Description in Google Suchergebnissen angezeigt die Description ist im Quellcode korrekt und in Search Console korrekt nur in den Suchergebnissen werden sie noch nicht dargestellt wo liegt der Fehler das kann manchmal passieren das heisst wir versuchen ja den Snippet und den Title den Suchergebnissen auch anzupassen das heisst wenn jemand gezielt nach etwas sucht und wir wissen diese Seite wäre dazu relevant und wir denken das ist für den Benutzer hilfreich wenn wir das entsprechend auch zeigen in den Suchergebnissen im Snippet oder im Title dann versuchen wir das einzubinden auch wenn dieser Text im Moment jetzt nicht mehr auf der Seite direkt sichtbar ist das heisst das kann passieren dass es manchmal da so diesen zeitliche Differenz gibt normalerweise pendelt sich das relativ schnell wieder ein das heisst nach ein paar Wochen ganz verschwunden von diesen Seiten wir müssen ihn gar nicht mehr zeigen im Snippet oder im Title das mal die eine Variante wenn man das dringend machen muss wenn man zum Beispiel aus irgendwelchen rechtlichen Gründen darf man diesen Namen nicht mehr erwähnen oder darf man dieses Textstückchen nicht mehr darstellen in den Suchergebnissen kann man über den Cash Entfernungstool arbeiten in Search Console und sagen dass diese Seite hat sich verändert und das Snippet und der Cash sind im Moment veraltet und was dann passiert ist dass wir im ersten Moment den Snippet nicht mehr darstellen den Title zeigen wir weiterhin an und die gecachede Seite wird entsprechend auch nicht mehr verlinkt in den Suchergebnissen und wir versuchen dann möglichst schnell die Seite zu aktualisieren vollständig bei uns im Index mit neuen Snippet entsprechend darstellen können das heißt für kritische Fälle wo man wirklich dringend das austauschen muss kann man damit arbeiten für normale Veränderungen innerhalb einer Website macht das weniger Sinn weil man muss das pro URL machen das heißt man müsste da manuell alle einzelnen Seiten einfügen und sagen jetzt haben wir da eine Veränderung gemacht ihr müsst das so schnell wie möglich wieder darstellen ich denke für normale Veränderungen macht es auch keinen Sinn weil das Snippet verschwindet ja im ersten Moment erstmal ganz aus den Suchergebnissen und erst nach ein paar Tagen kommt das Snippet dann wieder zurück mit der neuen Seite das heißt bei normalen Veränderungen hat man dann eher quasi in diesen paar Tagen Fenster den man da hat hat man dann eher einfach schlechtere Suchergebnisse weil man gar kein Snippet mehr hat in den Suchergebnissen unsere Admins ist sehr schwer damit statt 302 Redirect eher 301 Redirect anzugewöhnen Angst vor 301 Caching bei fehlerhaften Angaben lohnt es sich die ganzen teporellen Redirect permanent umzustellen zu lassen oder kann man das vernachlässigen an und für sich wir haben das vorhin schon mal angeschaut mit 302 und 301 an und für sich sehe ich da keine große Veränderungen die man sehen würde in den Suchergebnissen ob wir jetzt 301 oder 302 nehmen würde die Signale werden normal weitergegeben es ist für uns höchstens eine Frage vom Canonicalization quasi welches von diesen beiden URLs würden wir darstellen in den Suchergebnissen und wenn das für euch egal ist quasi ist eine oder andere dann ist es für sich okay längerfristig würden wir 302 Redirect eher als permanent Redirect anschauen und von dem her wenn man jetzt mal ein Domainwechsel macht von einem Domain auf einem anderen und mit 302 Redirect arbeiten muss, weil das aus irgendeinem Grund nicht anders möglich ist dann würden wir das längerfristig sowieso auch als 301 anschauen dann ist es quasi ein Soft 301 aus unserer Seite von dem her denke ich dass man dann nicht anfühlt sich wahrscheinlich gar keine SEO Veränderung bezüglich Ranking oder Sichtbarkeit oder was auch immer sehen würde wenn man jetzt von 302 auf 301 Redirect umstellen würde super, danke ja also ich mein theoretisch wenn man jetzt wirklich einen permanenten Redirect macht ist theoretisch 301 schon richtig aber ich kann auch die Angst ein bisschen verstehen dass man eher mit 302 arbeitet ja wir müssen damit leben irgendwie geht das schon wir haben eine Couponing Website und es kommt häufiger vor, dass wir zu einem Shop keine Gutscheine mehr haben wir zeigen in solchen Fällen ähnliche Shops an und bieten die Möglichkeit sich per E-Mail informieren zu lassen wenn es wieder Gutscheine gibt wäre es sinnvoller, dass wir diese Shops auf eine Fehlerseite umleiten und dort mehr Informationen haben wir haben nämlich in den Server-Logs festgestellt das Google und glaube ich viel Zeit mit diesen alten Seiten verschwendeten die aktuellen Trotzverlänkung nicht zeitnah crawled theoretisch kann man das auf beide Varianten machen an und für sich der Unterschied den wir da sehen würden ist ob man da quasi eine Seite einfach darstellt aus mittels 200er Response Code wo dann drauf steht diese Inhalte sind moment nicht verfügbar oder ob wir das als 404 anschauen würden das heisst wenn ihr all diese Seiten auf eine separate Seite weiter leitet die zum Beispiel keine Gutscheine heisst dann würden wir das als Soft 404 anschauen ähnlich wie wenn ihr direkt eine 404 Fehlerseite machen würdet wo etwas Ähnliches draufstehen würde vom Crawling her ist natürlich ein sauberer 404 viel besser für uns weil wir sehen dann viel schneller wir müssen diese Seite weniger häufig crawlen wir können quasi die quasi mit niedriger Priorität crawlen und unsere Zeit mehr auf die anderen URLs der Website konzentrieren an und für sich wäre das so die optimale Variante man kann natürlich auch eine Zwischenlösung machen dass man sagt wenn wir sehen wie ein Produkt quasi nicht mehr verfügbar ist für eine kurze Zeit und zeigen wir die Seite weiterhin in den Suchergebnissen an mit 200er Status und lassen Benutzer sich quasi anmelden damit sie per E-Mail Bescheid bekommen wenn wir wissen dass dieses Produkt schon länger nicht mehr vorhanden ist dass man dann einfach stark auf ein 404 wechselt und sagt wir haben wirklich nichts zu diesem Thema und so kann man ein bisschen von beiden Seiten auch dann die Vorteile herausholen das heißt wenn wenn es etwas ist was mal da ist mal nicht da ist dann habt ihr immer noch diese stabile Seite wenn es dann zu etwas wechselt das längerfristig wirklich nie mehr vorhanden ist dann habt ihr den 404 Status und dann wissen wir dass wir diese Seiten ein bisschen weniger schnell oder weniger häufig crawlen müssen das wäre an und für sich mein Vorschlag da vom Zeitraum her wie lang man quasi diese Inhalte zeigen sollte oder nicht das hängt ein bisschen von euch ab ihr seht ja auch wie schnell sich quasi diese Produkte oder die Cubans verfügbar sind oder mal nicht verfügbar sind dann kann man da ein bisschen entscheiden macht es Sinn dass man das 14 Tage oder 30 Tage oder ein Jahr beibehält dass es euch eher überlassen wann sollte man das auf High Date sowohl Sidemap als auch MedaTag und gegebenfalls hat tp header ändern als Beispiel ein Blog Posting hier können sich ja verschiedene Inhalte auf der Seite verändern ich würde aktuell dazu tendieren das in jeder der folgenden Fälle zu aktualisieren einfach um in Googlebot zu sagen dass sich da etwas verändert hat würdet ihr das als Spam ansehen oder passt das also mal schauen wenn ihr ein weiter Blog beitragt das ist klar und da hat sich ja eigentlich der Hauptinhalt geändert das klingt schon gut bei neuen Nutzer-Kommentaren oder wenn im Sidebar ein Blog automatisch relevante verwandte Artikel geändert werden oder bei neuen Votings wenn Google quasi neue Sternen Rich Results zeigen kann ja an und für sich kann man das in diesen Fällen machen was sich unterscheiden würde ist das Datum in der Sidemap und das Datum was ihr auf den Seiten selber angebt das heißt das Datum direkt auf der Seite sichtbar ist ja eher auch das was wir manchmal in den Suchergebnissen zeigen würden und das würde ich eher auf das abstimmen was was er den Hauptinhalt entsprechend betrifft das heißt wenn man ein Artikel hat das geht drauf es wurde zuletzt heute geändert und an und für sich ist die Änderung dass irgendjemand ein Plus bei den Sternen dazu gefügt hat dann als Benutzung macht das ja nicht wahnsinnig Sinn, dass man sagt was hat sich heute verändert sondern der Artikel ist ja eigentlich das gleiche wie es vorher schon war und von dem her würde ich für die sichtbare Daten wirklich mich auf das konzentrieren was im Hauptartikel entsprechend da betrifft es wirklich eher einfach dass die html Seite neu gekraut werden kann und da könnt ihr durchaus sagen halt diese quasi Events führen dazu da, dass die Seite jetzt anders ist, dass sie neu gekraut werden soll. Ich würde da trotzdem nicht 100%ig jede Veränderung dazu nehmen manche Websites haben zum Beispiel Veränderungsdatum eine Website insgesamt oder einfach das aktuelle Datum im Futter irgendwo dabei und solche Sachen machen natürlich weniger Sinn, dass man die in der Sidemap-Datei auch angibt, weil dafür ändert sich ja wirklich nichts, was irgendwie in den Suchergebnissen sichtbar relevant sein könnte aber wenn, wenn man jetzt neue Kommentare dazu hat wenn die rich results wenn das Structuredata sich verändert hat wenn, ich weiß nicht neue Bildbeschreibungen vorhanden sind das sind alles Elemente, die für uns in der Suche ja sichtbar sein können und von dem her macht es auch Sinn, dass wir die Seiten neu kreuen uns ist in den Logs aufgefallen, dass Google immer alte URLs aufruft und diese auch zum großen Teil indiziert hat in Search Console steht dann zum Beispiel eine andere als vom Nutzer gewählt Canonical festgelegt, diese URLs verwenden wir seit fast 2 Jahren nicht mehr Google Luft sieht dennoch ständig wieder auf, zum Beispiel ohne htdps unser Server gibt dann einen 301 zurück, weil alle non-SSL Aufrufe auf SSL weiter geleitet werden, dort erhält Google dann ein 404 Error, weil es den alten Link natürlich nicht mehr gibt kann es sein, dass euer Bodge durch den 301 verwirrt ist und deshalb immer wieder Versuche URLs aufzurufen obwohl dort ein 404 Error kommt sollte eigentlich nicht sein, dass wir von einem 301 quasi verwirrt werden, weil wir folgen ja diesen 301 direkt und sehen dann an für sich den 404er Status auch, aber was normal ist aus unserer Sicht ist, dass die alte URLs einfach gelegentlich nochmal aufrufen zum kontrollieren, ob dass wir wirklich nichts verpasst haben gerade wenn wir irgendwelche externen Links noch gefunden haben zu diesen alten URLs wenn sie einfach sehr relevant waren früher irgendwann mal, dann schauen wir sie ab und zu an und über die Jahre hinweg kann das natürlich sein, dass wir dann eine relativ große Menge an alten URLs angesammelt haben, die wir alle ab und zu mal kontrollieren und wenn man die Log-Date einzeln anschaut dann sieht das vielleicht so aus, als ob wir die Stände kontrollieren aber das ist effektiv so, dass das bei uns als niedriger Priorität für das Crawling ist und wir schauen die einfach ab und zu an, wenn wir genügend Kapazität haben vom Crawling das heißt, sie blockieren das normale Crawling vom Rest der Website nicht, sondern sie sind einfach noch zusätzlich dabei und von dem her muss man da eigentlich nichts Spezielles machen wenn Google diese URLs crawled und ein 404er Status sieht ist das total okay, dann ist es ja eigentlich für uns ein Zeichen wir haben das, was wir gefunden haben mal schauen, ob wir da noch neue dazu haben oder gibt es vielleicht von euch aus irgendetwas? Hi John ich habe gerade eine Frage getippt, aber du fragst ja gerade würde ich das einfach persönlich stellen und zwar habe ich dich auf Twitter auch schon gefragt vielleicht ist das übersehen worden aber wir haben festgestellt, dass in letzter Zeit wieder gelegentlich Videos oder Embads oder YouTube Videos in unseren Artikeln dazu führen, dass ein falsches Artikelalter in den Serbs dargestellt wird und ich erinnere mich, dass das 2016 mal ein Issue war was eigentlich gefixt wurde, aber wir sehen dass es immer noch ab und zu passiert und deswegen wollte ich fragen, ob das eventuell was ist, was entweder wieder aufgekommen ist oder vielleicht für uns aus irgendeinem Grund wieder ein Problem ist ja da heißt ich jetzt von nichts was man da also was man machen kann ist mit dem Datanow Snippet arbeiten, dass man da das ganze Embad quasi als nicht ein Teil vom Snippet markiert so könnte man das an und für sich umgehen ich weiß nicht ob das Sinn macht in solchen Fällen, weil dann würden wir ja auch das Gefühl haben, das ist keine Video Landing Page oder keine Bild Landing Page vielleicht ist das für euch quasi nicht so die optimale Lösung aber ich wäre auf jeden Fall froh wenn du mir einige Beispiele mal schicken könntest entweder auf Twitter oder auch direkt ich komme hier mal kurz meine E-Mail-Adresse hier rein in den Chat, weil dann kann ich das mit dem Team auch mal anschauen weil es sollte eigentlich nicht sein dass wir über den Embad das Datum herausholen und das dann sagen, das ist das Datum was für diese Seite gilt es ist oft tatsächlich so das Datum aus den strukturierten Daten des Videos dann herangezogen wird und das natürlich dann doof wenn das Video von gestern ist, der Artikel wurde vor zwei Stunden neu publiziert und dann steht da aber in den Serps, dass der Artikel ein Tag alt ist genau ich schick dir gerne mal was zu ein Beispiel wenn ich was kenne da sehe ich gerade im Chat noch eine andere Frage gibt es etwas Neues zum Thema Tool zum Einreichen von URLs im Moment habe ich da eigentlich nichts Neues aber ich weiß da Fragen alle möglichen nach ich frage mal beim Team nach immer nach ob wie da der Status ist oder ob man da was machen kann um das ein bisschen schneller wieder hinzukriegen ich habe dazu noch eine Frage ist das Bing hat ja in den Webmaster Tools fast so ein Echtzeit-Indexing Tool eingereist plant ihr sowas in die Richtung oder wolltet ihr einfach nur mal die Codebase überarbeiten bei uns geht es eher darum dass wir einfach das intern ein bisschen besser überarbeiten ich weiß nicht wie das bei Bing ist aber zumindest auf unserer Seite ist es so, dass wir extrem viel Spam über diese Funktionalität kriegen und das ist eher das womit die Teams dann entsprechend auch kämpfen einerseits und dann auch die ganze Kette weiterhin bis zum Indexing her und da könnte ich mir vorstellen dass die Teams nicht wahnsinnig darauf interessiert sind noch mehr Möglichkeiten zu machen wie man solche Sachen einreichen kann aber es gibt natürlich auch genug Leute die das zu den richtigen Zwecken verwenden und da möchte mir schon eine Möglichkeit haben, dass es wirklich auch funktioniert eine Anschlussfrage gibt es irgendwie ein Workaround ob wir auch ein Sidemap neu einreichen oder ich könnte auch mal so ein altes Snippet-Validation-Tool drüber laufen lassen hat das auch irgendeine Auswirkung dann, dass die wenn ich eine neue Seite oder eine neue Bereich habe, dass der schneller wahrgenommen wird Sidemap-Datei hilft auf jeden Fall weiter wenn das quasi relevant verlinkt wird innerhalb der Website hilft das auch ein bisschen weiter das heißt, wenn wir jetzt neue Produkte hatten die von der Homepage verlinkt und sagt quasi, das sind meine neuen Produkte macht ja auch Sinn, dann sehen wir das viel schneller und denken, ah, wir müssen das effektiv anschauen sieht aus, dass es überhaupt was Wichtiges ist wenn es quasi bestehende Seiten sind die sich verändert haben kann man auch mit dem Cache Update-Tool arbeiten aber wie gesagt, da ist es natürlich so dass dann erst für, weiß nicht, 1, 2, 3 Tage dann das Snippet erstmal ganz verschwindet aus den Suchergebnissen das aktualisiert wird manchmal ist das fast schlimmer als, wenn man einfach wartet bis es normal aktualisiert wird ja, das würde dann aber nur für bestehende Seiten schon zutreffen, wenn die Seite komplett neu macht es ja spitze keine Rolle ja, genau danke cool, okay, zeitlich haben wir es geschafft vielen Dank für die vielen Fragen so, dass es gerade aufgeht super morgen haben wir gleich auf Englisch nächsten Hangout, wenn ihr wollt könnt ihr gerne auch dazu stoßen eben wie gesagt, vielen Dank fürs Kommen und ich wünsche euch noch einen schönen Nachmittag tschüss allerseits