 OK. Herzlich willkommen beim heutigen Google Webmaster Central Sprechstunden Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Trans Analyst hier bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster Hangouts für Webmaster, SEO, Publisher, alle möglichen, die gerne mit der Website und mit der Websuche zu tun haben. Wie immer sind da schon recht viele Fragen eingereicht worden. Aber wenn einer von euch zwei loslegen möchte mit irgendeine Frage von eurer Seite, könnt ihr gerne anfangen. Von meiner Seite aus nicht. OK. Gut. Dann legen wir halt mal los. Mal schauen, was wir da am Anfang alles haben. Eine bisschen außergewöhnliche Frage. John oder Johannes. Grundsätzlich funktioniert für mich beides. Ich verwende meistens Johannes in deutschen Sprachraum und John im Englischen. Irgendwie hat sich das so eingependelt. Scheint recht gut zu funktionieren. Aber kein, ich weiß nicht, geht eigentlich beides. Dann eine zweite Frage. URLR bekommt 80% Traffic. URLB bekommt 20% Traffic. Und dann ein Canonical von B auf A. Wie geht Googlebot mit dem um? Ist das problematisch oder nicht? Aus unserer Sicht würde das in der Regel eigentlich schon klappen. Gerade bei AB-Tests macht man das ja häufig, dass man doch zwei URLs hat. Und die testet man dann. Und per Canonical sagt man, aber das ist eigentlich die URL, die ich so indexiert haben möchte. Und das ist aus unserer Sicht ganz OK. Wichtig ist einfach, dass ein URL Canonical ist für uns schon ein Zeichen, dass ihr diese andere URL bevorzieht. Aber es ist nicht so, dass wir die einfach blind folgen. Das heißt, es kann durchaus sein, dass wir das Gefühl haben, dass eigentlich müsste diese URL selbstständig auch stehen. Und dann kann schon sein, dass wir die separat auch indexieren. Das heißt, ich würde einfach schauen, dass Sachen wie zum Beispiel internal links, das sitemaps, hreflang, was auch immer man sonst irgendwie verwendet, zum angeben, welche URLs wichtig sind, dass die dann wirklich auch klar auf die Version zeigen, die man eigentlich indexiert haben möchte. Und je klarer die Zeichen sind, umso eher folgen wir diesen Hinweisen dann entsprechend auch. Ich behandle eine Unterseite von mir derzeit zwei Themen, zum Beispiel Euro und Dollar. Nun möchte ich die beiden Themen auf zwei separate Seiten aufsplitten und erweitern. Wie kann man das machen? Grundsätzlich, was ich da empfehlen würde, ist, dass man eine solche Aufteilung, wenn man die machen möchte, dass man ein redirect von der bestehenden Seite zu ein von diesen beiden Varianten macht, dass man sich überlegt, welches dieser Seiten ist vielleicht die Hauptvariante oder das Hauptthema gewesen und dass man dann ein redirect auf diese Seite entsprechend macht. Einfach damit man sicher ist, dass alles fast bisher angesammelt wurde mit dieser Seite, die jetzt zwei Themen hat und dann aufgeteilt wird, dass das möglichst auch weitergegeben wird. Das heißt, wenn ich das auf eine 404 umstelle, die alte Seite und die zweiten neuen Seiten einfach neu erstelle, dann ist es so, dass die zwei neuen Seiten müssen dann ganz von Anfang an quasi für sich neu kämpfen. Und das macht es dann auch ein bisschen schwieriger und das geht dann entsprechend schon ein bisschen länger, bis wir das dann ein bisschen besser verstehen und bis wir innerhalb der Website das entsprechend auch ein bisschen besser aufteilen können. Das heißt, möglichst entweder eine behalten und da das auch Thema belassen oder wenn man das aufteilt, dass man auch eine Weiterleitung von der alten Seite zu eines von diesen beiden neuen Seiten macht. In Search Console gibt es im Punkt links zu Ihrer Website. Leider fehlen da einige Backlinks. Was hat das zu bedeuten? Das ist an und für sich normal. Das heißt, wir zeigen ein Ausschnitt aus den Links zu einer Website jeweils in Search Console. Wir versuchen da einen relevanten Ausschnitt zu nehmen. Das heißt, nicht ganz alles und nicht ganz irgendwie alles mögliche Wilde, was wir auch noch gefunden haben, sondern irgendwie etwas, was für euch interessant sein könnte und was für euch hilfreich sein könnte. Und die zeigen wir dann entsprechend in Search Console. Wenn da einige Links fehlen, ist das meistens nicht ein Zeichen, dass die Links schlecht sind oder das Google, die gar nicht gesehen hat, sondern das betrifft dann einfach halt, wie wir diese Auswahl getroffen haben für euch. Und die Auswahl ist nicht ausschlaggebend auf, wie das in der Suche behandelt wird. Das heißt, auch Links, die No-Follow dabei haben, die können dort erscheinen. Links, die allgemein nicht gezählt werden können dort erscheinen. Zum Beispiel, wenn ich mit der Disservow-Datei arbeite, erscheinen die Links dann trotzdem noch dort. Das heißt, ich würde mir da nicht allzu viel Sorgen machen, wenn einzelne Links nicht aufgelistet sind oder wenn einzelne noch aufgelistet sind und die wollt ihr eigentlich gar nicht dazugenommen haben. Wir zählen Non-Hyperlink-URLs von anderen Seiten auch aus Backlinks. Haben die den gleichen Wert wie normale Hyperlink-Backlinks. Wir sehen solche Links, das sind ja eigentlich nicht richtig Links, sondern wenn einfach jemand eine URL irgendwo reinschreibt, quasi im Text, wir sehen die Show und wir verfolgen die in dem Sinne, dass wir versuchen zu sehen, ob da Inhalte sind, die wir jetzt noch nicht gesehen haben, die wir vielleicht indexieren müssten. Aber die zählen nicht wie normale HTML-Links. Das heißt, es wird kein Page-Rank weitergegeben, keine Signale werden da weitergegeben. Wir verwenden die eigentlich nur zum Aufwinden von neuen Seiten, die wir vielleicht bisher nicht gesehen haben. Und von dem her sind sie schon ein bisschen anders. Wir erzählen mit unserer Website, mit einem Keyword-Portfolio von circa 5 Keywords, weltweit gute Rankings, in den Niederländen und Polen haben wir jedoch schlechter Rankings. Unsere Website ist soweit gut. Was könnte da der Grund sein? Ich habe mir das kurz angeschaut vorher. Grundsätzlich sehe ich da eigentlich nichts Außergewöhnliches. Es ist an und für sich normal, dass eine Website, auch wenn sie global tätig ist, dass sie nicht automatisch in allen Ländern auch gleich rankt. Das heißt, es kann durchaus sein, dass eine Website in einigen Ländern sehr stark vertreten ist und auch sehr stark in den Suchergebnissen sichtbar ist. In anderen Ländern halt nicht so wahnsinnig stark vertreten ist, sondern entsprechend in Suchergebnissen auch nicht so wahnsinnig stark ist. Das ist eigentlich normal. Und das hängt eigentlich mehr damit zusammen, dass man halt die Website vielleicht in einzelnen Ländern halt auch ein bisschen ausbauen muss oder ein bisschen bekannter machen muss, damit das alles auch ein bisschen besser klappt. Eine Sache, die ich gesehen habe bei euch, ist, dass ihr ein X-Default mit hreflang verwendet. Und für den X-Default-Wert habt ihr da eine ungültige URL. Das heißt, ihr habt hrttps und dann ein Strich und dann euer Domainnamen statt zwei Striche. Das heißt, den X-Default da können wir so nicht verarbeiten. Ich denke, das hat keinen Einfluss auf die Niederländer in Polen, weil da habt ihr ja für diese Länder auch separate hreflang Einträge. Grundsätzlich habe ich gesehen, dass ihr sehr viel verschiedene hreflang Einträge habt und sehr viel verschiedene einzelne Versionen habt. Ich frage mich, ob das vielleicht Sinn machen würde, dass man sagt, gut, wir machen einfach einzelne Länderversion oder einzelne Sprachversion und weniger diese ganzen Kombinationsversion. Dass man sagt, wir einlanden alle verschiedenen Sprachversion, sondern dass ihr wirklich ein bisschen zurückgeht und ein bisschen weniger Version habt. Und dadurch werden die einzelnen Versionen dann auch jeweils ein bisschen stärker, weil wir halt wirklich alle Signale auf diese Länderversion zum Beispiel nehmen können, ohne dass wir das aufteilen müssen in noch einzelne Sprachversionen oder umgekehrt, wenn man Sprachversionen hat, dass man diese paar Sprachversionen wirklich einfach stark beachten kann und nicht das Ganze noch weiter aufteilen muss auf einzelne Länderversionen. Ich weiß nicht, wie weit das für euch überhaupt machbar ist, wie ihr da in diesen Ländern vertreten seid. Ich denke einfach, dass es immer etwas, worauf man ein bisschen achten muss. Gerade wenn man jetzt nicht so wahnsinnig starke Mark vertreten ist, dass man nicht automatisch einfach alles aufsplittert und viele Versionen macht, sondern dass man sich überlegt, wie viele Versionen brauche ich wirklich? Wie viele Versionen kann ich wirklich stark vertreten und dass man diese Versionen dann macht und mit denen einfach weiterarbeitet? Dann eine Frage zu einem neuen Search Console. Da sind einige URLs markiert mit Noindex und da ist die Frage, warum das so ist. Die Beispiel-urals, die da angegeben sind, habe ich mal angeschaut. Und was ich gesehen habe, ist, dass wir die zwischendurch mit einem HTTP-Header X-Robots Noindex gesehen haben. Das heißt, im Moment sind sie ganz normal, indexierbar, aber früher waren die wenigstens für eine kurze Zeit mit dem HTTP-Header Noindex versehen. Und das ist wahrscheinlich das, was ihr jetzt in Search Console seht. Das heißt, wir haben das irgendwie erkannt und wir möchten euch das eigentlich zeigen, dass ihr das auch mal anschauen könnt. Ich glaube, diese URLs sind im Moment auch normal indexiert. Das heißt, eigentlich ist das jetzt okay. Also ist das Problem an und für sich behoben. Ich würde mir einfach wirklich überlegen, wo könnte das herkommen? Das heißt, wenn ihr diesen HTTP-Header Noindex nicht gesetzt habt, wenn sonst niemand von der Webseite den gesetzt hat, wo konnte der herkommen? Wie kann es passieren, dass das mal vorhanden ist und dann mal wieder weg ist? Ist das vielleicht irgendwas technisches auf eurer Seite? Ist das vielleicht vom Hosting her irgendetwas, was da aus Versehen passiert ist? Ich würde versuchen, den ein bisschen auf den Grund zu gehen, weil das wäre an und für sich schon etwas problematisches, wenn auf einmal irgendwie der Rest der Webseite auch ein HTTP-Noindex drin hätte. Dann würden die Seiten natürlich aus dem Index verhalten. Dann eine Frage bezüglich hreflang mit dem Schweizer Shop und ein Pop-up und links zwischen den einzelnen Versionen. Ich habe das vorhin mal kurz angeschaut, zumindest die Homepages von verließen Webseites und die scheinen eigentlich soweit normal indexiert zu sein. Das heißt, ich würde da jetzt eigentlich nicht erwarten, dass da irgendetwas vermischt wird. Es steht auch, dass du das im Moment jetzt gelöst hast. Wenn du willst, kannst du mir gerne ein bisschen mehr Information darüber schicken, dann kann ich das hier auch mal genauer anschauen, gucken, was ist da schief gelaufen beziehungsweise warum hat das nicht geklappt, wie ihr das am Anfang umgesetzt habt. Weil gerade mit dem hreflang ist natürlich wichtig, dass wir einerseits die verschiedenen Versionen sehen können, dass wir auch die Inhalte sehen können, dass wir erkennen können, dass die Inhalte auch wirklich eindeutig sind für diese einzelnen Länder und dass die hreflang Verbindungen auch wirklich sauber gesetzt werden. Manchmal klemmt da bei ein von diesen Varianten irgendetwas und manchmal ist das nicht besonders klar in Search Console, was man da jetzt als nächstes machen kann. Was haben wir da noch? Hreflang kommen immer wieder Fragen. Wir haben AT, CH, DE, FR und UK Shops. Sollen wir alle Länder per hreflang verbinden? Gibt es irgendwelche Vorteile? Bisher haben wir nur AT, CH und DE verbunden. Grundsätzlich würde ich schon empfehlen, dass man da die verschiedenen Versionen verknüpft. Ich vermute, dass bei den Sprachen, dass es relativ wenig Überschneidungen gibt, dass ihr wahrscheinlich nicht wahnsinnig viel sehen würdet von einer hreflang Verbindung zwischen diesen Sprachversionen, besonders wenn ihr andere Namen verwendet, auch in den verschiedenen Sprachen. Das heißt, bei den Sprachversionen macht es z.B. dann sehen, dass man die hreflang Verbindungen hat, wenn man sieht, dass Leute gezielt nach der Firma suchen, gezielt nach irgendeiner Marke suchen, die wirklich auf all diesen Varianten vorhanden ist, wo unsere Systeme aufgrund von der Suchanfrage selbst nicht 100%ig sicher sind, welche Sprachversionen sollen wir zeigen? Das heißt, wenn jemand in ein dieser Ländern sucht und gezielt nach eurer Firma sucht und die Firma hat den gleichen Namen in all diesen Sprachversionen, dann wissen wir manchmal nicht, welche Version wir zeigen können. Und dann hilft uns der hreflang zwischen den Homepages, z.B. von diesen Websites, ein bisschen herauszufinden, ja, das ist die Version, die der Besucher suchen. Wenn hingegen euer Firmennamen oder die Markennamen anders sind in den einzelnen Sprachversionen, dann besteht das Problem ja viel weniger. Dann sucht jemand in England nach dem englischen Namen, in Frankreich nach dem französischen Namen von eurer Firma und dann kommt ja euer Homepage in der Sprache automatisch, weil euer Homepage ist natürlich gezielt angepasst auf diese französische Variante oder die englische Variante. Das ist ja gerade bei Österreich, Schweiz und Deutschland ist das ein bisschen schwieriger, weil da ist ja die gleiche Sprachversion und da ist meistens auch der gleiche Firmennamen. Das heißt, da hilft es auf jeden Fall, wenn wir da hreflang das ein bisschen gesondert herausholen können. Aber über Sprachbarrieren hinweg kann man sich natürlich überlegen, kann ich mir diesen Aufwand sparen? Muss ich das machen? Muss ich das nicht machen? Es gibt auf jeden Fall keinen Nachteil, wenn man das verknüpft. Aber wie alles andere auf einer Website, alles was man einbindet und was irgendwie technisch korrekt eingebründen werden muss, hat dann natürlich immer wieder ein Wartungsaufwand. Das heißt, wenn ihr im Moment keine Probleme seht in den einzelnen Sprachversionen, dann würde ich das eher sein lassen. Du, John, ich habe jetzt noch eine Frage zu der vorherigen Frage, weil du hast gesagt, das wird jetzt noch einmal kurz schicken. Also, es ist halt so, dass jetzt im Moment in Österreich, auf Google Österreich, die Titel, also die Titel von dem deutschen Online Shop erscheinen. Wir haben halt in dem Titel selbst drin, also flaggenplatz.de als Domainname und der erscheint jetzt auch in der Suche in Österreich. Ich habe das jetzt erst mal so gelöst, dass ich halt die Domainname rausgenommen habe. Da kämpft es halt auch falsch. Also, also Frage ist nur, wo kann ich es hier hinschicken, dass du vielleicht nochmal drüber guckst? Am einfachsten schickst es mir vielleicht direkt per E-Mail zu. Einfach meinen Twitter-Namen at google.com. Okay, alles klar. Also, so wie ich das im Moment hier sehe ist, sieht das eigentlich okay aus. Das heißt, die österreichische Variante haben wir separat indexiert. Wir wissen auch als Titel für die Website und für die Seiten insgesamt, dass da flaggenplatz.at steht. Ich weiß nicht, ob das zwischendurch vielleicht irgendwie mal gewechselt hat oder ob das irgendwie sonst noch irgendwas komisch ist. Aber ich schau mir das gerne an, wenn du mir die Angaben mal zuschicken kannst. Okay, also es ging eigentlich los seit dieser neuen Dark-Schutz-Verordnung. Also so ungefähr ab dem 25. Mai, dann weiß ich auch nicht. Also, ich habe ein bisschen was geändert. Klar, ich musste was ändern. Aber okay, ich schick sie dann zu. Alles klar, danke. Okay, gut. Okay. Wo sind die ganzen Fragen? Da haben wir sie. Link-Titel-Attribute braucht man die oder nicht? In der Regel braucht man die nicht. Link-Titel hilft meistens dann, wenn jemand ein, ja, es ist ein Screenreader verwendet, um die Seiten zu lesen, dann kann man ein bisschen besser erkennen, was bedeutet dieser Link, wo geht das hin? Aber einfach das gleiche Wiederholen, was eh schon im sichtbaren Titel im sichtbaren Link ist, das bringt auf jeden Fall nichts. Das heißt, wenn man wirklich etwas gezieltes hat, was man da angeben kann mit dem Titel, würde ich das machen. Aber ich denke, aus SEO Gründen, das Gleiche einfach wiederholen, macht auf jeden Fall keinen Sinn. Dann eine Frage zum Artikel in Website-Boosting über das Thema Verlinkung. Das war einmal etwas Spannendes, was wir zusammen mit Mario gemacht haben. Da eine Frage bezüglich NoFollow und NoIndex und DoFollow quasi, wie das funktioniert. Und ich denke, das ist ein Thema, was vielleicht eigentlich für über längere Zeit hinweg ein bisschen falsch verstanden war oder beziehungsweise von unserer Seite auch vielleicht falsch erklärt wurde. Beziehungsweise uns vielleicht nicht 100%ig bewusst war, was alles da passiert. Und was eigentlich gerade bei dem Bereich NoIndex passiert, ist, dass wir die Seiten, die NoIndex haben, die behalten wir kurzfristig zwar schon im Index. Das heißt, wir wissen, was sie existieren. Wir wissen, welche Links auf diesen Seiten sind. Wir zeigen sie nicht in den Suchergebnissen. Aber längerfristig können wir sehen, dass sie für längere Zeiten NoIndex haben und denken, ja, gut, es lohnt sich nicht, diese Sachen aufzuheben, wenn sie sowieso nicht indexiert werden wollen. Also nehmen wir sie ganz raus. Und wenn wir sie ganz rausnehmen, dann nehmen wir auch alle Links raus, die auf diesen Seiten sind. Das heißt, wir haben dann keine Angaben über diese Seiten mehr bei uns im System. Und in solchen Fällen sind natürlich auch alle Links auf dieser Seite werden an für sich ignoriert. Weil wir haben sie nicht mehr. Wir brauchen sie anscheinend nicht für unser Index. Laut euren Angaben, wenn da NoIndex steht. Und dementsprechend reichen sie auch keine Signale weiter. Und das ist natürlich ein bisschen etwas, was vielleicht ein bisschen verwirrend ist, weil gerade auf Seiten, die zum Beispiel Paginierung haben, dass man sagt, ab vielleicht der zweiten oder dritten Seite möchte ich, dass diese Varianten nicht mehr bei euch indexiert werden. Dann nehme ich ein NoIndex drauf. Aber ich habe dann trotzdem ein Follow-Robots-Metathag noch dabei. Und die Idee ist ja, dass Google wenigstens diesen Links dann folgen kann und die einzelnen Zielseiten dann wenigstens indexieren kann. Und meistens funktioniert das schon problemlos, dass wir da erst mal die Seiten quasi in unserem System haben. Wir wissen zwar mit NoIndex, wir folgen diesen Links weiter, wir finden die ganzen Details-Seiten. Längerfristig ist es aber so, dass wir die Seiten, die NoIndex haben, dann halt trotzdem rausnehmen aus unserem System. Und entsprechend müssen dann diese Details-Seiten müssen eigentlich für sich selbstständig stehen. Das heißt, es muss zumindest so sein, dass irgendwie sonst in der Alper-Website, die irgendwie verlinkt sind, dass wir die Seiten immer noch finden können, dass wir immer noch den Kontext von diesen Seiten finden. In der Regel ist das überhaupt kein Problem. Viele Produkte sind ja in verschiedenen Kategorien oder Kategorienvarianten. Oft sind die Produkte ja auch untereinander verlinkt. Oft hat man dann auch vielleicht irgendwie Aktionen, die besonders hervorgehoben werden auf der Homepage. All solche Sachen helfen uns natürlich, dass wir diese Produktseiten trotzdem weiterhin finden können. Und von dem her, wenn das bei euch bisher geklappt hat mit der Indexierung der Website, dann würde ich mir da keine Sorgen machen. Ich wäre mir einfach bewusst, dass alles, was quasi mit NoIndexer sehen ist, ist längerfristig, diese Links dann auch nicht gezählt werden. Das heißt, wenn ihr technisch gesehen sicher sein wollt, dass alle eure Seiten gefunden werden, würde ich einfach dafür sorgen, dass alle diese Seiten irgendwie von einer indexierten Seite innerhalb euer Website auch verlinkt sind. Und eben wie gesagt, in den meisten Verhältnissen ist das überhaupt kein Problem. Ich habe eigentlich, bisher habe ich noch keinen Fall gehabt, wo jemand zu uns gezielt gekommen ist und gesagt hat, warum werden diese Produkteseiten nicht indexiert? Die sind ja auf Seite 4 von dieser paginierten Liste, die zwar auf NoIndex gesetzt ist, aber da steht ja Follow dabei, also müsst ihr das eigentlich verfolgen. Bisher ist mir noch kein solcher Fall über den Weg gelaufen. Und dementsprechend haben wir das auch nie irgendwie groß weiterverfolgt intern, weil es war ja eigentlich nie ein Problem. Aber es ist natürlich ein bisschen anders, als was man sich gewohnt ist, dass man sagt, ich habe NoIndex und ein Follow auf einer Seite, das wird dann trotzdem verarbeitet. Längerfristig ist das wirklich nicht gefallen. Wie sollten denn dann die Parameter-Anstellungen auf einer Search-Konsole sein, wenn man jetzt paginierte Seiten auf NoIndex hat? Da habe ich jetzt zum Beispiel eingestellt, alle Seiten mit dem Page-Parameter sollen gekreut werden. Eigentlich kann man das dann auch ausschalten. Könnte man auch, ja. Okay. Beziehungsweise, man kann ja, glaube ich, angeben, dass der Parameter für Paginierung verwendet wird, dass man das irgendwie trotzdem erkennen können, was mit diesem Parameter gilt. Aber grundsätzlich könnte man das auch in dem Parameter-Handling-Tool so entsprechend auch machen. Ich würde einfach, ich weiß jetzt nicht, wie die einzelnen SEO-Tools das angehen, wenn sie in einem Website crawlen. Wenn man natürlich da direkt auch sieht, dass die Seiten nur von NoIndex-Seiten verlinkt werden, dann würde ich mir überlegen, wie könnte man das anders gestalten. Aber wirklich in den meisten Fällen oder in allen Fällen, die ich bisher angeschaut habe, war das bisher eigentlich noch nie ein Problem. Das heißt, es ist wahrscheinlich eher ein theoretischer Unterschied und nicht unbedingt etwas, wo man sagen muss, aus praktischen Gründen muss ich jetzt bei den ganzen Websites untersuchen und das Ganze irgendwie umstellen. Bei meinem Kunden habe ich das Problem, dass in den Suchergebnissen der Title-Tag irgendwie falsch angegeben wird. Das heißt, es steht Logo und dann der Website-Name. Ich habe verschiedene Möglichkeiten versucht, den angezeigten Titel zu ändern. Die anderen Suchmaschinen haben den Titel innerhalb von Tagen übernommen. Änderungen, Description jedoch werden Google innerhalb von Stunden übernommen. Was könnte das sein? Ich habe das, glaube ich, ganz kurz angeschaut. Und eine Sache, die dann ein bisschen das Ganze schwieriger macht, ist, dass die Homepage von der Website, die hat jedes Mal ein Redirect gleich auf eine neue URL. Das heißt, immer mit Fragezeichen und dann V-Gleich und irgendeine Version. Und das macht es besonders schwierig für uns, das Ganze irgendwie sauber zu crawl und zu indexieren. Das heißt, jedes Mal sind wir eine neue Version. Wir müssen dann zurückgehen und merken, die neue Version ist eigentlich gleich wie die alte Version. Wir können sie zusammenklappen und wir können uns auf eine Homepage konzentrieren. Aber das macht das Ganze extrem viel schwieriger für uns, weil wir da jedes Mal erst mal neu beurteilen müssen, wie soll man diese Website behandeln. Das andere, was ich gesehen habe, ist, dass dieser Text Logo und dann euer Name ist effektiv, ich glaube, der erste Text auf der Seite. Und da könnte ich mir schon vorstellen, dass unsere Systeme denken, gut, der erste Text auf der Seite, das ist vielleicht etwas Wichtiges. Das könnten wir auch als Titel in den Suchergebnissen zeigen. Und wahrscheinlich ist das bei euch jetzt nicht unbedingt der Fall. Und vielleicht macht es das Sinn, dass man da irgendetwas anderes da entsprechend als ersten Text auf der Seite auch noch dazu nimmt. Ich glaube nicht sonst, der Title ist ja auch angegeben. Der Title auf der Seite sieht nicht wahnsinnig Keyword-Stuffing aus und von dem her könnte ich mir schon vorstellen, dass da unsere Systeme einfach in beiden Varianten ein bisschen hin und her schwanden. Eine Frage bezüglich Canonical-Statnoindex, also wahrscheinlich auf diesen parkinierten Seiten, ob man per Canonical arbeiten soll, Statnoindex. Grundsätzlich kann man das schon machen. Wir klappen die verschiedenen Seiten dann zusammen und indexieren dann aber auch nur die erste Seite. Das heißt, wenn man ab Version 2 ein No-Index hat, dann fällt ja diese zweite Seite irgendwann aus dem Index heraus. Wenn man Canonical hat, dann wird die auf jeden Fall nicht verwendet, dann nehmen wir eh die erste Seite. Das heißt, die Links auf Seite 2 und so weiter, die werden dann entsprechend auch gar nicht mehr berücksichtigt, wenn wir den Canonical haben, ob die erste Seite sehen. Schwieriger ist natürlich, dass wir beim Canonical versuchen auch festzustellen, ob die Seiten wirklich equivalent sind. Und wenn wir sehen, dass sie nicht equivalent sind, dann nehmen wir den Canonical an und für sich auch nicht so. Oder vielleicht nicht besonders 1 zu 1 Grad. Und gerade bei parkinierten Seiten sind ja auch unterschiedliche Produkte auf diesen Seiten. Da könnte ich mir schon vorstellen, dass unsere Systeme manchmal sagen, warte, die Seiten sind nicht wirklich 100%. Gleich, die müssen vielleicht separat indexieren. Mal schauen, wie das alles weitergeht. Da sind gleich noch weitere Fragen zur Sprachversion und HF Langtags, wie man das besser machen kann. Ja, vielleicht muss man das irgendwie ein bisschen besser mal auf unserer Seite nochmal untersuchen, was da genau schiefgeht mit diesen einzelnen Versionen, dass man da schauen kann, dass man das ein bisschen besser hinkriegt. Beziehungsweise, dass man auch vom Testing her und von der Dokumentation das ein bisschen besser angeben kann, dass da weniger schiefgeht. Gerade im deutschen Bereich ist das natürlich besonders problematisch, wenn man da Deutschland, Österreich und die Schweiz hat und dann die Schweiz noch als Sonderfall mit einer anderen Behrung, ist das natürlich immer ein bisschen verwehrend. Vor knapp 8 Jahren im Hilferforum hast du etwas gesagt, dass man Suchergebnisse zur Seite besser nicht indexieren, dass sie wenig oder kein Mehrwert bringen. Ist das immer noch der Fall oder kann man inzwischen alles blind auf Index stellen? Also grundsätzlich in unseren Verbesserrichtlingen ist es, glaube ich, immer noch so drin, dass man Suchergebnisse, Suchergebnisse seiten eher vom Indexieren und vom Crawling her ausschließen soll. Es gibt zwei Hauptgründe dafür. Einerseits ist es einfach das Praktische, in dem es in das oft Suchergebnisse Seite unendliche URLs enthalten können. Das heißt, man kann da unendlich Keyword-Varianten quasi bei der Suchanfrage eingeben und dann gibt es immer wieder neue Seiten. Das heißt, vom Crawling her, einfach vom Praktischen her ist es manchmal ein uferloses Fass, weil es geht da quasi endlose URLs, die da vorhanden sind. Und das lohnt sich oft, dass man das irgendwie ein bisschen zurückhält und ein bisschen schaut, dass Google sich ein bisschen auf die relevanten URLs beim Crawling konzentrieren kann. Das andere ist, dass die Qualität von diesen Suchergebnissen manchmal ein bisschen zweifelhaft. Das heißt, ich kann oft bei Websites irgendein Begriff oben eingeben und dann kommen mir irgendwelche Artikel, die auf dieser Website sind, die zu diesem Begriff sind und die Umstellung da nicht besonders gut. Das heißt, ich kann auch ein Themenfremdeswort oben eingeben und dann kommen irgendwelche Artikel dazu, aber es ist eigentlich nicht eine gute Website, an die man Benutzer direkt schicken kann. Und von dem her lohnt es sich, zumindest aus Qualitätsgründen, das auch ein bisschen zurückzuhalten und vom Indexing auszuschließen. Das heißt, es sind eigentlich die Hauptgründe. Je nachdem, wie man das gestaltet, kann es natürlich sein, dass man da diese Sachen auch gut abdecken kann. Dass man sagen kann, ich lasse nur relevante Begriffe indexieren, nur Begriffe, die für die ich auch wirklich gute Inhalte habe. Ich kann irgendwie sicherstellen, dass die Inhalte, die ich auf diesen Suchergebnisseiten bringe, dass die wirklich auch relevant sind und hilfreich sind. Manchmal sind das zum Beispiel auch Tagseiten, die man hat, wo einzelne Artikel mit einem Thema quasi markiert sind. Und theoretisch sind das Suchergebnisseiten, aber aus praktischen Gründen sind das eher wie Themen seiten oder eher wie Kategorien seiten. Und das ist natürlich vollkommen okay. Das heißt, der Übergang zwischen Suchergebnisseiten, die man nicht indexieren will und Suchergebnisseiten, die eigentlich okay wären, ist ein bisschen schwierig zu definieren. Und dementsprechend kann es natürlich auch sein, dass unsere Systeme das nicht 100% immer erkennen können. Aber ich denke, ihr als Webmaster kennt natürlich eure Webseite ein bisschen besser und wisst schon ein bisschen eher, welche Seiten sind für euch wirklich gute Seiten, die indexiert werden sollen und welche Seiten sind Sachen, die eigentlich nicht so wahnsinnig indexiert werden sollten. Wenn man die Webseite per Mobile Subdomain abholt, müsste man da den Canonical von der Desktop-Version auf die Mobile-Version ändern oder nicht. Wir haben beschlossen, dass man das nicht verändern muss, dass man da weiterhin diese Verknüpfung von der Mobile-Version zur Desktop-Version mit dem Canonical hat und von der Desktop-Version zur Mobile-Version mit dem Link-Rail-Alternate für die Codegründe dafür. Einerseits wollen wir nicht das Webmaster auf irgendein bestimmtes Signal auf einmal alles umstellen müssen. Ich denke, das ist meistens ein Rezept für ein Chaos und das klappt meistens nicht besonders gut. Das heißt, einfach möglich das alte Beiberhalten, wie das funktioniert, wenn wir das weiterhin so verwenden können. Das andere ist, dass wir trotzdem noch eine Verknüpfung zwischen der Mobile-Version und der Desktop-Version haben müssen. Das heißt, wenn die Mobile-Version allein steht und als Canonical markiert wird und die Desktop-Version nur auf die Mobile-Version verknüpft, dann sehen wir von der Mobile-Version aus, nicht welche Desktop-Version dazugehören. Dementsprechend wissen wir dann auch nicht in den Suchergebnissen, wenn jemand mit einem Desktop sucht, welche URL wir da entsprechend zeigen müssen. Das heißt, wenn wir die Mobile-Version und der Desktop-Version haben und wir versuchen, das Leben ein bisschen einfacher zu machen, in dem wir nicht verlangen, dass ihr alles von ein Moment auf den anderen umstellt oder umdreht in die andere Richtung umbauen müsst, sondern wir versuchen, das auf unserer Seite für sich zu lösen. Ich vermute, bei der Dynamic-Serving, wo sie dann automatisch die verschiedenen Versionen mit der gleichen URL ausgeben, aber zumindest im Moment versuchen wir diese Websites trotzdem noch voll zu unterstützen und natürlich auch voll in der Suche auch zu zeigen. Es gibt ja viele gute Websites, die trotzdem eine separate Mobile Subdomain verwenden. Seit ein paar Tagen bleiben unsere Google-Index-Löschaufträge in der Search-Cancel stehen. Gibt es da ein Problem oder ist da irgendetwas bekannt? Mir ist eigentlich nichts bekannt. Wenn du willst, kannst du mir gerne ein paar Beispiele zuschicken, dann kann ich das hier mal genauer anschauen. Grundsätzlich ist es so, dass zum Löschen von URLs gibt es ja die beiden Varianten. Einerseits über Search-Cancel und einerseits direkt. Und wenn man das direkt macht, dann ist aus unserer Sicht nicht 100% garantiert, dass unser Search-Cancel-Konto das wirklich knüpfen kann. Und dann kann es sein, dass unsere Systeme erst mal diese Löschaufträge genauer untersuchen wollen, bevor sie die dann entsprechend auch umsetzen. Das heißt, wenn man es in Search-Cancel macht, dann glauben wir euch blind und denken, ihr seid wirklich der Besitzer dieser Website, ihr könnt uns genau sagen, was ihr indexiert haben wollten, was nicht. Wir verfolgen diesen Löschaufträgen innerhalb meistens weniger aus einem Tag. Dann sind wir da ein bisschen kritischer und denken, wir müssen jetzt wirklich erst mal überprüfen, ob diese Seiten wirklich auch entfernt worden sind vom Webserver. Und wenn sie entfernt worden sind, dann nehmen wir sie entsprechend auch dem Index raus. Das geht meistens ein paar Tage länger. Ja, vielen Dank. Genau, es war eigentlich in der Search-Cancel, in der eingelobten. Und da hängt das seit schon ein paar Tage, hängen wieder drin, so zwei, drei Tage. Okay. Dann wenn du mir ein paar Beispiele schicken könntest, dann kann ich das genauer anschauen. Alles klar, vielen Dank. Super. Okay. Bei 150.000 indexierten URLs laut Search-Cancel sind maximal 1.000 Server-Fehler passiert. Wie könnte man dies auf 0 reduzieren? Ist das überhaupt problematisch? Wie sieht das aus mit anderen Klassen von Fehlern? Kannst du uns eine prozentrale Fehlerquote nennen, die eine Website haben darf, ohne größere Probleme zu bekommen? Grundsätzlich ist es so, dass die meisten Fehler, die wir sehen, nehmen wir an, sind temporäre Fehler, die können auftreten. Auch viel nur vier Fehler kann sein, dass wir die erstmal anschauen und das temporäre vielleicht behebt sich das von alleine. Das heißt, wir zeigen die dann zwar in Search-Cancel, aber es heißt nicht, dass wir automatisch die URLs aus dem Index herausnehmen. Grundsätzlich kann man beliebig viele 404 Seiten haben. Das ist was ganz normales auf einer normalen Website. Das stört uns überhaupt nicht. Bei Server-Fehlern ist das ein bisschen anders. Also gerade bei 500 Fehlern ist es für uns manchmal ein Zeichen, dass wir vielleicht ein bisschen zu schnell crawlen. Gerade wenn wir sehen, dass diese 500 Fehler gehäuft auftreten, dann wird es meistens so sein, dass wir am nächsten Tag ein bisschen weniger crawlen. Einfach, damit wir sicher sind, dass diese 500 Server-Fehler nicht aufgrund von unserem Crawling-Verhalten aufgetreten sind. Wir möchten ja nicht, dass das Server kaputt geht oder irgendwelche Probleme bekommt, nur weil wir versuchen, diese Seiten alle zu crawlen. Und dementsprechend gehen wir dann ein bisschen zurück mit der Crawling-Geschwindigkeit, die wir haben. Wenn wir viele 500 Fehler sehen, die wirklich gehäuft auftreten. Wenn das einzelne 500 Fehler sind, ich denke, bei jeder größeren Website kann das auch mal passieren, ist das überhaupt kein Problem. Aber wenn das wirklich gehäuft auftritt, sagen wir mal, sehr viel an einem Tag oder prozentual vom Gesamtcrawl dann werden wir wirklich versuchen, am nächsten Tag ein bisschen weniger zu crawlen, damit wir sicher sind, dass wir nicht der Grund sind für diese 500 Fehler. Aber da gibt es keine genaue Zahl, wo ich sagen würde, es darf nicht mehr 10 % sein. In der Regel, wenn wir 500 Fehler sehen und die sind wirklich die treten gehäuft auf, dann ist das wirklich ganz klar, dann sehen wir wirklich, dass da von unserem Crawling her ich weiß nicht, ein Drittel oder sowas 500 Fehler waren, dann ist das für uns ein ganz klares Zeichen, dass irgendetwas haben wir vielleicht falsch gemacht oder vielleicht ist irgendwas auf dem Server nicht ganz in Ordnung und wir müssen da ein bisschen Platz lassen, damit sich das ein bisschen wieder einpendeln kann. Und die Crawling-Geschwindigkeit, die erholt sich auch im Laufe der Zeit wieder. Das heißt, wenn wir in den nächsten Tagen sehen, dass wir normal crawlen können, klappt das auch alles wieder. Dann eine Frage zum AB Belastungstest mit Load Balancer. Manchmal leitet quasi URL A mit dem Load Balancer auf URL B und dann mit dem Canonical wird das wieder zurück. Hast du einen Tipp, was wir machen können, da der Traffic Stück für Stück erhöht wird? Abwarten sollte man umstellen. Das könnt ihr machen, wie ihr wollt. Ich denke, wenn ihr mit dem Canonical arbeitet und wenn die interne Verlinkung ganz klar auf die Version zeigt, die ihr indexiert haben wollt, dann seht ihr eigentlich das ganze unproblematisch. Sollte das eigentlich problemlos klappen. Seit dem 8.5. häufen sich bei uns in der Search Console 403 oder 404 Fehler. Bei allm URLs ist ein Strich %22 voran oder hinten angestellt. Der 403 entstand durch einen Eintrag in der HT Access der gelöscht wurde. Nun tauchen die Fehler als 404 auf. Woran könnte das liegen? Also, dieser %22 ist ja ein Anführungszeichen. Von dem her vermute ich, dass die vielleicht irgendwie mal intern falsch verlinkt worden sind. Grundsätzlich ist das kein Problem. Das kann ja mal passieren. Solang die interne Verlinkung jetzt inzwischen sauber ist meistens erkennt man das wenn man die Seiten die Fehler in Search Console anklickt und dann nachschaut, wann wurde dieser Fehler zuerst gefunden oder der Link auf dieser Fehler Seite gefunden. Und meistens sieht man dann, dass die dann alle ein bisschen weiter zurückliegen. Aus unserer Sicht ist das überhaupt kein Problem. Was einfach passieren wird, ist, dass wir weiterhin diese Seiten versuchen zu crawlen und die treten weiterhin in Search Console als 404 Fehler auf. Wenn ihr wisst, dass diese Fehler eigentlich behoben sind innerhalb der Webseite, ist das auch überhaupt kein Problem. Könnt ihr das eigentlich so ignorieren. Leider schwankt meine Seite sehr. Mal komme ich nach vorne und nach 1 bis 2 Tagen bin ich wieder raus. Was versucht Google denn da überhaupt? Sind On-Page Alltexts für Bilder sehr wichtig fürs Ranking? Da steht ja noch alles. Grundsätzlich bezüglich Schwankungen ist das etwas, was eigentlich passieren kann. Meistens ist das sein Zeichen dafür, dass unsere Algorithmen nicht hundertprozentig sicher sind, wie sie diese Webseite einstufen sollen. Das ist für uns nicht hundertprozentig klar, wie relevant die Seiten sind für diese Themen, die ihr da anschaut. Und ja, ich weiß nicht, was man da am besten machen kann. Am besten ist natürlich schon, wenn man irgendwie ganz klare Zeichen geben kann, dass diese Webseite wirklich auch sehr relevant ist und besonders gut ist für diese Themen. Das ist dann entsprechend auch wieder so ein, dass wir da ein bisschen genauer wissen, wie müssen wir diese Webseite zeigen. Hoffentlich natürlich so, dass sie weiterhin vorne steht. Aber das kann man natürlich nicht garantieren. Und wenn die Webseite schon länger so besteht, dann kann es auch sein, dass wir da vielleicht gedacht haben, am Anfang war die Webseite eigentlich so weit sehr gut und relevant zu diesen Themen. Und jetzt sind wir dann nicht ganz sicher, vielleicht kann man da aus Webmaß auch ein bisschen was machen, um da wirklich die Webseite ein bisschen eine Stufe besser hinzukriegen. On-Page, Alttext für Bilder sind die sehr wichtig. Für die Bildersuche sind Alttexte weiterhin relevant und wichtig. Die geben uns direkt Informationen darüber, was in diesem Bild drin ist. Das heißt, für die Bildersuche hilft uns das auf jeden Fall. Das ist das weniger ein Thema. Dort sehen wir die Alttexte eher als ein Teil der Seite. Und meistens sind diese Texte, die im Alttext dabei sind, sowieso schon sichtbar auf der Seite. Von dem her nicht so wahnsinnig kritisch, dass man die ja auch separat als Alttext noch dazu nimmt. Aber gerade für die Bildersuche, wenn man eigene Bilder hat, wenn die Bildersuche für euch relevant ist, würde ich auf jeden Fall schauen, dass ihr ein Caption unter die Bilder nehmt, dass ihr Bilder, Dateinamen nehmt, die einigermaßen eindeutig sind. Auch, dass ihr auf den Seiten, wo die Bilder gezeigt werden, saubere Titel und Beschreibungen habt. Ich denke, gerade Titel und Beschreibungen sind im Moment ein bisschen untergewichtet, in dem das alle denken, das sind ja so einfache Sachen, die hat jeder sicher richtig. In der Praxis sehen wir, wie die Bilder gut haben. In der Bildersuche auf Mobile werden ja auch Titel und Beschreibungen für die Bilder auch gezeigt und die kommen auch von euren Seiten. Das heißt, wenn die Bildersuche für euch relevant ist, würde ich sicher dafür schauen, dass ihr das hinkriegt. Dann steht da weiterhin, meine Seite wurde neu publiziert im Februar und seitdem gibt es ja diese Schwankungen. Bist du gerade hier? Dann eine Frage, ob ein Iframe in einer anderen Seite auch aus Backlink gezählt wird. So viel ich weiß, zählen wir Iframes nicht, sondern das Link. Aber oft, wenn man etwas Gutes hat auf einer eigenen Webseite, dann ist es natürlich auch ein Link, aber es gibt auch einen Link. Okay. Gibt es aus eurer Sicht noch irgendetwas, was wir anschauen müssen? Ich habe noch eine Frage. Okay, Link los. Es geht um Folgendes. Ich habe bemerkt, dass Google bei uns auf der Homepage den Domainnamen immer nach vorne setzt mit einem Doppelpunkt, obwohl der Domainname ist. Warum macht Google das? Also ich hätte gerne schon hinten dran den Domainnamen. Warum macht Google das? Das ist immer eine schwierige Frage. Ja. Wir versuchen natürlich ein... Also was uns das Systeme versuchen ist da einerseits ein Seitentitel zu bestimmen, was passt zu dieser Seite, also diese einzelnen URL gehört zur Webseite insgesamt. Was ist quasi der Name der Webseite oder den Domainnamen und versuchen dann diese beiden zusammen zu bringen in einem Titel in den Zuvergebnissen. Ich weiß nicht, wie das im Moment ist. Ich weiß, dass Sie da zwischenzeitlich mal verschiedene Tests gemacht haben mit Domainnamen vorne oder Domainnamen hinten und dann mit Minuszeichen oder irgendwie so einem Strich, ich vermute, dass da die Tests einigermaßen jetzt vorbei sind und dass sie sich da für eine Variante entschieden haben. Viel kann man natürlich da nicht machen, wenn man das lieber anders herum haben möchte. Das heißt, es ist kann für sich so, dass wir eure Titel nehmen und wir versuchen die dann möglich zu verwenden, dass wir das Gefühl haben, dass Benutzer eher verstehen, worum es geht auf eurer Webseite, wenn wir die Titel ein bisschen automatisch anpassen, dann versuchen wir, dass er es so entsprechend auch anzupassen. Aber wenn du gezielte Titel hast, die wirklich falsch kommen, dann würde ich sehr froh, wenn ich die haben könnte, dann kann ich die auch als Team weitergeben, als Beispiele, damit sie das mal genauer anschauen können. Ich weiß nicht, persönliche Präferenz ist, dass ich gerne den Titel voran oder hinten hätte, oder mit einem Schrägstrich, statt einem Bindestrich, dann vermute ich, dass man da nicht wahnsinnig viel hinkriegt, weil das ist ja dann immer eine Frage, die eher persönlich ist quasi, wo hätte ich gerne jetzt diesen Titel und der will es vielleicht voran oder der andere will es hin? Also falsch ist es nicht, aber ja, ich komme zuvor, als ob ich der Einzige bin und es passiert halt nur auf der Homepage. Also tatsächlich nur die Startseite. Ja. Ja. Ja. Also du schickst mir ja eh, glaube ich, einige Beispiele, wo die Titel falsch sind, dann kann ich das vielleicht auch zusammennehmen mit den Anschauen. Super. Okay, dann noch eine Frage da im Chat. Wie kann man im hinten Inhalt zum Beispiel einen einzelnen Dev, zum Beispiel eine Handynummer in einer kleinen Anzeige in Google Suchergebnissen unsichtbar machen? Man will, dass man die Handynummer zum Beispiel in der Anzeige in der Website besichtbar ist, aber nicht direkt bei Google selber. Grundsätzlich gibt es da zwei Sachen, die man machen könnte. Einerseits wird man die Nummer separat ein, zum Beispiel per JavaScript oder per Bild und setzt dann diese separate Datei, die da verwendet werden per Robots Text, entsprechend von Crawling aus. Dann ist es so, dass Google diesen Textelement gar nicht erst sehen kann. Die andere Variante ist, dass man einfach direkt mit deinem Bild arbeitet und dass man dann bringt statt in Textform und dementsprechend sehen wir das für die Websuche auch nicht. Der Google On und Google Off Tag, der manchmal dafür verwendet wird, wird nur bei Google Search Appliance verwendet. Das heißt, wenn man selber eine eigene Google Search Appliance verwendet und quasi für interne Suchergebnisse das verwendet, dann nehmen wir diesen Google On und Google Off Tag dazu. Für die normale Websuche wird das gar nicht berücksichtigt. Das heißt, wenn etwas im Text dabei ist, dann können wir das in den Suchergebnissen normal auch zeigen. Wenn es hingegen so ist, dass wir diesen Textblock oder diese Inhalte gar nicht erst crawlen können, dann können sie natürlich nicht einwenden dazu. Aber das ist je nachdem, wie man das gestaltet auf der Website natürlich ein bisschen weiter. Gerade wenn man JavaScript arbeiten möchte oder wenn man automatisch diese Textblocke in Bilder umwandeln will, dann ist das je nachdem ein bisschen aufwendig. Das war ein Beispiel, für mich war das Problem ein bestimmtes Block. Das ist nicht ein einziges Telefonnummer, sondern ziemlich kostes Tabelle sozusagen. Aber die Tabelle, also ich habe mir ein Text dargestellt und die Inhalte muss eigentlich im Google Suchergebnissen gefunden werden. Und ich habe es, ja, die erste Vision durch die JavaScript war Lissesite, Google Quota eigentlich, die ganze JavaScript ging es halt. Zum Beispiel, wenn man da reinkommt und wird das eigentlich für die JavaScript da reingepasst und das wartet eigentlich Google drauf, dass der Ganze fertig ist dann Quota eigentlich. Das ist das Problem. Ja, da würde ich einfach dafür sorgen, dass der JavaScript auch per Robots Text blockiert ist. Das heißt, nicht nur in JavaScript das Ganze machen, sondern dass wirklich auch der JavaScript gar nicht erst ausgelesen werden kann von Google. Und dann sollte das eigentlich schon klappen. Okay, das muss ich aufhören. Okay. Okay. Ich glaube, zeitlich sind wir ziemlich bis zum Ende die Frage, wer wird Weltmeister kann ich euch leider nicht beantworten. Auch wenn ich es wüsste und ich weiß es natürlich auch nicht jeden Fall drücke ich euch die Daumen, dass euer Mannschaft Weltmeister wert. Von dem her machen wir doch mal hier eine Pause. Ich richte noch die nächsten Hangouts ein wahrscheinlich gegen Ende Woche und dann sehen wir uns vielleicht wieder mal. Und in der Zwischenzeit, wenn ihr weitere Fragen habt, erreichte mich natürlich gerne auf Twitter oder auch in den Hilferformen, wenn da irgendwelche Probleme sind, dass ihr die Sachen auch direkt mit anderen besprechen könnt. Dann wünsche ich euch noch eine gute Woche und bis zum nächsten Mal. Tschüss allerseits.