 OK, herzlich willkommen beim heutigen Google Webmaster Central Sprechstunden-Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Trends Analyst bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Webmaster-Hangouts, wo Webmasters, SEOs, Publisher, verschiedene Arten mitmachen können, Fragen stellen können. Und wir versuchen da, möglichst Antworten herauszuholen. Es sind schon einige Fragen eingereicht worden, vorweg auf Google Plus, auf dem Post, wo wir das jeweils anmelden. Wir können die sicher durchgehen. Wenn einer von euch etwas hat, was man gleich von Anfang an, vielleicht mal anschauen möchte, bleibt ihr gerne eingeladen, jetzt loszulegen, nicht? OK, dann, das geht natürlich auch. Wenn zwischen euch irgendwelche Fragen oder Kommentare kommen, legt einfach los. Gegen Ende werden wir sicher auch ein bisschen Zeit haben, um weiter auf irgendwelche Fragen oder Kommentare von eurerseits ein bisschen einzugeben. OK, dann fangen wir mal hier oben an. Die erste Frage geht Richtung disavow, wegen der disavow-Liste, ob man da nicht Wildcard-Funktionen einbauen könnte für ganze Top-level-Domains, zum Beispiel, bis oder vielleicht auch andere. Aus unserer Sicht macht das wenig Sinn, weil man weiß natürlich nicht, was da alles auf einem Top-level-Domain ist. Das können ja alle möglichen Alpen von Websites sein. Wir würden da eher empfehlen, auf der Domain-Ebene zu arbeiten und so an und für sich wirklich gezielt, die Websites quasi aus unserem System mit dem Links herauszuholen für eure Website, die wirklich auch Probleme für euch verursachen oder bei denen ihr denkt, dass sie vielleicht möglicherweise Probleme verursachen. Und auf Domain-Ebene ist das eigentlich relativ schnell gemacht. Man kann ja eine Liste längst herunterladen, die Domains herausholen und das kurz durchgehen und entsprechend aufladen. Ich würde das wirklich eher auf dieser Ebene machen. Soweit ich sehe vom Team her, ist im Moment auch nicht geplant, dass man diese Funktion groß überarbeitet, auch mit dem neuen Search Console nicht. Und von dem her vermute ich, dass selbst wenn wir finden würden, dass das eine gute Idee wäre, dass so etwas nicht allzu schnell kommen würde. Das heißt, ich würde weiterhin auf Domain-Ebene einfach arbeiten. Okay, dann eine Sammlung von Fragen. Ist es für Google ein Problem, wenn man einen größeren Textblock einer Unterseite auf eine andere Unterseite verschiebt? Sollte man dabei irgendetwas beachten. Aus unserer Sicht ist das vollkommen okay. Wir sehen die Seiten jeweils separat an. Wir versuchen die Inhalte und den Kontext von diesen Inhalten herauszuholen. Und wenn mal ein Textblock da ist und dann nachher nicht mehr da ist, sondern auf einer anderen Seite da ist, dann können wir das einfach so neu beurteilen und sagen, auf dieser Seite ist der Text nicht drauf, auf der anderen Seite ist er da. Also können wir das so verhandt haben. An und für sich muss man da nicht Spezielles machen. Man muss nicht irgendwie so ein abteilweise Redirect einrichten oder ein Verweis auf die andere Seite. Solange wir diese Seiten normalen crawlen und indexieren können, ist das für uns an und für sich okay. Angenommen, eine Domain heißt shoe.job. Also quasi zwei Wörter und wird so verlinkt. Gilt der ganze Domain namen inklusiv TLD als anchortext für den Algorithmus oder unterscheidet der Algorithmus zwischen echten Ankertexten und einer URL. Wir versuchen schon die URL zu erkennen jeweils in anchortexten und versuchen das jeweils so auch zu berücksichtigen. Von dem her ist es nicht so, dass man da automatisch ein Vorteil hat, wenn man einige Wörter im Domainnamen dabei hat und manche Leute dann mit dem Domainnamen direkt verlinken. Von dem her würde ich mir jetzt nicht allzu viel erhoffen, dass da automatisch ein großer Bonus da ist, nur weil die Keywords im Domainnamen dabei sind. Insgesamt mit Keywords im Domainnamen oder sogenannte Exactmatchdomains, finde ich es ein bisschen schwierig, weil man sich da ein bisschen, sag ich mal, fast eingrenzt als Website-Betreiber. Das heißt, wenn ich die zwei, drei Keywords nehme und da daraus ein Domainnamen mache für meine Website, dann ist es sehr schwierig für mich das zu erweitern. Wenn ich jetzt, sag ich mal, mit Jogging Shoes eine Website mache und die so direkt nennen, dann ist es schwierig, wenn ich dann auf einmal vielleicht, ich weiß nicht, Fahrradschuhe noch dabei habe für andere Sportarten oder Nichtsportschuhe dabei habe, weil die passen dann irgendwie dann doch nicht ganz zum Markennamen, den man da aufgebaut hat für die Website. Das andere Problem ist auch, dass wenn man ein allgemeiner Wörter für einen Domainnamen verwendet, dann ist man automatisch inner mit der gesamten Konkurrenz dabei. Das heißt, wenn jemand nach diesen Keywords sucht, dann kommen alle anderen Websites, die auch auf diese Keywords jeweils hinarbeiten. Auch wenn vielleicht der Gedanke da ist, als Benutzer, dass ich eigentlich nach der Firma direkt suche. Das heißt, es gibt gar keine Möglichkeit für einen Benutzer zu sagen, ich möchte jetzt wirklich zu dieser Firma, die für mich die richtigen Produkte angeboten hat, die für mich, sag ich mal, die richtige Website ist, gibt es fast gar keine Möglichkeit, für jemanden gezielt danach zu suchen, wenn der Fährennamen oder der Domainnamen nur eine Sammlung von allgemein gültigen Keywords ist. Dazu noch eine Frage. In die Fähren spielt dann eine Exit-Matching-Domain, als Ranking-Faktor eine Rolle. Das heißt, soll ich dann eher im Instructor-Data-Arbeiten anstelle, dann mit einer Exit-Matching-Domain? Ja, also wir nehmen schon den Domainnamen oder Teile der URL ein bisschen in Betracht für das Ranking, aber das ist ein sehr kleiner Faktor. Das heißt, es ist nicht unbedingt etwas, wo ich sagen würde, dass es jetzt kritisch ist an einem neuen Web-Auftritt, sondern es ist etwas, was wir in Betracht nehmen, aber es ist natürlich nur ein sehr kleiner Teil. Man kann sehr viel mehr erreichen, denke ich, auch längerfristig, wenn man wirklich eher mit einem Markennamen oder mit einem Brand irgendwie auftritt, statt nur mit diesen Keywords, die man direkt in Domainnamen hat. Tudu, tudu. Aber schlussendlich ist das natürlich auch eine große Marketingfrage, wie man, wie man halt auftreten möchte, insgesamt online oder als Firma allgemein. Es ist natürlich immer schwierig. Was würde es empfehlen, wenn man mit verschiedenen Lightning-Pages Split-Tests für AdWords durchführt, da besteht ja die Gefahr einer Indexierung, sollte man alle voraus auf New Index setzen und dann erst den Gewinner auch für den Index freischalten. Grundsätzlich würde ich schon mit New Index arbeiten, dass es eine gute Möglichkeit ist, diese Lightning-Pages zu testen. Gerade wenn man viele verschiedene Varianten testen möchte oder, sagen wir, abwechselnde Varianten testen möchte, dann kann man mit AdWords das relativ gut testen und nachher kann man dann immer noch entscheiden, macht es Sinn, diese Seite auch für die Suche als Lightning-Page zu verwenden oder vielleicht macht es auch einfach Sinn zu sagen, dass jetzt die Lightning-Page für diese gezielte Werbung, die ich da laufen lasse und für die Suche habe ich trotzdem etwas anderes. Aber mit New Index kann man das natürlich steuern, wie man möchte. Ist es normal, dass eine neue Unterseite nach ein paar Tagen kurz, sagen wir mal 24 Stunden im Index erscheint und dann wieder verschwindet? Was hat es damit auf sich? Das kann in manchen Fällen passieren. Das heißt, wir haben verschiedene Systeme bei uns, welche die Indexierung steuern und manche dieser Systeme sind darauf ausgerichtet, dass sie sehr schnell reagieren können, dass sie sehr schnell neue Seiten aufnehmen können und auch zeigen können in den Suchergebnissen und andere brauchen ein bisschen länger, bis sie alles bearbeiten können. Und da kann es manchmal passieren, dass wir eine Seite sehr schnell im Index aufnehmen und danach nicht ganz 100% sicher sind, wie wir damit weitergehen sollen und dann fällt sie erst mal raus und dann schaubt sie quasi rüber zum längerfristigen Indexierung ein bisschen später. Und da kann es solcher sein, dass da eine Lücke auftritt. Anführlich ist das aus unserer Sicht normal. Wir versuchen, solche Lücken möglichst zu vermeiden, dass es nicht allzu verwirrend ist für Redmaster und für User, aber manchmal kann das so passieren. Was passiert, wenn ehemals die No-Follow-Links plötzlich auf No-Follow gesetzt werden, wird der Anfangsvererb der Link-Juice abgezogen. Ja, sobald wir diese Links neu verarbeitet haben, verarbeiten wir jeweils auch den Werft, der da weitergereicht hat bei diese Links. Und wenn da No-Follow dabei ist oder eben kein No-Follow, dann kann sich das verändern. Wenn ein No-Follow dazukommt, ist es ähnlich wie wenn ein Link per Disseval bei uns quasi eingereicht wird, wo ihr dann gezielt sagt, ich möchte, dass dieser Link nicht gezielt wird. Und das wird für sich ähnlich verarbeitet. Wenn ein etabliertes Online-Magazin ein Forum interessieren möchte, würdest du zu Subdomain oder Unterordner machen? Ach, die Frage geht wohl nie weg. Thematisch legen Magazine und Forum eng beieinander. Aus qualitative Sicht wird der user-generative Content allerdings nicht ans Magazine herankommen. Aus meiner Sicht kann man das in beide Richtungen machen. Ich könnte mir vorstellen, dass das in beide Arten Sinn machen würde, dass man per Subdomain arbeitet oder unter Verzeichnis. Ich denke, da gibt es sicher mal die technischen Überlegungen, wie man das handhaben möchte, die dazukommen. Vielleicht auch bezüglich Search Console und Analytics Allgemein, wie man das handhaben möchte, kommt ein bisschen dazu. Aber grundsätzlich vom SEO her, von der Suche her, kann man das natürlich in beide Richtungen machen. Je nachdem, wie ihr das machen möchtet. Wenn ihr das Forum wirklich stark integrieren möchtet mit dem Magazine, dann macht es sicher Sinn, dass man das auf einem gleichen Subdomain macht. Und wenn ihr sagen möchtet, das möchten wir eher separat, wie ein eigener Zweig behandeln, dann macht es vielleicht eher Sinn, dass man das auf Subdomain hat. Man kann auch einen eigenen Zweig als Subdirectory einrichten, dass es trotzdem auf einem gleichen Domain dabei ist. Aus meiner Sicht lässt sich der Beides machen. Ich denke, das hängt ein bisschen von euch ab. Dazu habe ich auch noch ganz kurz eine Frage. Ist es nicht so, dass man auf einem Subdomain als zweite independenten Domain ansieht? Das heißt, angenommen, ich hätte jetzt, sage ich jetzt mal, 700 Backlinks auf der Route Domain und 300 auf der Subdomain. Dann habe ich natürlich nur die 300, habe ich die jetzt auf einem Subfolder, hätte ich quasi 300 plus 700, also 1000. Das heißt, ich hätte dann theoretisch eine größere Instanz und mehr, ich sag mal, Visibility Index oder Domain Authority, wenn ich alles auf ein Subfolder pointe oder migäre, ich denke, das Schwierige da ist, dass wir das in beide Richtungen machen können. Das heißt, wir können durchaus erkennen, dass verschiedene Unterdomains zum gleichen Website gehören. Das lässt uns, das können wir problemlos machen, wir können auch problemlos erkennen, wenn Unterverzeichnisse auf einem gleichen Domain eigentlich eher wie separate Websites betrachtet werden sollten. Von dem her lässt sich nicht einfach sagen, quasi alles im gleichen Domain wird als gleichen Domain behandelt und alles in anderen Subdomains wird als unterschiedliche Websites betrachtet. Das kann in beide Richtungen gehen. Und ich denke, in einer Situation wie hier, wenn man sagt, das gehört wirklich zusammen, dann würden unsere Systeme das wahrscheinlich als eine Website betrachten und insgesamt das Ganze anschauen und nicht als 2 separate Websites anschauen. Wir überlegen auf unseren News-Seiten eine teaser-Page und eine Paywall zu versehen. Ist das sogenannte flexible Sampling nur für Artikel oder kann man auch sonstige Paywall-Bereiche einer Website von Google indexieren lassen? Ja, das kann man allgemein verwenden. Es muss nicht nur News-Artikel sein. Wichtig ist einfach, dass man das sauber integriert. Das heißt, mit dem Markup welches wir auf der Developer-Seite haben und dann sollte das eigentlich soweit machbar sein. Ich denke, wichtig mit flexible Sampling allgemein ist natürlich auch, dass man sich überlegt, wie kann ich den Wert meiner Inhalte für Benutzern sichtbar machen, ohne dass ich sie zu stark davon abschrecke, dass auf einmal verlangt wird, dass sie bezahlen oder dass sie sich angehen. Das heißt, man muss da irgendwie eine Balance selber finden. Wie viele Inhalte gebe ich quasi frei, dass sie das zuerst mal anschauen können und wie viele Inhalte nehme ich direkt hinter die Paywall oder vielleicht nach verschiedenen Zugriffen hinter die Paywall, sodass man Benutzern nicht von Anfang an abschrecken sagt, die gehen alle wieder weiter und gehen woanders hin, sondern dass man wirklich auf den Wert der Inhalte hinter der Paywall klarlegt für Benutzern. In letzter Zeit kommt Google bei uns irgendwie mit den lokalen Suchabfragen durcheinander. Wenn ich von meinem Smartphone in Französisch in der Nähe von Dortmund nach der Abruf suche, dann erscheint von unsern Stadt der Startseite, wie die Flagge von Lütrecht. Ich vermute, das ist von meinem Standort aus die nächstgrößere Stadt von meinem Flaggen französischer Sprache kaufen kann. Wie kann ich die Startseite zum Rankin bringen, ohne das Keyword, das speziellere Keyword quasi zu verlieren. Ich habe das Gefühl, dass Google mein Business Eintrag das Rankin vom Onlineshop unterdrückt. Meines Wissens sollte Google mein Business Eintrag keinen Einfluss auf das normalen organische Rankin haben, außer, dass wir da besser verstehen, wo der Standort ist von der Firma. Insgesamt ich denke, da kommen verschiedene Sachen ein bisschen zusammen, die das ein bisschen komplizierter machen. Einerseits, wenn man direkt vom Smartphone aus sucht und einfach die Sprache auf Französisch stellt, ist das nicht unbedingt das Gleiche, wie wenn man in Frankreich auf Französisch sucht. Also würde ich da vielleicht ein bisschen vorsichtig sein, wenn man die Resultate anschaut und dann wirklich, dass auch gezielt man anschaut, wie das wirklich in Frankreich aussieht, bevor man allzu große Veränderungen macht. Was man allgemein auch machen kann, ist zum Beispiel auf dem Laptop, im Desktop, im Chrome, zu suchen. Da kann man dann gezielt auch die URL ein bisschen einfacher verändern, sodass man gezielt die Ländereinstellung für Frankreich die Spracheinstellung Französisch dazu nimmt und so ein bisschen genauer suchen kann. Man kann das auch auf quasi Smartphone-Emulationen umstellen, sodass man da eher sieht, was man aussehen würde. Dafür verwende ich jeweils die URL-Parameter GL und HL. Das heißt, man kann da mit dem Unzeichen GL gleich FR zum Beispiel bei der Suchanfrage angeben und das würde an und für sich die Ländereinstellung für Frankreich dazu nehmen und mit HL kann man ähnlich die Spracheinstellung einstellen. Das heißt, HL gleich FR ist französisch. So kann man ein bisschen näher auch emulieren, wie das aussehen würde für einen Benutzer in Frankreich, wenn der Benutzer auf Französisch sucht und welche Suchergebnisse da erscheinen würden. Die ganzen lokalen Ergebnisse sind natürlich immer noch ein bisschen schwierig, weil man sagt ja einfach allgemein, man ist jetzt in diesem Land und die lokalen Ergebnisse können sehr lokal sein. Wenn ich eine größere Stadt bin, dann gibt es vielleicht lokal irgendwelche Geschäfte, die auch dazu etwas anzubieten haben und das kann man dann nicht über die URL-Parameter selber so steuern. Wenn ich so hier suche gerade jetzt bei mir im Browser, dann kommt von euch die Homepage für die Suchanfrage, also vielleicht funktioniert das schon, ich würde das auf jeden Fall mal kontrollieren. Und wenn bei euch nicht die Homepage kommt, wenn trotzdem eines dieser Unterseiten kommt, dann ist es nicht unbedingt etwas, was man sehr einfach steuern kann. Das heißt, eineseits bedeutet das für uns wahrscheinlich nicht ganz klar, welches die wichtigste Seite ist, eure Website. Das heißt, mit der internen Verlinkung könnte man vielleicht etwas herausholen. Andererseits kann man das nicht gezielt auch unterdrücken. Man kann nicht sagen, statt dieser Seite soll die andere Seite kommen. Das Einzige, was man machen könnte ist mit dem No Index zu arbeiten und vermutlich ist das etwas, was ihr eher vermeiden würdet, weil dann wäre diese Unterseite ganz aus dem Index heraus. Das sind vielleicht Varianten, die man anschauen könnte. Was man vielleicht auch machen könnte, wenn man die Möglichkeit hat, es mit einem VPN zu arbeiten wirklich gezielt auch von einem Standort im Land selber indirekt zu suchen, wenn man das genauer anschauen möchte, wie das aussehen könnte. Mit VPN-Arresten ist es manchmal ein bisschen schwierig, weil wenn unsere Systeme sehen, dass über die gleiche IP-Adresse, über den gleichen Standort suchen für alle möglichen Länder dazu zusammenkommen, wenn ihr das für alle möglichen Arten seid, dann wird schwierig für unsere Systeme zu erkennen, dass es ein normaler Benutzer in diesem Land sein sollte. Weil das sieht dann nicht mehr nach einem normalen Benutzer aus. Dann eine zweite Frage zur gleichen Website. Wir ranken für Mexiko Flaken kaufen laut Search Console. Vor einigen Monaten haben wir einen WhatsApp-Share-Button eingefügt und ranken nun mit Mexiko Flaker WhatsApp und haben sich mittlerweile den Button umgenannt und das Wort WhatsApp entfernt. Ich frage mich, wie die beiden Plazierungen das Gesamtranking bzw. die Qualität der Seite beeinflussen. Ziehen die Leute, die nach WhatsApp-Flaken suchen und nichts bei uns finden, die normalen kaufen Rankings darunter? Nein. Aus unserer Sicht sind das ganz unterschiedliche Benutzer und wenn einige etwas finden die anderen nicht, heißt nicht, dass man insgesamt die Website herunterstufen sollte. Von dem her ist das aus meiner Sicht überhaupt kein Problem. Ich denke, wichtig ist einfach für euch, dass ihr euch überlegt, wofür möchten wir erscheinen, was ist für uns sinnvoll, wenn jemand gezielt nach unteren Sachen sucht. Haben wir wirklich etwas zu bieten, wenn jemand nach WhatsApp Flaken sucht oder etwas, was ihr verändern wollt oder ist das ein Problem, das man vielleicht unterdrücken müsste durch das Entfernen von den Börtern von den Seiten? Das ist an für sich euch überlassen. Ich habe da noch eine Frage zu. Also sollte man grundsätzlich diese Überschneidung so weit wie möglich unterdrücken? Nicht unbedingt. Nicht unbedingt. Aber ich denke je klarer eher die quasi das Ziel der einzelnen Webseiten macht innerhalb von eurer Webseite um so einfacher ist es für unsere Systeme zu erkennen was ihr wirklich anpeilen wollt dort. Das heißt, wenn wir diese Seite anschauen und alle möglichen Informationen über Mexiko finden, dann ist es schwieriger für uns zu erkennen, dass eigentlich wollte ihr Flaken verkaufen. Von dem her ist es nicht so, dass man sagen würde, ihr dürft nicht über verschiedene Themen oder verschiedene Bereiche auf diesen Seiten reinnehmen, aber je klarer man wirklich für unsere Systeme klar machen kann, dass es gezielt ist auf dieses Thema, auf diese Art von Benutzer und so her können wir solche Benutzer auch zu euch liken. Und wenn man dann, also wir haben probiert halt mit teilweise bearbeiteten Wikipedia Artikeln auch zu Ranken halt für Mexikoflage zum Beispiel. Also weiß jetzt nicht, ob das wahrscheinlich nicht gut funktioniert, aber wenn man jetzt einfach den Text weglässt und einen Link setzt zu dem Wikipedia Artikel hat das dann auch noch eine Bedeutung oder würde man das Ganze dann entschärfen, dann praktisch? Das macht so, dass Benutzer eigentlich diese Informationen noch holen können, aber das würde eigentlich nicht verursachen, dass wir diesen Wikipedia Artikel mit euren Inhalten zusammenhang verbringen. Das heißt für die Indexierung, für das Ranking würden wir dann einfach nur eure Inhalte nehmen und Benutzer können natürlich zum Wikipedia Artikel dann trotzdem weitergehen, aber es ist nicht so, dass dieser Link dann extra Wert für eure Webseite dazu bringt. Würdest du empfehlen die Links auch zu solcher Links zu entfernen, oder? Also, wenn was ich vielleicht den ersten Moment machen würde, ist einfach mit Analytics die Links treten, ob Benutzer die wirklich auch verwenden und wenn Benutzer die verwenden, dann würde ich die vielleicht erlassen, wenn niemand die verwendet, dann könnte euch das sparen, oder? Ja, okay, alles klar, Dankeschön. Okay, wir haben ein Relunch im Februar und jetzt kommen einige Fragen auf. Laut Search Console liegen 15.500 Fehler bei unseren FAQ-Seiten vor. Die Seiten werden allerdings ganz normal angezeigt. Zudem gibt es 15.404 Fehler, wenn ich eine Weiterleitung einrechte, dann funktioniert die Sichtbarkeit unserer Homepage hat nachgelassen, von 175 indizierten Seiten sind noch 75 übrig. Was könnte das sein? Ich müsste da wahrscheinlich die Website anschauen. Auf Anhieb sieht das so aus, als ob wir da einfach Schwierigkeit haben, die die Website normal zu chronen und zu indexieren. Das heißt, wahrscheinlich eher vom technischen Herr, dass wir da versuchen, diese Seiten zu chronen und indexieren und wenn wir Fehler finden, die vielleicht einfach sporadisch von dem CDN oder vom Server, der eingerichtet ist oder vielleicht von einem Sicherheitsmechanismus der auf dem Server läuft, dann können wir diese Seiten nicht indexieren und dann kann es durchaus passieren, dass wir die Seiten ganz aus dem Index fallen lassen und die erscheint danach in der Suche nicht mehr. Von dem her wäre es vielleicht hilfreich, wenn man einerseits vielleicht im Hilferforum postet mit dem Domain, dass mit jemandem das mal anschauen kann und andererseits würde ich versuchen ein bisschen herausfinden, wo diese Fehler genau herkommen. Das heißt, die URLs, die angegeben werden in Search Console, gezielt mit Fetchers Google mal versuchen aufzurufen und zu schauen, ob es wirklich einen Unterschied gibt zwischen dem, was man im Browser sieht, wenn man die Seiten öffnet und wenn Googlebot versucht, die Seiten direkt anzusteuern und auch vielleicht ein bisschen versuchen herauszustellen, ist es ein Problem, das immer auftritt. Das heißt, jedes Mal wenn ich die Seite mit Googlebot aufrufe, dass der Fehler kommt, oder ist es etwas, was vielleicht einfach sporadisch oder periodisch auftritt und dementsprechend kann man dann ein bisschen auch eingeinzen, ist es etwas systematisches, was wir falsch machen auf dem Server oder ist es vielleicht irgendein System, welches von Zeit zu Zeit überlastet wird oder das Gefühl hat, man kann fragen, jetzt irgendwelche schlechten Bord sind, die blockiert werden müssen, dass man das ein bisschen eingrenzen kann und ein bisschen genauer weiß, wo man hingehen kann, um das zu beheben. Aber auf Anhieb, wenn ich höre, dass da gerade 500 Fehler auftreten und wenn die Indexierung nachgelassen hat, dann klingt das sehr stark nach einem technischen Problem und nicht unbedingt nach einem Qualitätsproblem. Search Console zeigt externe Links an, ist es genug, die schlechten Links, die dort angezeigt werden, in die Disseverau-Datei zu werfen, um die loszuwerfen, grundsätzlich schon. Also, wir versuchen da einen relevanten Teil der Links, die wir gefunden haben für die Website dort beabzustellen und wenn ihr seht, dass da wirklich problematische Links dabei sind, dann könnt ihr das nehmen für die Disseverau-Datei. Grundsätzlich, wenn euch nicht bewusst ist, dass irgendetwas Problematisches mit den Links ist auf eurer Website, würde ich sagen, müsst ihr mit der Disseverau-Datei nichts machen. Wenn euch bewusst ist, dass das vielleicht ein früherer SEO irgendwelche wilden Link-Geschichten gemacht hat, Links gekauft hat oder einen Link-Touch gemacht hat und ihr diese Links nicht sauber aufräumen könnt, dann macht es sicher Sinn, mit der Disseverau-Datei zu arbeiten. Grundsätzlich, sollten die Links in Search Console schon ausreiten, um das Problem ein bisschen einzuschränken. Ich würde einfach davon ausgehen, dass Search Console einfach ein Teil der Links zeigt und nicht wirklich alle. Das heißt, wenn ihr ein klares, systematisches Problem findet in den Links, zum Beispiel, dass das eurer Website bei 100.000 Direktories eingereicht ist und so vielleicht irgendwie Probleme gekriegt hat mit den Links, dann würde ich, dass in Search Console sollte man das ja eigentlich erkennen mit dem Links Report und dann würde ich vielleicht auch weiterschauen extern von Search Console, wo sind weitere Direktories, wo unsere Links vielleicht hinterlassen wurden, dass man das wirklich auch gesamthaft aufräumen kann. Das heißt, es gibt einen Brandname innerhalb der Universal Search Einblendungen wie Google News und YouTube Endern. Google zeigt hier aktuell zu unseren News und zu unseren Videos den falschen Website-Namen an. Alles andere, die Titel und Verlänkung passen. Schwierig zu sagen. Da wäre es vielleicht praktisch, wenn du mir ein Beispiel schicken könntest, dann kann ich das mit dem Team mal hier anschauen. Es gibt da verschiedene Quellen, wo wir versuchen, den Namen festzustellen. Einerseits innerhalb eurer Website, wenn ihr mit Structure Data arbeitet, ist das ein bisschen einfacher dort herauszuholen. Anderseits auch extern von eurer Website, zum Beispiel, wenn dein Wikipedia-Article vorhanden ist für eurer Website. Dann versuchen wir, das ein bisschen zusammenzubringen und so den Namen von der Website herauszuholen. Und unter Umständen kann es sein, dass wir vielleicht einen alten Namen erwischen oder dass wir irgendetwas falsch verstehen. Und je nachdem, in welche Richtung das geht, gibt es da vielleicht die ein oder andere Möglichkeit. Aber mit einem Beispiel ist das jeweils ein bisschen einfacher. Ich möchte bestehenden Content in einen neuen Domain implementieren. Was gibt es hier zu beachten? Kann man problemlos machen. Wie gesagt, am Anfang schauen wir die Seiten separat an und die Inhalte, die auf diesen Seiten hin versuchen, wir zu indexieren. Wenn man teile einer Website auf eine andere Website oder auf eine andere Seite übernimmt, dann sehen wir das an für sich bei den nächsten Crawlen und Indexieren diese Seiten. Da muss man nichts Beziehendes machen. Wenn die Seiten ganz von einem Domain zum anderen verschoben würden, würde ich auf jeden Fall ein Redirect einrichten. Damit wir wissen, dass wir wirklich alle Signale, alle Seiten zusammen waren, dass wir diese weitergeben können an die neue Seite. Wir führen ein Belastungstest mit einem neuen Shop System durch. Dieser liegt auf example.com und hat ein Canonical auf example.com. Wir haben derzeit ein massiv verschiedene Probleme und ich gehe von einer Annahme aus, die ich gerne bestätigen möchte. Ich habe mich nicht ignoriert. Grundsätzlich sollten wir die Anweise überfolgen, wenn wir sie sehen auf den einzelnen Seiten. Das heißt, gerade mit dem Robotsmetertag, mit noindex zum Beispiel, sollten wir das direkt an für sich eins zu eins umsetzen, wenn wir das sehen auf einer Seite. Ein Canonical ist ein bisschen anders, aber mit dem Canonical gibt es uns ein Wunsch, dass ihr eher die andere URL als Canonical indexiert haben möchtet und unsere Systeme nehmen diese verschiedene Signale, die wir finden, für die Canonikalisierung zusammen und versuchen, aufgrund von dem ein Canonical zu finden. Das ist nicht unbedingt der, der mit dem Canonical versehen ist. Von dem her kann man für sich vom Standard her so, dass wir den World Canonical als Signal verwenden und nicht als Anweisung direkt und egal ob man jetzt Serverfehler hat oder nicht, kann es immer sein, dass wir da etwas anders als Canonical nicht. Was allerdings ist, wenn man sehr viele Serverfehler hat, ist es natürlich schwierig zu erkennen was Google schon gekraut hat und was Google indexiert hat und wenn wir da in Situationen sehen, dass wir eine URL crawlen können und da Inhalte finden und ein Canonical auf ein anderer URL da vorhanden ist und diese andere URL können nicht crawlen, weil gerade ein Serverfehler auftritt, dann behalten wir natürlich erst mal die URL, die wir schon haben im Index und nehmen das erst mal so weiter. Das heißt, wenn man wirklich Serverfehler hat, dann ist es sehr schwierig voraus zu sagen was da wirklich passiert mit der Indexierung, weil das kann wirklich sehr schwanken. Gerade bei Serverfehler sehen wir das eher aus einem Temporaries Problem an, das heißt wir lassen die Seiten nicht direkt aus dem Index fahren und so ist es einerseits für euch ein bisschen sicherer, weil wenn Temporary Serverfehler auftreten, dann verschwindet nicht gerade alles und die Wahrheit macht es das jetzt in einer solchen Situation schwieriger ein bisschen genauer eine Diagnose zu finden was es jetzt abgelaufen was es da jetzt alles passiert. Von dem her würde ich raten möglichst diese Serverfehler erst mal wirklich sauber aufzuräumen dass man wirklich sauber crawlen und indexieren kann und dann zu schauen wie sich das Ganze einpendeln. Es ist auf jeden Fall nicht der Fall dass wir, wenn wir viele Serverfehler sehen, dass wir sagen die Seite ist irgendwie minderwertig und wir dürfen diesen Anweisungen nicht genau, nicht wirklich trauen weil immer Serverfehler auftreten sondern es ist wirklich einfach ein rein technisches Problem für uns wie soll man damit umgehen wenn wir die Seiten manchmal indexieren können und manchmal nicht indexieren können und dann ist das ein bisschen schwierig sauber hinzukriegen. Ich arbeite fast ausschließlich mit WordPress Bezüglich Rankings an Webseiten macht es für Google einen Unterschied ob ich ein Blog Beitrag erstelle oder eine Standard WordPress Seite Aus unserer Sicht macht es überhaupt keinen Unterschied. Das sind an und für sich Strukturen die im Hintergrund für euch vorhanden sind in WordPress in dem CMS den ihr verwendet für uns sind das normale HTML Seiten wie alle anderen wir unterscheiden da nicht künstlich zwischen das ist jetzt ein Blogbeitrag und das ist eine HTML-Seite oder das ist vielleicht eine handgemachte HTML-Seite und das ist eine HTML-Seite aus einem CMS oder einem Blog. Wir schauen die Seiten an für sich separat an und wenn die Informationen dort gut sind und relevant, dann bringen wir die in den Suchergebiet. Besuchern der Errottekategorie über den Inhalt zu informieren zeigt mir eine Warnung über ein Modalfenster ist es ein Problem für die Suchmaschine wenn ein Inhalt durch ein Modalfenster unlesbar gemacht wird Grundsätzlich kann man das so machen. Ich denke das sind so wie ich das gesehen habe auf dieser Beispielseite ist es so das per JavaScript erstellt wird das heißt die eigentlichen Inhalte sind immer noch in der HTML-Seite das heißt für die Indexierung sind diese Inhalte noch vorhanden auch wenn die per JavaScript verschworen gemacht werden. Von dem her ist das weniger ein Problem man kann das natürlich ein bisschen noch stärker hinkriegen indem man die JavaScript auf Google Cloud Text blockiert dass Google Cloud wirklich 100% die Inhalte vollsehen kann Wichtig aus meiner Sicht ist einfach dass man diese Seiten klar auch für Google so markiert dass das eher Inhalte sind wo vielleicht mit Safe Search gearbeitet werden muss und dazu gibt es den RPA-Metathag den man angeben kann um wirklich klar zu stellen dass auf dieser Seite sind Inhalte für Erwachsene und dann können unsere Systeme das anschauen und sagen gut das ist klar wir müssen jetzt mit Safe Search für diese Seiten arbeiten und das ist handfüßig für uns auch okay was manchmal ein bisschen schwierig ist gerade wenn man sehr viele Inhalte hat die für Erwachsen ausgerichtet sind und sehr viele Inhalte die für ein Haltgemeines Publikum da sind ist dass unsere Systeme versuchen welche Teile der Webseite für Erwachsene sind und welche der Teile der Webseite allgemein gültig sind und da hilft es wenn man wirklich sauber entweder Unterverzeichnisse oder Subdomains arbeitet so dass unsere Systeme wirklich klar sagen können dieser Teil der Webseite ist für Erwachsene den müssen wir mit Safe Search behandeln und der Teil hier ist für ein allgemeines Publikum dann müssen wir nicht mit Safe Search arbeiten das Problem könnte da höchstens auftreten dass unsere Systeme das anschauen sagen wir können nicht unterscheiden welche Teile für Erwachsene sind also nehmen wir an dass die gesamte Webseite für Erwachsene ist und dementsprechend wird es dann schwierig zu sein für ein allgemeines Publikum welches nicht mit Safe Search filter sucht gezielt nach diesen Inhalten zu suchen ich vermute wo ein sehr kleiner Teil für Erwachsene da ist ist das weniger ein Problem aber gerade wenn man weiß dass dieser Anteil wachsen wird in Zukunft würde ich mir wirklich überlegen wie kann man das sauber abtrennen so dass für Benutzer und für Googlebot das wirklich klar ist dieser Teil des Erwachsene der Rest hier ist für ein allgemeines Publikum wenn ein Webseiten Betreiber von typo3 auf Magento umstellt aber nicht seine Webseite wie interpretiert wie es Google also keine Veränderungen am Content keine URL Veränderungen nur Veränderungen im Source Code an und für sich ist das eine normale Veränderung der Webseite das heißt es hilft uns auf jeden Fall dass die URLs gleich sind wenn die Inhalte gleich sind was wir einfach manchmal sehen ist jeweils dass das Layout halt anders ist dass wir das ein bisschen anders verarbeiten können was auch manchmal anders ist gerade bei CNSwechsel ist die ganze interne Verlinkung wenn ich jetzt das Menu ganz anders habe und die interne Verlinkung ganz anders habe dann kann das natürlich einen Einfluss auf das Crawling, Indexing und Ranking von der Webseite auch haben das heißt nur weil die URLs die gleichen sind und die eigentlichen Inhalte die gleichen sind heißt nicht automatisch weil die neue Webseite 100% gleich behandelt werden wie die Alpen ich denke URLs und Inhalte sind schon mal sehr wichtig und die haben sehr großen Einfluss aber interne Verlinkung ist auch sehr wichtig eine Frage zu AMP wir haben ein CNSwechsel Forms in dem Rahmen sollen die Amps unter neuen URLs generiert werden also im Moment sind sie m.domain.de stich amp nachher kommt aber Fragezeichen AMP am Ende ist der Wechsel ein Problem kann sich das nachteilig auf das Ranking der neuen AMP Partikel auswirken anfühle sich ist das überhaupt kein Problem für die Suche konzentrieren wir uns ja auf die Canonical URLs und die bleiben wahrscheinlich denke ich mal weiterhin gleich und die AMP URLs sind ja nicht da nur angehängt was wichtig wäre für den Übergangszeitraum ist einfach das man möglichst von den Alpen AMP URLs ein redirect auf zu den neuen AMP URLs und dann sollte das eigentlich problemlos so klappen könnte ich eine Frage stellen Jawoll es geht halt um die Qualität einer Webseite also wie genau betrachtet Google die Qualität einer Webseite also ich habe halt häufig gelesen dass Duplicate Content mittlerweile kein Problem mehr darstellt wir haben halt es geht halt um Flaggen und wir verkaufen halt verschiedene Größen jetzt haben wir 400 verschiedene Länder und teilweise ändern sich nur die Größen und die Länder in den Templates also Du hast praktisch 800 fast gleiche Artikelbeschreibung hat Google damit ein Problem sollte eigentlich also bezüglich Qualität ist das denke ich weniger ein Problem und eher einfach ein eine Frage von technische Frage einerseits vom Crawling und Indexing her aus unserer Sicht was da höchstens ein bisschen schwierig ist ist wenn jemand allgemein nach Flaggen sucht dann wissen wir natürlich nicht welche es dieser Seiten zu nehmen aber das ist eher eine Frage auf Eurer Seite es geht auch ein bisschen in Richtung hin dass das nun quasi die verschiedenen Varianten separat hat und gerade bei ein eCommerce site ist das ein bisschen schwierig zu entscheiden, möchte ich jetzt diese Varianten auf eigene URLs nehmen oder möchte ich diese Varianten auf eine URL nehmen und quasi ein paar Attribute vom gleichen Produkt haben gerade bei Flaggen in verschiedenen Größen kann das natürlich sein dass jemand nach dieser Flagge sucht und dann im zweiten Schritt sagt ja ich möchte jetzt diese Größe und das sind dann für den Benutzer nicht wirklich unterschiedliche Produkte sondern einfach verschiedene Varianten vom gleichen Produkt anders als kann es natürlich auch sein dass jemand gezielt nach Riesenflaggen sucht oder Tischflaggen und dann ist natürlich die Frage macht es Sinn, dass wir jetzt Tischflaggen, Mexico haben, weil wir sehen, dass viele gezielt danach suchen oder ist eine Tischflagge jeweils einfach eine Variante von einer Mexicoflagge und das sind Entscheidungen, wie müsst ihr irgendwie treffen der Einfluss auf SEO da ist natürlich ein bisschen das, wenn man verschiedene Seiten macht für diese verschiedenen Varianten dann müssen diese Seiten quasi für sich selber stehen und selber irgendwie ranken kann hingegen wenn ich eine Seite habe für Mexicoflaggen, dann sammelt sich da recht viel Wert an, weil alles was zum Mexicoflaggen vorhanden ist, ist auf dieser einen Seite und nicht aufgeteilt auf diesen fünf oder sechs verschiedene Varianten und da quasi die Balance zu finden zwischen eine Seite für dieses Produkt oder ist dieses Produkt vielleicht verschiedene separate Produkte müssen, das ist ein bisschen schwierig und das ist weniger eine Frage der Qualität sondern fast eher eine Frage von der Platzierung, wie man sich platzieren möchte in Art was sieht man als Produkt was sieht man als Produktvariante welches eigentlich zusammengeklappt werden könnte. Also im Moment kommt auch die richtige URL ich vermute, dass das jetzt durch die interne Linkung passiert also qualitativ wäre man nur schlecht wenn man jetzt ein anderes Thema auf der Webseite noch mit aufnimmt oder also wann ist die Qualität schlecht? Wann ist denn einfach so, dass ja geht nicht, wenn man Wikipedia mit reinnimmt oder wenn man weiß ich nicht. Ja, schwierig zu sagen, jetzt auf Anhieb eure Seiten bezogen was ich da mal machen würde ist die alte Blog-Post von Arbeitssignalen nochmal anzuschauen bezüglich ich dachte damals war das mit dem Panda Update, ganz am Anfang von 2012 wahrscheinlich ja. Ja genau aber da steht ja auch genau drin man soll Duplikate vermeiden Ja ich denke wichtig ist einfach, dass man da wirklich auch gezielt auf etwas konzentriert und da wirklich gezielt ein Produkt auf einer Seite hatten das nicht einfach quasi unnötig verdönt und dass man nicht unnötig Inhalte von anderen Websites noch dazu kopiert und hineinnimmt das macht es natürlich immer ein bisschen schwieriger, wenn jemand die Webseite anschaut und sieht, da ist ein großer Wikipedia-Artikel dabei soll ich dieser Webseite jetzt wirklich trauen, wenn ich eine Flacke kaufen möchte oder nicht, oder ist das vielleicht vielleicht ist das auch ganz normal das sind Sachen, die lassen sich nicht so einfach in einzelnen Schritte aufteilen was ich jeweils aufmachen würde, ist mit Benutzern das direkt mal anzuschauen was wir ab und zu machen ist so kleine User Studies dass wir Benutzer einladen wirklich auch gezielte Fragen mit denen anschauen, mit unseren Inhalten und versuchen aufgrund von dem ein bisschen herauszufinden, wo wir unsere Inhalte verbessern können wie wir sie weiterentwickeln können und das sind die Fragen von Amics in Karl, finde ich eigentlich recht praktisch in dem, dass man da vielleicht Benutzermal nehmen kann und die vielleicht mal einladen kann zu euch damit ihr wirklich mit ihnen das anschauen könnt und mal einige dieser Fragen überlegen, wenn jemand auf eurer Website kommt und Flaggen kaufen möchte wie sieht er das mit diesen Fragen, wie die da aufgeführt sind es sind wahrscheinlich auch nicht alle Fragen relevant für eine Website wie euch was halt problematisch ist es ist halt die Wikipedia-Geschichte die drin war, kann ich verstehen klar, teilweise Information was ich halt gemerkt habe in Frankreich haben wir diese Informationen nicht und in England auch nicht aber halt August hat sich die Sichtbarkeit verzehnfacht oder so also nur halt Deutschland Österreich und Schweiz hängen irgendwie hinterher aber gut ja also Dublikate stellen kein Problem oder sollte man zumindest noch sagen da wo sich tatsächlich nur das Land um die Größe ändert man sollte da ein Canonical vielleicht auf das andere setzen oder würde das gar nichts bringen oder testen ich würde das machen ich würde in solchen Fällen wo man wirklich nur einzelne Wörter verändert würde ich mir überlegen wirklich mit dem Canonical zu arbeiten dass man eher weniger stärkere Seiten hat statt dass man das einfach weiter verdünnt und ich denke da muss man vielleicht auch überlegen wie sieht das aus mit der Konkurrenz wenn da eine starke Konkurrenz da ist dann macht es vielleicht eher Sinn dass man mit weniger stärkeren Seiten arbeitet wenn fast keine Konkurrenz da ist dann macht das vielleicht auch keine Probleme wenn man jetzt mehrere Seiten hat die vielleicht nicht so wahnsinnig starke ja viele haben eine einfache Grafik und man kann halt die Größen auswählen aber wir haben halt für jedes Produkt ein einzelnes Foto noch ein zusätzliches Foto, noch ein Video und von daher stehen die Seiten für sich es gibt halt ein paar Produkte wo man sagen könnte okay, das da braucht Google nicht gucken alles klar, Dankeschön ich sehe gerade da im Chat dann kannst du heute noch etwas zum Google Core Update sagen anfühle sich nicht also da sind die Tweets von Danny und von uns anfühle sich schon da, das sind anfühle sich normale Veränderungen die wir immer wieder machen in den Suchergebnissen und da gibt es eigentlich nichts Gezieles wo man sagen könnte das müsst ihr verändern jetzt das hat sich irgendwie verändert seitdem das sind anfühle sich normale Ranking Veränderungen wie wir sie immer machen wie siehst du es wenn eine Homepage keine H1 aufweist wir haben einen Slider auf der Homepage und können damit anscheinend keine H1 definieren aus meiner Sicht ist das total okay ein Heading hilft uns ein bisschen die Inhalte besser zu strukturieren wenn man jetzt kein Heading da hat versuchen einfach die Struktur aus dem Rest im Text herauszuholen das geht anfühle sich genauso gut oder ja nicht genauso gut aber das geht in den meisten Fällen eigentlich auch was wir bevorzugt Long Content oder Content Siloing das geht ähnlich in die Richtung wie von vorher ich denke das hängt sehr von der Website ab und sehr davon ab was ihr damit erreichen wollt wir haben aktuell Subdomains auf der Webseite die wir auch im E-Mail verwenden zum Beispiel ch.migendomain.com nun werden wir bei den E-Mails die Subdomains abschaffen was empfiehlt sich für die Webseiten soll man dabei bleiben oder auf Unterverzeichnisse wechseln anfühle sich dann müsste das nicht davon abhängig sein wie ihr das mit dem E-Mail macht also das würde ich ganz getrennt anschauen und wirklich mal überlegen was macht Sinn mit den beiden Varianten wo sind die Vorteile, wo sind die Nachteile auf jeden Fall ist es so dass wenn ihr von einem Subdomain System auf ein Unterverzeichnensystem wechselt dann wird es auf jeden Fall sich ja mal größere Schwankungen in der Suche geben bis sich alles wieder eingependelt hat das heißt das ist nicht eine Entscheidung die ich einfach so machen würde weil unsere E-Mail-Adresse sich verändert haben sondern mir wirklich überlegen was möchten wir längerfristig damit erreichen warum haben wir diese Länder überhaupt separat können wir die vielleicht zusammenklappen können wir vielleicht einzelne Teile zusammenklappen oder müssen wir vielleicht aus rechtlichen Gründen unsere Subdomains beigehalten das ist etwas was ich anfühlt sich wirklich gut überlegen würde bevor ich da einfach das alles zusammenklappen würde lange Frage ich betreibe seit vielen jahren zahlreiche Websites von denen fast alle seit November 2016 massiv in den Rankings eingebrochen sind häufig sind dabei die Hauptkeywords die vorherthals Monate in den Top 3 platziert waren innerhalb von nur wenigen Monaten komplett aus den Suchergebnissen gefahren seitdem versuche ich die Ursachen für diese Maschinen-Panophies zu finden das aber habe ich schon versucht das hat allerdings zur Weiterung Verschlechterung geführt okay, da kommen ganz viele Fragen dazu vielleicht grundsätzlich noch zu sagen hier wenn das eine Veränderung in 2016 war dann hat sich seitdem viel weiter entwickelt dann ist es schwierig etwas herauszufinden was dann wieder zurückändern kann sodass man den Zustand von 2016 hat weil es hat sich alles mögliche weiterentwickelt innerhalb der Suche und außerhalb der Suche also schauen wir mal die Fragen an welche Ursachen gibt es generell für eine maschinelle Keyword-Panophie mir würde da zum Beispiel eine Verlinkung mit den entsprechenden Keywords einfallen oder wenn das Keyword zu oft auf einer Seite vorkommt gibt es noch weitere möglichen Ursachen dafür all das kann zusammenkommen das kann sich an Einfluss haben wie das aufgebaut ist aber grundsätzlich ist natürlich so, dass unsere Algorithmen sich da weiterentwickelt haben und was einmal funktioniert hat heißt nicht, dass es unbedingt funktioniert das heißt übertrieben Keyword-Verlinkung Keywords-Stuffing, solche Sachen können natürlich da gut zusammenkommen können zu viele URL-Links schädlich sein wenn das Hauptkeyword im Domain-Namen enthalten ist weil Google möglicherweise denkt im Linktext werden massiv die beiden Keywords gepusht nein das sollte kein Problem sein wenn einfach der Domain-Namen verlinkt ist das ist eigentlich kein Problem kann interne Verlinkung in der Navigation schädlich sein wenn zum Beispiel 50 Zohls intern verlinkt werden das kann für sich ganz normal sein das ist gerade bei einer größeren Web-Zeit die viele verschiedene Inhalte hat ist das natürlich auch so können Links werden von eigenen Seiten untereinander seit Schaden wenn diese Themen relevant sind zum Beispiel eine Seite Überreiseberichte verlinkt auf eine Seite Reiseangeboten ist es ein Problem wenn all diese Seiten vom gleichen Betreiber sind anfühlt sich das auch okay aus meiner Sicht also nicht unbedingt etwas problematisch sein könnte ich denke grundsätzlich wenn das jetzt eine größere Anzahl Websites waren und 2016 etwas passiert ist da hat sich wahrscheinlich einiges verändert dann würde ich mir grundsätzlich mal überlegen wie würde ich jetzt neu anfangen wie würde ich jetzt neu mit einer Web-Zeit anfangen und vielleicht gibt es da Sachen wie man sieht das habe ich früher ganz anders gemacht vielleicht müsste ich das ganz umkrempeln um das anders hinzukriegen aber es wird schwierig sein vielleicht mal so weit zurück das ganze durch kleine Veränderungen der Website wieder hinzukriegen ich denke das wird fast nicht möglich sein okay, gut ich denke zeitlich sind wir ziemlich am Ende hingekommen muss leider gleich weiter aber ich danke mich bei euch fürs kommen für die vielen Fragen ich hoffe das war nützlich ich wichte noch die nächsten Hangouts ein damit ihr weitere Fragen dort auch einreichen könnt und dann wünsche ich euch noch eine schöne Woche tschüss allerseits vielen Dank tschüss