 Okay, herzlich willkommen alleseits zum heutigen Webmaster Central Sprechstunden Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trans Analyst hier bei Google in der Schweiz und Teil von dem, was wir machen, sind diese Webmaster Hangouts. Wo ihr natürlich eure Fragen bereiten könnt, wir gehen die dann jeweils mal durch. Wie immer, wenn einer von euch loslegen will mit den ersten Fragen, dann seid ihr gerne dazu eingeladen. Ansonsten gehen wir einfach über zu den Fragen, die schon angereicht worden sind. Es sind bis jetzt noch nicht so wahnsinnig viel, aber fangen wir mal oben an. Es werden auf einer Website Inhalte importiert, die ein Produkt beschreiben. Wir möchten diese gerne in einem Tab unterbringen. Wie kann ich diese Tab-Inhalte vom Crawling ausschließen, so dass kein Duplicate Content entsteht? Grundsätzlich, wenn die Inhalte auf der Seite sind, können die gecrawl werden und können auch indexiert werden. Das ist allerdings auch kein Problem. Das heißt, wenn das Inhalte sind, die eh schon anderswo auf eurer Website vorhanden sind, dann ist für uns ja eigentlich klar, dass die Inhalte da jetzt einfach zweimal vorhanden sind. Das heißt, was auf unserer Seite passiert, ist, dass wir dann in den Suchergebnissen, wenn jemand nach diesen Inhalten sucht, wissen wir, dass diese Inhalte auf verschiedenen Seiten sind. Und wir versuchen dann, die relevantesten Seiten herauszufinden und die dann in den Suchergebnissen zu zeigen. Das heißt, es ist keine Strafe für Duplicate Content in dem Sinn. Wir versuchen einfach, die relevanteste Version von diesen Inhalten herauszuholen. Und wenn das die gleichen Inhalte sind auf verschiedenen Tabs oder auf verschiedenen Seiten, dann gibt es wahrscheinlich eine Seite, die ganz klar für diese Inhalte quasi zuständig ist und das ist dann hoffentlich auch die, die wir dann in den Suchergebnissen entsprechend oben zeigen. Das heißt, eigentlich muss man da nichts machen, um das zu verhindern. Wenn man auf jeden Fall trotzdem verhindern will, dass solche Inhalte irgendwie indexiert werden, muss man die Inhalte vom Crawling ausschließen. Das heißt, es ist nicht ganz trivial, das zu machen. Eine Variante, die man machen kann, ist das man zum Beispiel mit einem iFrame arbeitet und innerhalb vom iFrame die Inhalte, die da herangeholt werden, die dann jeweils zum Beispiel per Robots Text blockiert. So dass Google, wenn diese Seite mit dem iFrame gecrawled, verhindert wird und indexiert wird, sehen wir natürlich alles andere. Wir sehen den iFrame, wir wissen aber nicht, was im iFrame drin ist und entsprechend können wir die Inhalte dann für die Suchergebnissen dort nicht verwenden. Ich denke, in den meisten Fällen, auch in einem solchen Fall, jetzt im normalen Webshop ist das unnötig. Muss man solche Sachen nicht machen, weil wie gesagt, auf unserer Seite wir erkennen dann Duplicate Content, wir versuchen auch die relevanteste Version zu zeigen und da muss man dann nichts gezieltechnisches anpassen, damit die anderen Version nicht gefunden werden. Okay, hinsichtlich des holistischen Ansatz bei der Content-Erstellung stellt sich die Frage, ob Google umfangreiche Seiten ab einem gewissen Punkt als too long to read einschätzt und daher nachrangig ranked. Gibt es eine Empfehlung zum maximalen Word Count? Nein, es gibt keine Empfehlung für ein maximaler Word Count. Aus unserer Sicht ist es eher einfach eine technische Frage, dass wir sagen, ab einer gewissen Dateigröße macht es für uns wenig Sinn, dass man da noch weitere Wörter von dieser Seite quasi indexieren. Und so viel ich weiß, ist das irgendwo im Bereich 100 Megabyte. Also so, dass man durchaus ganze Bücher auch veröffentlichen kann, auf einer Seite. Und wir können dann trotzdem noch die ganzen Inhalte dort erkennen. Aber auch so, dass wir irgendwo sagen, wenn jetzt ein Webserver zum Beispiel eine unendliche Schleife in PHP-Script dabei ist und unendlich lange Inhalte weiterliefert, dann hören wir irgendwo auf und sagen, jetzt haben wir eigentlich die Inhalte, wo wir denken, sind wahrscheinlich die relevantesten Sachen schon gefunden und nehmen dann das für die Suche. Das heißt, es gibt da kein Word Count, sondern eher einfach eine technische Grenze, wo wir sagen, jetzt ist genug von dieser einen Seite irgendwo, ist wahrscheinlich aber schiefgegangen. Es macht jetzt nicht weiter Sinn, dass man da noch mehr von dieser Seite holt. Okay, dann noch eine Frage. Ich glaube, die geht eher in Richtung AdWords, wo es nicht so wahnsinnig viel helfen kann. Auf einem Portal werden Unternehmer und potenzielle Nachfolger zusammengebracht. Unternehmer erstellen ein Landingpage, um sich zu präsentieren. Jede Landingpage soll regional mit AdWords beworben werden können. In einigen Regionen sind mehrere Unternehmer vertreten und möchten per Google AdWords regional werden. Ist es erforderlich, dass jede Landingpage eine eigene Domain aufweist, damit dennoch alle Anzeigen zeitgleich geschaltet werden oder können die Landingpages unter Subdomains laufen? Ich weiß nicht, wie AdWords das hat. Ich weiß nicht, ob einer von euch vielleicht mehr Informationen dazu hat. Ansonsten würde ich da empfehlen, dass man vielleicht den AdWords-Fonds nochmal gezielt nachfragt bei den AdWords-Spezialisten. In vielen Fällen hat man vielleicht auch einen Ansprechpartner bei Google speziell für das eigene AdWords-Konto und da kann man da solche Sachen dann vielleicht auch mal nachfragen. Zumindest aus der Websuche her, ist es so, dass ihr das für nie gekannt habt. Ihr könnt damit Unterseiten arbeiten, mit Unterverzeichnissen, mit Subdomains, mit eigenen Domains. Das ist an für sich euch überlassen. Wir empfehlen eher, dass man, wenn möglich, alles innerhalb vom gleichen Domain macht, einfach aus der Hinsicht, dass es dann viel einfacher ist zum Verwalten. Ihr habt da keine Mühe mit Search Console, dass man für all die Domains wieder alle Varianten einrichten muss. Sondern ihr habt es dann auch irgendwie ein bisschen besser zusammen. Dann haben wir dann noch eine Frage. Auf einer informativen Seite folgen zwei guten Bildern, ein erklärender Text zu den Bildern. Im Text umfasst zwei normalen Sätze mit einem Paytag, interpretiert Google diesen Absatz als Caption. Ich denke, ob wir das als Caption sehen oder nicht, ist es möglich, dass wir das als Caption sehen. Aber in der Regel ist es allgemein auch so, dass Texte aufseiten mit Bildern, eher mit den Bildern irgendwie versuchen, in Zusammenhang zu bringen. Das heißt, wir können ja die Bilder nicht direkt auslesen und sagen, ah, da ist jetzt das drauf oder das drauf. Das heißt, ich denke, das kommt wahrscheinlich eher irgendwann in Zukunft mal, aber zumindest im Moment ist es so, dass wir die Bilder irgendwie eher als Bildartei nehmen und wir versuchen die Information über diese Bilder von den Landing pages direkt zu holen. Das heißt, wenn das Text da oben ist, den Text zu finden, der relevant ist für diese Landing pages und nehmen das dann für die Bildersuche, um festzustellen, welche Bilder für welche Begriffe jetzt relevant werden. Ob diese Texte jetzt einfach in der Nähe von den Bildern sind oder direkt als Caption erkannt werden oder vielleicht direkt im HTML als Caption markiert werden, welche Texte finden können, die zu diesen Bildern zusammen passen, so dass wir für die Bildersuche einigermaßen wissen, wofür können wir diese Landing page, dieses Bild in den Suchergebnissen zeigen. Das heißt, wenn das jetzt eure Bilder sind und ihr wollt die in den Suchergebnissen, in den Bildersuchergebnissen sichtbar haben, macht es auf jeden Fall Sinn, dass man irgendeine Beschreibung damit wir einigermaßen verstehen, was wir da nehmen können für das Ranking in der Bildersuche bei diesen Bildern. Ich weiß, dass das Ergebnis der Side-Abfrage, also SideDouble.Domain.de nur eine grobe Schätzung ist, die mehr auf Geschwindigkeit als auf Genauigkeit optimiert ist für einen Wettbewerbsvergleich, ist es aber die einzige Datenquelle, wenn man nicht zugruf auf die Search Console Daten hat. Hat sich im Juli da irgendetwas verändert, seit Herr Sieden bei vielen Domains wird es stark veränderter Werte. Ich weiß nicht von irgendeiner Veränderung bezüglich der Side-Abfrage. In der Regel ist das auch etwas, was wir sagen wir mal eher als nebensächlich anschauen bezüglich mit Qualitätsveränderungen zum Beispiel in den Suchergebnissen. Es ist möglich, dass ein Ingenieur an den Side-Abfragen gearbeitet hat und da das ein bisschen versagt optimiert hat. Es kann sein, dass man da jetzt auch noch Änderungen gesehen hat. Ich persönlich bin da jetzt nicht so informiert bezüglich irgendwelchen Anpassungen da. In der Regel sind das auch Sachen, von denen wir eher weniger etwas hören, weil das eigentlich die Qualität der Suchergebnisse nicht groß beeinträchtigt. Bezüglich dem zweiten Teil der Frage, dass manchmal, wenn man für WWW abfragt eine kleinere Zahl kommt, also wenn man ohne WWW abfragt oder umgekehrt. Das kann durchaus sein. Ich denke, das ist etwas, was aus unserer Sicht damit zusammenhängt, wie das Ganze auch optimiert wird, wie das Ganze gezählt wird. Manchmal sieht man auch, wenn man genauer einschränkt, dass noch eine höhere Zahl gezeigt wird. Das hängt einfach damit zusammen, dass wir dann vielleicht ein bisschen genauer schauen und überlegen, was es jetzt wirklich da vorhanden. Das heißt, manchmal kann man zum Beispiel auch eine Seiterfrage für ein Unterverzeichnis machen und dann kommt eine höhere Zahl heraus, als wenn man es nur im Domain anschaut. Aus unserer Sicht sind das Optimierungen, die wir machen, eben wie gesagt, für Geschwindigkeit, EHLs, für Genauigkeit. Wenn man das genauer anschauen möchte, dann müsste man schon mit den Search Console Daten arbeiten. Dann sind da, würde ich sagen, die Seiterfragenergebnisse sind nicht dafür geeignet, dass man da irgendwie eine Diagnose über diese Website machen kann. Wir bekommen in der Search Console Fehler angezeigt, die wir nicht nachvollziehen können. Bei den SOF404 werden URLs angezeigt, die weder im Index sind, noch auf unserer Seite oder im Site Map. Sie wurden vor circa 2 Monaten gelöscht, beziehungsweise teilweise umgeleitet. Der Reiter nicht gefunden, zeigt uns URLs, die ein Sonderzeichen in sich haben. Diese werden seit circa 2 Wochen in das Site Map um mit Canonical Tag, mit Unicode ersetzt. Wir wissen, dass es ein Moment dauern kann, bis Google das merkt. Allerdings merken wir, markieren wir die Fehler immer wieder als gelöst und sie erscheinen, aber das sind zwei Sachen, die vielleicht ein bisschen zusammenhängen. Einerseits ist es so, dass wir URLs immer wieder neu versuchen. Das heißt, unsere Systeme sind so, dass auch wenn eine URL schon einige Zeit nicht mehr vorhanden war oder seit einiger Zeit, als viel nur viel gemeldet worden ist, kann es auch sein, dass wir die irgendwann wieder probieren. Manchmal ein paar Wochen zwischen Versuchen geht, manchmal ein paar Monate. Je nachdem, wie groß die Website ist, hat man natürlich dann immer eine gewisse Menge an URLs, die kontrolliert werden an und für sich von unseren Systemen. Wir schauen nach, ob der immer noch ein 404 ist, wenn das ein 404 ist, ist das aus unserer Sicht total okay. Wir wissen, dass wir die URL dann so nicht indexieren sollen. Wenn sich inzwischen aber was geändert hat und wir jetzt einen Inhalter finden versuchen, wir die natürlich zu indexieren. Und so ist es eigentlich normal, dass eine gewisse Menge an 404-Fählern eigentlich immer wieder aufkommt, auch wenn man jetzt die auf 404 gesetzt hat oder wenn man die in der Zeitmap-Partei geändert hat. Das andere ist natürlich auch, dass wenn man jetzt in der Zeitmap-Partei Änderungen macht, bezieht sich das in erster Linie auf neue oder geänderte URLs, die wir neu entdecken. Wenn wir eine URL in der Zeitmap-Partei umbenennen, dann verändert das nicht in unserem Index die URL, sondern heißt für uns dann eigentlich nur, ah, da ist eine neue URL unter dieser neuen Adresse und die versuchen wir dann neu zu crawl. Das heißt, wir ziehen dann nicht den Schloß zwischen der alten URL und der neuen URL, sondern sehen eigentlich in der Zeitmap-Partei nur, da ist eine neue, die wir noch nicht gesehen haben. Also schauen wir die neu an. Diesbezüglich kann es natürlich sein, dass wir die alten dann erst recht noch ein bisschen weiter crawlen, weil wir uns ja eher auf die neuere URLs konzentrieren. Bezüglich der Soft 404 Fehler ist es so, dass da verschiedene Faktoren zusammenkommen können, um ein Soft 404 quasi zu erkennen auf unserer Seite. Einerseits ist eigentlich das, sag mal, der Standardfall, so, dass wir die URL aufrufen und es kommt eine große Fehlermeldung, da steht dann drauf, diese URL existiert nicht mehr und die Seite wird dann trotzdem mit 200 Code zurückgegeben, so dass unsere Systeme im ersten Moment denken, ah, da kommt eine Seite mit Inhalten und dann im zweiten Moment schauen wir die Inhalte an und sagen, ah, das ist eigentlich nur eine Fehlerseite, wir können die aus dem Index rausnehmen. Das heißt, eben bezogen auf den ersten Teil der Seite, diese URLs sollten auch nicht im Index sein, weil wir sie als Fehlerseite erkennen. Zwei andere häufige Varianten von Soft 404, die wir sehen, sind Seiten, die einen No Index haben. Aus unserer Sicht ist es ja auch etwas Ähnliches wie eine 404-Seite. Ist es ein No Index drauf, das heißt, ihr sagt uns eigentlich schon, die Seite sollte nicht so indexiert werden und wenn sie mit 200 Code zurückgegeben wird, dann ist das so ähnlich wie eine Soft 404-Seite eigentlich schon. Das andere, was auch ab und zu vorkommt, ist, dass man größere Teil der Website löscht und auf ein anderer URL innerhalb der Website weiter leidet. Was wir zum Beispiel oft sehen, ist, dass man vielleicht eine ganze Produktereihe löscht auf der Website und dass die ganze Kategorie auf einmal nicht mehr auf der Website und dann denkt man sich vielleicht, statt einfach eine 404-Seite zu zeigen, mache ich ein redirect von all diesen Produkten zur Homepage meiner Website oder zur Kategorien Start-Seite oder irgendeiner anderen Seite innerhalb der Website und aus unserer Sicht ist es eigentlich auch ein Soft 404. Das heißt, ihr sagt uns ja, diese alten URLs existieren nicht mehr und wir müssen die dann entsprechend anlassen und wir sehen dann zwar diesen redirect, aber wir denken uns gut, dass es eher wie ein soft 404, das heißt, wie eine Seite, die jetzt nicht mehr existiert, als eine Seite, die jetzt weitergezogen ist an einer anderen Adresse. Das heißt, aus unserer Sicht ist das ein bisschen suboptimal, weil wir diese ganzen redirect sehen, wir versuchen diese redirecten zu crawlen und denken, ah, diese URL ist umgezogen auf eine andere Adresse, dabei wollt ihr uns eigentlich nur sagen, diese URL existiert gar nicht mehr, sondern ihr sollt euch auf die Startseite der Website zum Beispiel konzentrieren. Für Benutzer ist das auch nicht ganz optimal, wenn wir die zu einer Seite schicken, die dann eh woanders weiterleitet, aber es ist natürlich manchmal schwierig, das richtig einzurichten, so dass man wirklich saubere 404 Seiten hat, die bezogen sind auf die Inhalte, die vielleicht früher da waren, wo ihr auf den 404 Seiten zum Beispiel sagen könnt, diese Produktreihe existiert nicht mehr bei uns, aber wir haben eine neue Produktreihe, die euch vielleicht passen würde, dass man das so irgendwie zusammenhängt. Eigentlich ganz viel über Fehler, die da vorhanden sind, aber eben wie gesagt, ich denke, das Wichtigste ist auch, dass diese ganzen Fehler, die 404 Fehler und die soft 404 Fehler verursachen nicht, dass wir denken, dass die Webseite minderwertig ist, dass sie von der Qualität her nicht so gut ist wie andere Webseiten, sondern das sind einfach Sachen, die kasieren auf eine Webseite im Laufe der Zeit. Und diese 404 Fehler und die soft 404 Fehler bedeuten eigentlich nur, dass wir diese URLs, die da gemeldet werden, aus dem Index herausgenommen haben und dass wir uns in der Rest der Webseite jeweils konzentrieren. Und das kann für sich auch okay sein, von dem her. Das letzte, was ich vielleicht noch dazu sagen möchte, ist, du hast geschrieben, dass die Fehler jeweils markiert werden und als gelöst gestellt werden. Aus unserer Sicht ist diese Markierung als gelöst, ist eigentlich nur in Search Console für die Anzeige gedacht. Das heißt, die verschwinden aus dieser Anzeige in Search Console, es ist nicht so, dass unsere Systeme dann denken, gut, wir schauen diese URLs nie mehr an, sondern die verschwinden dann jeweils nur aus dieser Anzeige in Search Console bis das nächste Mal, wenn wir diese URLs wieder crawlen und wieder sehen, dass da irgendein Fehler vorhanden ist. Das ist ein System, das manchmal ein bisschen verwirrend ist, weil man hat vielleicht das Gefühl, dass das irgendein Einfluss hat auf die Indexierung oder dass Google irgendwelche Schlüsse daraus zieht, aber es bezieht sich wirklich nur auf das User Interface in Search Console und hat kein Einfluss auf das Crawling und das Indexing nachher. Wir möchten das ein bisschen umstellen in der Zukunft, dass man da vielleicht auch angeben kann, ich habe diese Fehler gesehen, ich akzeptiere diese Fehler sozusagen und ich möchte, dass Google mich nicht mehr mit diesen Fehler anstört oder dass man die auch markieren kann und sagen kann, ich habe diese Fehler gesehen, ich habe jetzt Veränderungen gemacht auf meiner Webseite, so dass diese Fehler jetzt nicht mehr vorhanden sein sollten, ich möchte, dass Google nochmal hingeht und sich das Ganze anschaut und kontrollieren. Und ich denke, mit zwei solchen Varianten wird das ein bisschen klarer, aber im Moment ist es wirklich so, dass man nur auf das User Interface in Search Console bezieht. Mal schauen, ob da noch mehr Fragen kommen. Ich glaube, es ist eigentlich schon alles, was eingereicht worden ist. Das ging aber schnell. Nein, kommt noch mehr. Okay. Nach einem Re-Launch sollte man Redirects von der alten URL zur neuen URL einrichten, damit der Nutzer auch zukünftig noch zu den korrekten Inhalten geführt wird und auch die bisherigen PageRank und so weiter auf die neuen URL übertragen wird. Gibt es einen Zeitraum, in welchem das geschehen sollte? Also kann es sein, dass ab einer gewissen Zeit der PageRank und Code nicht mehr weiter übertragen werden kann, wenn die Bewertungspunkte der alten URL irgendwann verfallen. Sollte eigentlich nicht sein. Also, was man auf jeden Fall worauf man auf jeden Fall achten sollte, ist, dass man diese Redirects von Anfang an einrichtet, sodass wir wirklich möglichst ohne Unterbrechung die Signale von der alten URL dann auf die neuen URLs übertragen können. Das ist einerseits mal wichtig. Andererseits ist es auch so, dass wir diese URLs, diese Weiterleitung immer wieder mal kontrollieren, weil wir es sicher sein möchten, dass wir nichts verpassen, wenn jetzt neue Inhalte und von dem her würde ich mindestens diese Redirect mal ein Jahr oder so in Betrieb behält. Nach einer gewissen Zeit ist es so, dass die alten URLs eh nicht mehr so viele Signale haben und dass es wahrscheinlich nicht so kritisch ist, dass man diese Weiterleitung beibehält, aber ich würde schon Sicherheitshalber mal sagen, dass man so vorhanden sein sollte. Im optimalen Fall würde ich diese Redirects auch weiterhin vorhanden lassen. Ich denke, das ist manchmal einfach ein bisschen schwierig, wenn man jetzt mehrere Redr Signs gemacht hat, dann hat man so eine ganze Schlaufe an Redracks, die da vorhanden sind und die machen die Wartung am Server dann wieder auch ein bisschen komplizierter. Das heißt, irgendwann aus praktischem Gold ich mache jetzt einen Schnitt und stelle die ganz alten Redracks an. Was man da machen könnte um sicherzustellen, dass da nichts wirkliches verloren geht, ist, dass man in den Server Logs nachschaut, wie oft die alten URLs wirklich aufgerufen werden. Einerseits von normalen Benutzern, das sind ja wahrscheinlich die wichtigsten, andererseits auch von Suchmaschinen und normalerweise sollte man eigentlich sehen, dass man auch von Suchmaschinen im Laufe der Zeit eigentlich runtergeht, so dass man sich auch irgendwann sagen kann, gut, es wird so selten auf diese alten URLs zugerufen, dass wir die Redracks wirklich rausnehmen können. Und dann kommt die zweite Frage. Eigentlich auch schon, wie lange sollte man die Redracks bestehen lassen? Wie gesagt, wenn möglich, würde ich sie solange wie möglich stehen lassen, aber ich würde sie mindestens ein Jahr bestehen lassen. Ein anderes, was da auch ein bisschen dazu hineinfließt, ist, dass wir die Seiten ja nicht alle im gleichen Rhythmus crawlen. Das heißt, einige Seiten crawlen wir sehr häufig, vielleicht mehrmals am Tag, vielleicht alle paar Tage, andere so mittelmäßig, vielleicht alle paar Tage, alle paar Wochen und andere Seiten innerhalb von der Website crawlen wir vielleicht nur alle paar Monate, einmal im halben Jahr so in diesem Rahmen. Wenn wir wirklich die Redracks sauber verarbeiten können, müssen wir ja mindestens einmal diesen Redrack sehen. Das heißt, wenn wir denken, dass nach einem halben Jahr sollten alle Seiten einer Website gecrawlt werden, dann müssen mindestens, würde ich sagen, halb bis jahr diese Redracks vorhanden sein, optimal, natürlich auch länger. Und wenn man jetzt mit der doppelten Länge rechnet, dann ist man meistens einigermaßen gut beraten. Wenn man es noch länger weiterhalten kann, ist es natürlich noch besser. Aber wie gesagt, in den Log-Dateien sieht man das dann sehr schnell und da sieht man dann einigermaßen auch, ja wann kann ich dann quasi mit diesen Verlusten, mit welchen Verlusten kann ich rechnen, wenn ich sehe, es kommen noch fünf Benutzer im Monat auf diese alten Seiten, wenn ich denen einfach eine 404-Seite zeige, finden Sie den Weg auch noch zum Rest der Website, vielleicht ist das auch okay irgendwann. Gibt es aktuell Probleme in der Search Console? Die strukturierten Daten wurden dort schon länger nicht mehr aktualisiert und das erscheinen bei uns auf laufend Fehler bei den strukturierten Daten, welche im Live-Testen nicht angezeigt werden. Mir ist da eigentlich nichts bekannt, gerade bezüglich strukturierten Daten. Ich habe von anderen aber auch etwas Ähnliches gehört und müsste da vielleicht noch beim Search Console Team genauer nachfragen. Also wenn du das weiterhin siehst, das in strukturierten Daten die Information dort nicht sauber erscheinen, wäre ich froh, wenn ich zumindest die URL haben könnte von der Website, damit ich das Team mal weitergeben kann, damit ich das aufgrund von speziellen Beispielen auch mal anschauen kann. Frage zur Website mit oder ohne der Rücksichtigung von SSL strukturierten Daten und Darstellung der Domain in den mobilen Suchergebnissen. Wie schaut es denn aus, wenn man die Darstellung der Suchergebnissen im Mobile betrachtet? Hier werden ihr dort auf mobilen Endgeräten die URLs schnippet mit weniger Pixel beziehungsweise Zeichen angezeigt. Zeits SSL kamen mit HTTPS Jaachzeichen noch dazu. Dadurch wird die URL mit Home Seite 1 und so weiter die gesamte Darstellung auf Mobile kürzer und nicht vollständig angezeigt. Macht es aus dieser Sicht Sinn in Zukunft auf WBW zu verzichten wird das HTTPS in Suchergebnissen irgendwann wieder verschwinden. Weiß ich nicht. Wir haben das auch mit dem Team mal angeschaut gerade wenn man jetzt einen längeren Domainnamen hat und mit WBW und HTTPS vorne noch arbeitet dann ist immer weniger Platz für Breadcrumbs, für weitere Informationen dort. Ich denke da wird man sich auf jeden Fall auf mobilen Geräten zumindest irgendwas mal überlegen auf unserer Seite ob man das anders darstellen könnte. Ich glaube auf Desktop vor einiger Zeit auch mal mit dem Seitenamen gearbeitet dass man da statt mit der URL mit dem Domainnamen einfach versucht den Namen der Website herauszufinden an denen zu zeigen vielleicht kommt so irgendwas ich weiß es nicht. Ich nehme an das sind Sachen mit denen die UX-Researcher hier immer wieder tüfteln und wahrscheinlich auch Tests machen das funktioniert da am besten. Ein Versuch den ich auf verschiedenen Blogs mal gesehen habe ist dass die Domainnamen oder die URL zum Beispiel gar nicht gezeigt wird sondern dass man nur den Titel der Website zeigt ich weiß nicht was was sich am Ende herausstellen wird als Lösung. Ich denke zumindest aus Webmaster Sicht würde ich dann nicht allzu groß versuchen da irgendwie meine Website auf das anzupassen was Google im Moment in den Suchergebnissen zeigt sondern versuchen das zu finden was längerfristig für euch funktioniert am besten in den Suchergebnissen. Mit oder ohne WLW das ist wahrscheinlich eher Geschmackssache manchmal ein bisschen auch eine technische Frage wenn man da mit CDNs arbeitet und je nachdem wie man mit dem DNS arbeitet kann das sein, dass das eine technische Frage ist aber was ich am ehesten davon abraten würde ist dass man da Domainumzug macht nur wegen dieser dargestellten URL weil jedes Mal wenn ihr auch innerhalb vom gleichen Domain einen Umzug macht gibt es da irgendwelche Schwankungen und Variationen und es braucht eine gewisse Zeit bis ich so eine Umstellung dann auch irgendwie wieder stabilisiert habe. Das heißt jetzt nur wegen dieser Darstellung in Suchergebnissen von WLW auf nicht WLW zu wechseln würde ich eher abraten ich würde höchstens wenn ihr eh einen Domainumzug macht mir überlegen ja wie sieht das dann in Suchergebnissen aus welche Variante macht am meisten für mich längerfristig auch sehen aber für die Darstellung in Suchergebnissen würde ich da jetzt nicht so eine große Umstellung machen. Ob dann noch mehr kommt. Nach welchen Gruppenfaktoren entscheidet der Googlebot welche Unterseiten und wie tief er crawlt oder wie häufig entscheidet der Indexer was in dem Index aufgenommen wird. Das sind nicht so einfache Fragen. Die Fragen sind schon einfach gestellt aber die Antworten zumindest sind nicht so einfach es gibt gewisse Blogposts von verschiedenen die da unsere Patente mal durchgeschaut haben unsere Informationen durchgeschaut haben und da einige Faktoren herausgeholt haben. Wichtig ist gerade beim Crawling für uns dass wir eine einigermaßen sauberer Struktur finden das heißt, dass wir uns nicht allzu fest verlaufen beim Crawling mit duplicate Content zum Beispiel dass die URL Struktur die wir finden einigermaßen klar ist und wenn das der Fall ist, dann können wir zumindest theoretisch gesehen den Großteil der Website auch crawlen. Die Geschwindigkeit wie schnell der Crawling hängt ein bisschen von verschiedenen anderen Faktoren ab da haben wir, ich glaube vor einigen Monaten ein Blogpost gemacht bezüglich Crawl Budget wo wir ein bisschen darauf eingehen einerseits sind da technische Faktoren wie schnell der Server zum Beispiel reagiert wie wie der Server auf Crawling unsere Sites reagiert ob da langsamer wird wenn wir mehr Crawlen ob zum Beispiel mehr Serverfehler kommen wenn wir mehr Crawlen solche Sachen je schneller wir Crawlen können umso schneller könnten wir theoretisch natürlich auch Crawlen das heißt allerdings nicht dass wir dann auch wirklich viel schneller Crawlen oder viel mehr Seiten crawlen weil manchmal sehen wir Websites und sehen das sind zwar Millionen von Seiten vorhanden aber das sind alle Seiten die wir schon gesehen haben oder das sind Seiten wo wir uns vorstellen können dass die Qualität nicht so wahnsinnig hoch ist zum Beispiel wenn ich ein Affiliate Shop erstelle und ich nehme einfach die ersten 10 Feeds die ich kriege und mache daraus eine Website dann habe ich schneller mal Millionen Seiten aber aus unserer Sicht sind das vielleicht nicht unbedingt Seiten wie relevant sind die wir indexieren möchten und dementsprechend müssen wir dann auch irgendwann sagen gut mit dem Crawling macht es eigentlich nicht so wahnsinnig viel Sinn dass wir so viele Ressourcen hier investieren wenn das E-Seiten sind die niemanden in den Suchergebnissen anschaut ähnlich ist das auch mit dem Indexing dass wir da irgendwie auch die Qualität der Website mit hineinziehen und sagen gut es macht Sinn dass wir jetzt mehr indexieren von dieser Website oder es macht Sinn dass wir ein bisschen weniger von dieser Website indexieren und im Laufe der Zeit die Signale dann wieder neu beurteilen und sagen gut die Website ist jetzt signifikant besser geworden wir crawl und indexieren jetzt entsprechend auch wieder ein bisschen mehr oder auch das Umgekehrte dass wir sagen die Website ist jetzt tatsächlich nicht mehr verändert wahrscheinlich müssen wir die Website nicht so häufig crawl und sehen dann trotzdem alle Bänderungen die auf dieser Website stattfinden und ihr könnt euch vorstellen dass auf unserer Seite solche Algorithmen nicht wahnsinnig einfach sind und dass die auch ständig überarbeitet werden müssen das heißt wir haben Teams die gezielt an Crawling arbeiten die gezielt an quasi überlegen welche Girls wann gecrawled werden müssen also am Scheduling vom Crawling und die auch für die Indexierung eigentlich immer weiterhin dran arbeiten um das möglichst zu optimieren weil einerseits haben wir nicht unendliche Ressourcen andererseits habt ihr auch nicht unendliche Ressourcen und könnt da beliebig quasi den Server aufstopfen nur damit Googlebot einfach mehr crawl sicherstellen dass den Aufwand den ihr in die Website steckt irgendwie auch getragen wird von den Benutzern die auf eurer Website geben ok da kommen immer mehr dazu super ok was ist deine Meinung zu verstehen was ist deine Meinung zu verstecken Display 9 H2 Headings die nur existieren damit Screen Reader sie vorlesen wir würden dadurch ein besseres Verständnis zur Seite bekommen nur zur ohne Screen Reader brauchen diese Überschriften nicht da sie die Seite anders wahrnehmen können wäre es eine Lösung einen Button auf der Seite zu haben der diese Überschriften sich da macht ich denke das müsst ihr wahrscheinlich mit euren Benutzern anschauen und überlegen wie ihr das am besten machen können zumindest aus unserer Sicht bezüglich der Indexierung und vom Ranking her ist das in der Regel unproblematisch weil die Inhalte passen ja auch einigermaßen zusammen das heißt problematisch wäre es für uns wenn es eher in Richtung Cloaking geht so dass die sichtbaren Inhalte wirklich gar nichts mit den unsichtbaren Inhalten zu tun haben dann würde aus unserer vielleicht irgendwann das Website beim Team kommen und sagen ihr versteckt der Inhalte die ihr für das Ranking verwendet werden wollen aber die eigentlich nicht zu dieser Seite passen das wäre dann vielleicht etwas problematisch wenn es hingegen wirklich nur darum geht dass man Inhalte auf dieser Seite hat die eigentlich zu diesen Hauptinhalten zusammen passen die vielleicht für einzelne Benutzers sichtbar sind für andere nicht sichtbar sind und das ist ja nicht so dass das irgendwie Cloaking ist es ist einfach, ja wir haben halt weniger Platz auf der mobilen Seite also muss man da irgendwie das kombinieren und so würde ich das in einem solchen Fall hier auch sehen dass da vielleicht gerade für Benutzer die die Mühe haben die Texte und die Bilder zu erkennen dass es da vielleicht eher Sinn macht noch ein bisschen mehr Zusatzinformation zu bringen und das sehe ich jetzt nicht unbedingt als etwas Schlimmes an also würde ich jetzt nicht sagen dass das Website beim Team drauf reagieren würde und da vielleicht eine manuelle Maßnahme einreichen würde sondern das sind Sachen die eher mit den Benutzern zusammen macht und die ihr eher mit den Benutzern vielleicht auch gemeinsam ausarbeiten müsst und ob das überhaupt Sinn macht oder nicht ich würde jetzt nicht groß hingehen und sagen all meine H2 Headings verstecke ich und sage die sind jetzt für Benutzermittscreen wieder vorhanden weil das stört dann wahrscheinlich solche die mit normalen Börse auf diese Seiten gehen und nicht mehr wissen worum es sich auf dieser Seite handelt inwieweit Färbeninhalte oder die Bewertung einer Domain auf einen Subdomain ab werden Beziehungen berücksichtigt oder wird das komplett getrennt bewertet und nehmen keine gegenseitigen Einfluss das lässt sich nicht so schwarz-weiß Antworten weil wir versuchen festzustellen was was der Rahmen einer Webseite ist und das kann manchmal Unterverzeichnisse dazu hineinziehen manchmal sehen wir auch dass Unterverzeichnisse nämlich eher separate Webseite sind ähnlich kann das Subdomains auch beinhalten dass man sagt all diese Subdomains gehören zu dieser Webseite und dann kann man diese Webseite als Ganzes anfüßig betrachten manchmal ist es aber so dass Subdomains ganz unterschiedliche Webseite sind zum Beispiel auch Blogger sind ja alle einzelnen Blogs sind ja Unterverzeichnisse vom Blogspot.com und die sollten ja als separate Webseite betrachtet werden ähnlich ist es auch mit anderen shared hosting Einrichtungen dass da manchmal Subdomains verwendet werden manchmal Unterverzeichnisse und das sind so Unterscheidungen die versuchen wir irgendwie festzustellen innerhalb der Webseite und manchmal ist das eher in die Richtung manchmal ist das eher in die Richtung manchmal ist es auch einfach nicht ganz klar und da versuchen wir entsprechend das Ganze irgendwie zusammenzubringen und für uns das Erkennen einer Webseite macht am meisten Sinn um einigermaßen festzustellen wie wir mit neuen Inhalten umgehen soll das heißt wenn wir jetzt ein neuer Inhalt auf einer Webseite erkennen und wir wissen das ist eine besonders gute Webseite dann kann es euch auch sein dass wir diese Inhalte ein bisschen schneller Kron ein bisschen schneller indexieren eine Suchergebnisse bringen bevor wir gezielte Signale haben für diese speziellen Inhalte ähnlich wenn wir erkennen können dass die Webseite besonders schlecht ist wenn die jetzt eher sparmig ist und wir sehen dass da neue Seiten vorhanden sind dann können wir vielleicht auch sagen gut es lohnt sich nicht allzu viel dahinein zu stecken weil bisher was wir gesehen haben war nicht so besonders toll also ist das vielleicht auch nicht so besonders toll und da können da ein bisschen auch ein Ressourcen sparen aber das sind Sachen die passieren eher im ersten Moment wenn wir die Inhalte neu sehen sobald wir Signale für diese Inhalte gezielt auch sammeln können können wir uns natürlich auch diese Signale für diese einzelnen Seiten auch ein bisschen besser konzentrieren müssen dann das Gesamtbild der Webseite nicht mehr so stark dazu dann noch eine Nachfrage zur ersten Frage diese Inhalte sind wenn man sie nicht spärt auf über 5000 anderen Seiten verfügbar diese Inhalte stehen vom Anbieter zur Verfügung das war die Zusatzinhalte wenn man quasi die Produktbeschreibung kopiert aktuell lösen wir das indem jeder Teil als Anchor funktioniert und wir das in der Robots Texte sparen also du hast angegeben mit diesen Noernzeichen und dann Tab 1, Tab 2 einerseits kann man das nicht so in der Robots Texte sparen weil die Seite selber wird ja trotzdem gekrawlt und wenn die Inhalte auf der Seite vorhanden sind dann sind die trotzdem schon in der Robots Texte vorhanden das heißt wenn man mit diesen Noernzeichen in der Robots Texte arbeitet dann ist aus unserer Sicht so dass wir das ignorieren was nach diesen Noernzeichen kommt und von dem her ist die aktuelle Lösung wahrscheinlich das Gleiche wenn ihr da nichts machen würdet und die Inhalte normal auf diesen Seiten hättet von dem her dann wenn die eigentlich normal vorhanden werden auf diesen Seiten ich denke die Menge 5000 Seiten würde ich jetzt zumindest aus meiner Sicht würde ich jetzt nicht als problematisch ansehen ich denke das ist normal dass Inhalte weiter kopiert werden wenn ich zum Beispiel bei den größeren E-Commerce Zeitschauer und die bekanntesten Produkte vielleicht anschauen dann würde ich annehmen dass die Beschreibungen auch auf Tausenden von anderen Seiten vorhanden sind und nur weil diese Beschreibungen so kopiert sind heißt nicht unbedingt dass die Hauptseite irgendwie davon beeinträchtigt ist sondern wir erkennen diese Duplication wir sehen, dass die Beschreibungen kopiert sind auf Tausenden von anderen Seiten wir sehen aber auch, dass eine Seite ganz klar die Hauptseite zu dieser Beschreibung ist und die anderen entsprechend vielleicht auch ganz ausblenden in den Suchergebnissen das heißt ich würde da zumindest wenn es jetzt nicht irgendwelche rechtlichen Gründe gäbe, würde ich da diese Inhalte einfach in diesem Herbst lassen und das normal indexiert lassen wie es jetzt bisher wahrscheinlich auch schon indexiert wurde wenn es rechtliche Gründe gibt dass diese Inhalte wirklich nicht indexiert sein dürfen unter anderen URLs dann muss man klar vielleicht die anderen technischen Varianten mal anschauen und überlegen wie könnte man das machen dass die Inhalte wirklich technisch gesehen nicht an Google übergeben werden die in den Tabs so vorhanden sind und eben iFrame ist sicher die einfachste Variante so etwas zu machen man kann vielleicht auch JavaScript arbeiten dass ich eine JavaScript-Datei habe die diese Inhalte hineinzieht die JavaScript-Datei ist zum Beispiel per robots text gesperrt das wäre vielleicht auch eine Variante aber da müsste man vielleicht auch überlegen wie habe ich diese Daten auf dem Server was ist die einfachste Variante das zu machen wie funktioniert das für den Benutzer trotzdem noch andere Variante wäre vielleicht auch, dass man per JavaScript arbeitet und die Inhalte erst dann lädt wenn der Benutzer den Tab aufmacht weil das sind hier Sachen die Googlebot zum Beispiel nicht macht Googlebot kriegt jetzt nicht auf verschiedenen Teilen der Seite herum zu sehen was sich da verändert sondern das würden vielleicht dann eher nur Benutzer machen aber da ich denke so etwas würde ich wirklich nur anschauen wenn es auch wirklich rechtliche Gründe gibt dass diese Inhalte gar nicht duktiziert sein dürfen ansonsten würde ich das einfach weiterhin mit den anderen Suchmaschinen überlassen, dass sie mit diesen duplicate content arbeiten alle Suchmaschinen müssen mit so einer Menge duplicate content umgehen können das sollte eigentlich keine Probleme verursachen okay gibt es vielleicht von euch irgendwelche Fragen nicht spezielles ich wollte nur sagen es gibt aktuell nichts spezielles alles gut mal kurz schauen ob da noch mehr kommt ja seit gewöhnlicher Zeit stellt Google für ein und dieselbe Seite mehrer Metas in den Suchergebnissen kann man irgendwie einsehen welche Version in den Suchergebnissen existieren und wie kann man das beeinflussen dass Google das nicht mehr macht ich denke das ist etwas was wir schon sehr lange machen das heißt Titel und den Snippet der wird jeweils algorithmisch angepasst auf unserer Seite und das kann algorithmisch angepasst werden je nach Suchanfrage die kommt und je nach Gerät das heißt auf mobilen Geräten ist natürlich weniger Platz vorhanden müssen wir auch ein bisschen anders mit dem Platz umgehen und das sind Sachen die werden nicht gesondert für den Workmeister man sieht das nicht in Suchkanso man sieht es eigentlich nur in den Suchergebnissen was ich da machen würde wenn man sich für das interessiert ist einfach die Top-Suchbedürfe in Suchkanso mal durchgehen und überlegen und die dann auch ausprobieren auf desktop und mobilen Geräten zu schauen was da kommt blockieren kann man das ganze nicht man kann höchstens sagen dass man mit dem Note Snippet arbeitet und den Snippet ganz unterdrückt aber das würde ich eher nicht empfehlen weil dann sind natürlich die Snippets auch ganz entfernt von den Suchergebnissen da kommt immer mehr dazu eine Website wurde vor einem Jahr vor einigen Jahren vor responsive jeweils für desktop und mobile erstellt diese ist inhaltlich relativ gleich um von mobil zu erreichen nun ist die desktop-Seite seit einiger Zeit für responsive und mobile angepasst und es gibt kaum noch unterschiede die mobile-Seite ist heute also eigentlich nicht mehr notwendig die Seiten bestehen jeweils aus ca. 50.000 Seiten die gut indexiert und platziert sind kann ich zukünftig auf mobile verzichten wie gehe ich über 301 hinaus vor ich würde da mit 301 Feedback zu arbeiten und das zusammenführen ich vermute was im Moment wahrscheinlich passiert ist, dass wir diese Seiten als eigenständige Websites bekrachten und dass je nachdem in den Suchergebnissen vielleicht auch beide mal vorhanden sind gleichzeitig das heißt wenn ich nach ich vermute jetzt mal nach dem Markennamen oder nach Produktnamen könnte es sein, dass einerseits die DE und die mobil-Seite in den gleichen Suchergebnissen vorhanden sind und dass wenn ihr die Impressions in Search Console zusammenzählt vom.de.mobile dann würdet ihr eine rechte Veränderung sehen, wenn jetzt nur vom.de vorhanden ist aber ich vermute das ist auch für sich egal weil Benutzer klicken ja dann nur auf ein von diesen beiden Varianten nicht so, dass sie auf beide klicken und beide Seiten anschauen und dann zweimal die Produkte kaufen sondern sie klicken eine Variante an und solange eine Variante vorhanden ist sollte das eigentlich kein Problem sein mit einem redirect von der mobilen Version also von der bisherigen von mobilen Version zur DE wird auch die DE-Version ein bisschen gestärkt das heißt vom Ranking her habt ihr da natürlich auch einen kleinen Vorteil wenn diese Seiten zusammengeführt werden und von dem her würde ich da euch was vorschlagen, dass man das einfach macht den redirect einrichtet und das so zusammenführen da ist ich schaue mal ob Benutzer noch mehr kommt ok schau dir mal das erste Suchergebnis an kannst du mir erklären warum die Seite hier ranked ist natürlich schwierig so etwas live anzuschauen und zu sagen was da jetzt genau passiert müsste ich wahrscheinlich da ein bisschen ruhig anschauen aber oft ist es auch so, dass wir nicht gezielt auf solche Fragen groß eingehen können so quasi warum erscheint jetzt meine Konkurrenz an erster Stelle und ich an zweiter Stelle, das sind dann Sachen die aus unserer Sicht sind nicht wahnsinnig produktiv für für uns und für euch weil es gibt einfach unterschiedliche zwischen verschiedenen Websites und es gibt da manchmal Sachen die im Hintergrund passieren die einfach weniger relevant sind insgesamt ich schaue mir das gerne mal an ich weiß nicht ob da etwas schief geht auf unserer Seite oder wenn ich das mit dem ranking Team anschaue die sagen ja das ist halt einfach so vielleicht sagen sie auf die die Seiten sind zum großen Teil sehr ähnlich und da kann man das ob wir das ein oder andere ranken macht es eigentlich keinen großen Unterschied aber ich kann das mal anschauen vielleicht gibt es da irgendwas was ich euch dann mal sagen kann dazu okay ich glaube damit haben wir es geschafft noch eine Frage von euch ja ich habe eine Frage im Chat ah okay wie weit ist das PageSpeed von den Ressourcen abhängig die von Google kommen beispielsweise Analytics Tag Manager aus unserer Sicht versuchen wir die Beschwindigkeitsmesser wenn unabhängig von ob die Inhalte von Google kommen oder nicht zu machen das heißt wir möchten eigentlich die Geschwindigkeitsmessen wie Benutzer das sehen würden und wir möchten dann nicht irgendwie ausschließen und sagen ja aber diese Inhalte sind von Google also sind die auf jeden Fall gut sondern das Endergebnis zählt aus unserer Sicht und wenn im Endergebnis die Seite langsamer ist weil Inhalte von Google langsamer sind dann ist die Seite einfach langsamer und das sehen ja Benutzer auch nicht und sagen diese Seite ist zwar langsamer aber sie verwendet Analytics in dem Fall ist das aus meiner Sicht okay dass sie jetzt nicht so schnell ist sondern die sehen ja eigentlich nur die Endergebnisse die Geschwindigkeit mit der die Seite dann entsprechend auch kommt und von dem her versuchen wir das einen solchen Einfluss eigentlich auszuschließen und versuchen das so zu messen wie Benutzer das auch wirklich sehen würden und das andere was vielleicht auch noch dazu kommt ist gerade bezüglich Page-Speed versuchen wir eher zu unterscheiden zwischen Seiten die sehr langsam sind und Seiten die einigermaßen normal sind das heißt wenn ich jetzt einfach Analytics-Script noch dazu füge und im schlimmsten Fall die Seite 1, 2 Sekunden mehr braucht zu laden was wahrscheinlich nicht der Fall sein sollte verwendet dann ist es immer noch im Rahmen wo wir sagen würden das ist normale Geschwindigkeit das ist jetzt nicht übermäßig langsamer wenn hingegen die Seite eh schon 1, 2, 3 Minuten braucht bis sie geladen ist dann macht auch diese Analytics-Script mehr oder weniger dann entsprechend auch nichts aus das heißt zumindest aus SEO Gründen ist da der Unterschied nicht vorhanden ich denke Benutzer sehen das eher das ist der Fall wenn das soweit alles ist kurz nachwarn ah kommt doch noch eine Frage wir möchten bei einem Projekt Google-Seiten freigeben welche nur eingelockt erreichbar sind dieser von einigen Seiten per User-Agent ermöglicht allerdings ist dies laut nicht erlaubt gibt es eine laute und sicherer Möglichkeit Google diese internen Inhalte um zu stellen damit auch Inhalte weiterhin hinter einem Logging aufhümpfer sind nein an und für sich ist das eben wie gesagt Logging wenn man ein Logging braucht um diese Seiten zu erreichen dann muss Google-Bot auch diese Logging-Seiten sehen und nicht die Inhalte die hinter den Logging sind und wenn man Google-Bot die Inhalte dann trotzdem gibt dann für sich Logging und wäre etwas was das Webspam-Team wo wir vielleicht reagieren würden eine Variante die die man gerade bei Informationsseiten verwenden kann ist das sogenannte First-Click-Free das heißt bei dem Verfahren ist es so, wenn Benutzer aus den Suchergebnissen auf eure Seiten klicken dann können sie das erste paar mal die Inhalte normal sehen und erst in einem zweiten Schritt wenn sie jetzt mehrmals auf die Inhalte sind sehen sie dann ein Logging oder eine Aufforderung dass sie sich anmelden müssen oder dass sie bezahlen müssen um die weiteren Inhalte zu sehen das heißt ich glaube das sind die ersten fünf Seiten die Benutzer dann jeweils sehen dürften und in einem solchen Fall kann man dann die vollständigen Inhalte Google-Bot geben so dass Google-Bot diese Inhalte hat für die Indexierung auf eure Webseite machen dann werden sie erst aufgefordert und das ist aus unserer Sicht dann okay das heißt First-Click-Free gerade für Informationsseiten ist das vielleicht eine Variante für andere Arten von Webseiten weiß ich nicht wie weit das da Sinn machen würde aber wäre vielleicht etwas zum Anschauen okay, dann machen wir mal hier Pause ich habe doch recht viele Fragen zusammengekommen finde ich super möchte mich bei euch bedanken für die vielen Fragen und für das Erscheinen hier im Hangout und vielleicht sehen wir uns in einem der nächsten Hangouts dann wieder tschüss alles heizt wünsche euch noch einen schönen Nachmittag ciao