 Okay, herzlich willkommen beim heutigen Webmaster Central Sprechstunden Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Chance Analyst bei Google in Zürich. Und Teil von dem, was wir machen, sind diese Webmaster Sprechstunden Hangout. Und heute haben wir zwei Gäste aus der Region. Wollt ihr euch ganz kurz vielleicht vorstellen? Ich arbeite als SEO Content Specialist für Ringer AG, also Blickgruppe, also Zeitschritt. Mein Name ist Simon Grieser. Ich leite das SEO Content Team by Your Position, Port of Depth. Super, cool. Also ich finde es immer spannend, wenn man auch die Person mal in Person kennenlernen kann. Dann ist es natürlich ein bisschen anders, als wenn man das nur so live per YouTube oder so auch sieht. Wollt ihr vielleicht mit den ersten Fragen mal loslegen oder Kommentare? Ja, wir hatten vorhin schon kurz über die Search-Konsole gesprochen. Mich würde wundern nehmen, zwei Dinge. Einerseits dieses URL-Inspection-Tool, das ihr angekündigt habt, vor, glaube ich, zwei Tagen, in welchem Zeitraum das ausgerollt wird. Weil das habe ich noch nie irgends gesehen in unseren Accounts. Und zweitens, so ein bisschen generell der Fahrplan, wann da noch weitere Berichte kommen. Jetzt muss man ja meistens so hin und her switchen von der alten zur neuen Version. Das neue Tool sollte eigentlich im Laufe von der nächsten Woche oder die nächsten zwei Wochen für alle verfügbar sein. Wir schauen im Moment einfach sehr stark auch den Feedback an, den wir kriegen, um festzustellen, wo sind vielleicht noch Fehler, die wir korrigieren müssen, was müssen wir vielleicht anders machen. Und dementsprechend wird er so leicht noch ein bisschen angepasst. Aber sollte eigentlich in dieser nächste Woche größte Ordnung überall verfügbar sein. Ich habe gesehen, es sind auch jetzt einige Blog-Posts draußen. Da kann man so ein bisschen schauen, wie das aussehen würde. Ja, ich. Jetzt mache ich natürlich Neugierig. Ich würde es mal ausprobieren. Mit Search Console allgemein ist es so, dass wir versuchen, nicht nur die Berichte so eins zu eins zu übernehmen, sondern möglichst auch zu überdenken. Also, was sind wirklich die Ziele dahinter? Was möchte der Webmaster, wenn wir erreichen mit diesen Daten? Und dementsprechend geht es auch ein bisschen länger. Also, es ist nicht so, dass wir einfach ein neues UI dazu nehmen, sondern wir möchten wirklich überlegen, was ist eigentlich relevant hier. Zum Beispiel bei 404 Fehlern kann man natürlich immer eine Tabelle von Fehlern zeigen. Aber was macht jemand mit einer Website damit? War es hilfreich? Worauf müsste man eher achten? Wie könnte man das gestalten, dass es eher hilfreich ist, als was man erwartet, dass die anderen das alles selber durcheignen? Und da ist natürlich Feedback immer willkommen, auch mit dem bestehenden neuen Funktionen in Search Console. Da sind Sie sehr stark jetzt das ganze Feedback am Auswerten, zum Schauen, was funktioniert, was ist verwirrend, was müssen wir ändern? Also laufen die dann passend um? Ja, ich vermute, so im Laufe vom Jahr gibt es immer mehr neue Funktionen, die dazukommen und irgendwann werden wir per Default auf die neue Search Console weiterleiten, wenn jemand sich neu anmeldet. Ich vermute, das geht noch eine Weile, bis wir dann die alte Gans abschalten. Es gibt noch viel zu tun mit Search Console. Man gewöhnt sich natürlich auch schnell daran, dass man irgendwie das bestehende immer hat und dann, wenn man umstellen muss auf ein neues System, das alles erst mal ein bisschen anders. Ja, immer ein bisschen schwierig, wenn man versucht, die Sachen zu überdenken und neu zu gestalten und gleichzeitig nicht will, dass alle verwirrt werden. Es braucht ein bisschen Zeit. Ja, ich weiß nicht von euch, gibt es irgendwelche Fragen zu Search Console? Ja, also haben wir das schon gestellt, in dem geschrieben. Okay, zu den Parameter, alle Fragen. Super, okay. Schauen wir mal an, was da alles eingeeigt worden ist. Eine Frage zu den Parameter-Einstellungen in Search Console. Wenn ein Parameter keinen Einfluss auf den Seiteninhalt hat, zum Beispiel die UTM-Parameter, besagt die Crawling-Einstellung stellvertretende URL, damit gemeint, dass Google die URLs inklusive die Parameter crawlen wird. Und man daher URLs mit diesen Parametern nicht auf disallow in Robots Text setzen muss. Grundsätzlich ist die Einstellung mit den Parametern in Search Console so, dass uns weitere Hinweise gibt. Also wie können wir diese Website optimal crawlen? Es ist nicht das Gleiche wie per Robots Text, wo man wirklich sagt, das dürft ihr auf keinen Fall. Das heißt, es hilft uns, das Ganze ein bisschen einzuschränken. Und dementsprechend gibt es schon eine Anpassung vom Crawling, dass wir uns eher auf die Sachen konzentrieren, wie ihr sagt, wir sollen crawlen. Aber es ist nicht so, dass wir die anderen Sachen crawlen. Das heißt, wenn es etwas gibt, was wir euch kritisch nicht gecrawled werden darf, dann würde ich das einfach per Robots Text weiterhinsetzen. Aber solche Parameter, UTM-Parameter. Okay. Wir haben eine automatische Sprachweiteleitung, basierend auf Accept Language. Nun crawlt unsere Seite leider ausschließlich mit Accept Language in US. Und daher nicht mehr die anderen Sprachversion. Wie ist es auch mehr vorfahren, wenn wir aus UX gründen, weiterhin eine Sprachweiteleitung haben möchten? Ist es okay, wenn wir den Googlebot über den User-Agent-String von der Sprachweiteleitung ausschließen? Na, grundsätzlich, was ich da machen würde, ist einfach sicherstellen, dass alle Sprachversionen einzeln erreichbar sind. Das heißt, wenn man eine englische Version hat, dass man gezielt auf diese Version gehen kann und dass man vielleicht auf der Homepage das Ganze mit der Sprachweiche macht. Das heißt, die Homepage wird dann je nachdem da oder da weitergeleitet, aber die einzelnen Versionen können trotzdem separat gecrawled werden. Dann können wir die beiden Sprachversionen crawl und indexieren normal und mit der Homepage müssen wir dann halt schauen, je nachdem, wie wir da umgehen können. Man kann auch per X-Default sagen, dass diese Homepage quasi die Standardseite ist. Und wenn nichts passt von den anderen hreflengen Attributen, dann zeigen wir die Homepage entsprechend. Das ist, denke ich, immer so ein Thema, was eher in den deutschen Hangouts kommt. In Amerika ist da weniger das Problem, dass man verschiedene Sprachversionen hat. Okay, inwieweit ist Linkaufbau für euch okay? Es gibt dazu verschiedene Aussagen auch von Google selbst. Ist es für Google okay, wenn meine Website in Form zu posten, in Firmenverzeichnissen etc., wo zieht Google die Grenze? Grundsätzlich sind Links natürlich für uns weiterhin relevant. Wir versuchen ja das Web zu crawl und wir finden die einzelnen Seiten im Internet aufgrund von Links zu diesen Seiten. Von dem her ist es nicht so, dass wir Links gar nicht brauchen oder gar nicht verwenden. Aber wichtig für uns ist dann quasi der zweite Schritt, wenn wir die Seiten gefunden haben, dass wir die Links entsprechend finden, die relevant sind für diese Seiten, die wirklich auch entfehlungen sind, wo diese Links natürlicherweise vorkommen. Von dem her ist es aus meiner Sicht ein bisschen wichtig, dass man sich überlegt, erst einmal ist die Website überhaupt schon mal bekannt. Also wenn uns die Website bekannt ist, dann ist es nicht so, dass wir unbedingt jetzt neue Seiten da finden müssen. Und im zweiten Schritt dann dementsprechend, dass man wirklich auch dafür sorgt, dass man nicht losgeht und selber diese Links irgendwo platziert und selber quasi wegen einer Agentur arbeitet, die Links einfach auf anderen Websites platziert, um quasi unsere Suchergebnisse zu verfälschen. Aber das ist natürlich immer schwierig, denke ich da, zu unterscheiden, wie man das am besten macht. Weil einerseits kann natürlich Google Links brauchen, um das Web zu crawlen, andererseits solltet ihr die nicht irgendwie wild ums Web zu streuen selber und irgendwo muss man da halt die Grenze entsprechend ziehen. Mal schauen, das geht weiter. Kann ich offensichtliche PBNs und gekaufte Links der Konkurrenz bei Google melden? Ja, das kann man machen. Im Webspam Report kann man das angeben. Das Webspam Team nimmt die gerne entgegen und schaut das ganz auch an. In vielen Fällen, was wir einfach sehen, ist, dass wir die Links sowieso schon ignorieren, dass wir erkennen können, ah, da ist irgendwas wildes am Laufen, dann machen unsere Algorithmen eigentlich schon das Richtige. Und dann drittens, es gibt Gerüchte, dass No-Follow-Links dem Ranking in irgendeiner Art und Weise schaden können, ist da was dran? Nein, für uns sind No-Follow-Links einfach Links, die keine Signale weitergeben und das ist ganz okay. Wenn man Werbung zum Beispiel hat und das per No-Follow markiert, ist das total okay aus unserer Sicht, das stört nicht, das hilft nicht. Das ist einfach eine Art, wie ihr Besucher zu euren Websites dann auch bringen könnt. Ich versuchte nicht zu stillen. Ja, kein Problem. Ich weiß es besser machen. Nicht still, okay. Okay, dann eine Frage zu paginierten Produkte-Seiten. Also ich hätte noch eine Pause zu No-Follow-Links. Wir sind ja eine Zeitung und wir haben ganz, also in unseren Artikeln, sehr oft, wir müssen auf die anderen Seiten hinweisen, weil das, also immer, wenn wir irgendwas zitieren oder auch irgendwie Infos geben, wir müssen halt immer sagen, wo wir Informationen haben. Und manchmal in einem Artikel können dann halt mehrere Links sein. Es ist halt immer so die Frage, ist das, also, es ist alles No-Follow natürlich, also wenn wir möchten, also es ist keine Werbung, sondern wirklich informative Links. Also es wird jetzt uns nicht schaden, dass wir da halt mehrere Links von unterschiedlichen Seiten haben. Das ist total okay. Aber das ist halt für User Experience eventuell ein bisschen okay. Das ist total okay. Ich denke, wenn das auch natürliche Links sind, die in den Artikeln drin sind, dann müssen die auch nicht per No-Follow markiert sein. Weil das sind ja normale Links, die ihr habt auf das Rest vom Internet. Die können normale Links sein. Also No-Follow würde ich das eher machen, dass es zum Beispiel irgendwelche bezahlten Artikel sind, dass sie irgendwie, wie heißt es, zu Paid-Poste und solche Sachen. Ja, solche Sachen, da würde ich dann No-Follow machen, weil das sind ja dann wirklich Werbel Links. Aber alles andere, wenn das natürliche Links sind, wenn ihr auf andere Webseiten verweist oder auf Videos oder was auch immer, dann würde ich ganz normale Links machen. Okay. Im Zusammenhang mit Links und aber auch Backlink seine Folgefrage. Im Zusammenhang mit Ranked Brain gab es mal eine Aussage von Google-Mitarbeitern, dass die drei wichtigsten Faktoren generell gesehen, also was die drei wichtigsten Faktoren sind. Und da war Ranked Brain auch dabei. Backlink, das meine ich auch. Würdest du immer noch sagen, das sind die drei wichtigsten Faktoren. Also logisch kommt ihr mir auf die Branche darauf an, aber so ganz generell gesagt. Ich würde eher sagen, dass man das nicht irgendwie auf drei Faktoren begrenzen kann. Wir schauen so viel verschiedene Sachen an und dann je nach Suchanfrage und Situation können ganz andere Faktoren die relevantesten sein. Gerade jetzt bei aktuellen Nachrichten, solche Sachen, wenn ein Thema aktuell ist, dann versuchen wir eher neue Sachen zu bringen. Wenn ein Thema jetzt nicht mehr aktuell ist, dann sind wir vielleicht auch ältere Sachen. Und das hat einen sehr großen Einfluss darauf, wie die Suchergebnisse zusammengestellt werden. Und da kann man nicht sagen, das sind jetzt die drei größten Faktoren. Und von dem her finde ich das fast ein bisschen verwirrend, dass wir da überhaupt mal in die Richtung angefangen haben, gesagt haben, das ist jetzt eines der wichtigsten Faktoren und das sind noch zwei andere wichtige Faktoren, sondern es sind einfach so viele verschiedene Sachen, die da zusammenkommen. Und da kann man schlecht, ich denke, das sind so davon von der aktuellen Situation. Es ist immer ärgerlich, wenn man nachhinein merkt, dass man das irgendwie anders hätte sagen sollen. Und dann ist es zu spät. Okay, weitere Fragen zu links? Von euch irgendwas? Nicht? Okay. Also links sind nicht mal relevant in dem Fall. Okay. Also andere Arten von links? Das spricht jemand. spricht jemand? Ah, ich glaube, du bist auf Stummen geschaltet. Oder? Ja. Okay. Okay. Eine andere Art von links. Wie setze ich in so einem Fall ein Canonical? Wenn ich ein Canonical am Anfang setze, dann geht der Rest, also Seite 2, und so weiter verloren. Dass die Art von Fragen kommt immer wieder. Ich denke, gerade bei e-commerce sites ist das irgendwie natürlich, weil man möchte ja irgendwie auch vermeiden, dass man allzu viel von diesen Parallel-Sites hat. Das ist eine Art von Sony. Das ist eine Art von Sony. Man könnte theoretisch mit dem Canonical arbeiten. Ich vermute, unsere Systeme würden das in vielen Fällen aber ignorieren, weil sie sehen natürlich auch, dass die Seiten anders sind. Das heißt, wenn ich auch von Seite 2 sage, der Canonical ist Seite 1, dann würden wir das meistens ignorieren, weil die Seiten aber sehr anders sind. Und dann würde das auch mit dem Rail Previous und Next nicht wirklich funktionieren, weil dann sagt man quasi, die nächsten Sites, Seite 2, und die zweite Seite sagt, eigentlich, wenn ich Seite 1, dann geht das irgendwie nicht so sauber auf. Es gibt da verschiedene Ansätze, die man machen kann, je nachdem, wie das eingerichtet ist bei der Website. Bei manchen ist es ja so, dass diese Produktlistings eher wie Kathorin-Seiten sind. Und da macht es vielleicht, es sind ja einfach alle Deuch-Indexien, das ist auch total okay. Bei anderen ist es eher wie eine Art Suche-Seiten oder Tags, dass das eigentlich nicht separate Seiten sind, die indexiert werden müssen. Und da könnte man sich auch überlegen, dass man sagt, gut, ich setze einfach den Rest auf New Index, das heißt, Google City vielleicht, kann da vielleicht auch etwas weiterleiten, aber eigentlich werden die nicht indexiert und das auch aus unserer Sicht okay. Bezüglich New Index und den Canonical Setzen ist es in vielen Fällen so, dass wir das trotzdem einigermaßen gleichsetzen. Also nicht, dass man irgendwie noch Zusatz wert hat, wenn man jetzt New Index oder einen Canonical Setz von Seite 2 auf die erste Seite, weil wir sehen ja auch, dass das quasi unterschiedliche Seiten sind und dann denkt man, gut, das ist einfach ein Zeichen, dass diese Seite nicht existiert. Und dementsprechend sind da die Ansätze oft sehr ähnlich. Und ich glaube, ich hatte noch nie irgendein Fall, wo wir eine e-commerce-Seite angeschaut haben und gesagt haben, ah, mit den paginierten Seiten machen Sie jetzt das falsch und deswegen sind Sie schlecht im Brain-Gregen. Meistens funktioniert das. Darf ich Ihnen dem zusammen haben, auch e-commerce-Seiten, so Kategorie-Seiten mit Filterungen, da setzt man ja gerne auch mal das PR-Pattern ein. Kannst du dazu etwas sagen? Ich weiß gar nicht, wie steht Google eigentlich dazu? Ist das empfohlen oder überhaupt nicht? Ich vermute, in vielen Fällen ignorieren wir das einfach und es funktioniert in dem Sinne, weil wir es eigentlich nicht wirklich brauchen. Das heißt, es bringt einfach zusätzliche Komplexität, weil man hat ja dann diesen Post-Request, den man dann wieder separat verarbeiten muss. Dann kann man schlecht mit den CDN arbeiten und ich vermute, unterm Strich ist das etwa ähnlich, wie wenn man einfach saubere Paginierung macht oder mit Filters, dann mit No-Index zum Beispiel arbeitet. Das heißt, ich vermute, man hat da keinen großen Vorteil, wenn man das Ganze noch dazu macht, und es dann auch zusätzliche Komplexität. Also würde ja vor allem darum gehen, irgendwie das Crawling auch einzuschränken von den vielen, vielen zahlreichen Filterkombinationen. Ja, aber mit zum Beispiel mit den URL-Parameter-Einstellungen kann man das eigentlich auch recht gut steuern. Okay. Also, also ich kann einfach sagen, es ist so, dass jetzt die anderen Suchmaschinen das gibt ja noch andere außer Google, wenn die halt unsere Links gekreut haben, die haben unheimlich unseren Server auch verlangsamt. Und ich würde sagen, durch das PhG-Patern hat man schon irgendwie schon einen Vorteil. Also, es funktioniert gut und man hat Vorteile. Okay. Ja, also ich weiß nicht, wie das bei anderen Suchmaschinen gehandhabt wird. Aber das kann durchaus sein. Aber aus meiner Sicht finde ich solche Sachen technisch natürlich interessant, weil es ein bisschen irgendwie was Spezielles ist. Aber man bringt da einfach viel mehr Komplexität hinein. Und wenn man Komplexität hat, dann geht das auch eher mal schief. Wenn jemand neues dazu kommt, man das Ganze überarbeiten muss oder mit einem SEO-Tool das durchlaufen lassen will, dann muss man das erstmal genau verstehen, was da wirklich auch so abläuft. Aber wenn das bei anderen Suchmaschinen auch wirklich einen großen Einfluss hat, dann macht das vielleicht trotzdem Sinn, weiß ich nicht. Okay. Die Bilderkennungsanwendung Google Lens ist bereits im Einsatz und kann somit Content liefern. Ist dies bereits relevant? Ich vermute, das geht so in Richtung Bildersuche. Das sind die, die quasi gefunden werden. Ich denke, viel von diesen Tools, gerade mit Machine Learning, sind noch sehr neu. Und von dem her sind sie interessant zum Ausprobieren mit solchen Testing-Tools quasi oder für Benutzer zum Testen. Ich weiß nicht, ob man die im großen Maßen auch für die Websuche schon einsetzen kann. Wichtig für uns, ist die textlichen Inhalte, die wir auf den Seiten haben. Also die Unterschrift, der Alt Text, solche Sachen, das kommt schon, das hilft uns schon sehr viel. Und dementsprechend würde ich mich nicht darauf verlassen, dass Google ein Bild einfach erkennen kann und sagen kann, ah, das ist jetzt, ich weiß nicht, ein neuen Schuhmodell und das müssen wir jetzt als Schuh quasi in der Bildersuche aufbringen. Das sollte wirklich als Text auch auf den Seiten vorhanden sein. Siehst du Vor- und Nachteile, darin paginierte Seiten per Robots Text zu sperren. Grundsätzlich würde ich die Robots Text eher dafür nehmen für Inhalte, die wirklich nicht gekraut werden sollen. So, dass man das ganz blockieren kann. Gerade mit paginierten Seiten oder mit duplikten Content und allgemein ist das meistens weniger ein Problem. Was einfach passiert, wenn das per Robots Text blockiert ist, ist, dass wir die Seite gar nicht crawlen und gar nicht wissen, dass sie eigentlich zusammengeklappt werden kann mit anderen. Und dann im schlimmsten Fall kann es so sein, dass wir einfach ein Link auf diese Seite indexieren und die Inhalte nicht haben und dann erscheint das so in den Suchergegnissen. Das heißt, allgemein, würde ich eher sagen, wir dürfen crawlen, wir dürfen erkennen, dass sie die gleichen sind und können das z.B. per Canonical oder per No Index oder wie auch immer gezielt steuern. Hier habe ich noch eine Frage, hätt ich noch dazu. Und zwar, in der Search Console bei der Parameter-Einstellung, wenn dieser Parameter den Seiteninhalt ändert, gibt es auch die Optionen, wenn man das nicht wissen kann, keine URLs zu crawlen mit diesem bestimmten Parameter. Da steht dabei, so können Sie den Google-Bot beispielsweise anweisen, URLs mit weniger wichtigen Parametern nicht zu crawlen. Wie z.B. da hast du das Beispiel ausgeführt PriceFrom, PriceTo. Was gäbe es noch andere, weniger wichtige Parameter oder einen anderen Grund, warum man dann eigentlich sagen sollte, diese URLs lieber nicht crawlen? Oder kann man sagen, ja komm, und handhaben wir es lieber über Index und Canonical? Fällt mir jetzt auf Anheblichkeit irgendwas ein. Also lieber, lieber aufmachen, bevor mal irgendwas ausschließt und dann wichtige Seiten verschwinden. Okay. Es ist sehr selten, aber manchmal sehen wir auch so eine Situation, dass jemand da mit diesem Parameter-Einstellung gar nichts crawlen mit diesen Parametern und dann auf einmal geht etwas verloren. Gerade bei Websites, die verschiedene Bereiche haben, passiert das manchmal, dass man sagt, in diesem Einbereich ist diese Parameter eigentlich irrelevant, dann stellt man das ein und dann merkt man nicht, dass eigentlich ist vielleicht noch eine andere Gruppe aktiv auf der Webseite und die brauchen diese Parameter und dann auf einmal verschwinden und dann geht es weiter. Aber das ich denke, da muss man einfach vorsichtig sein mit dem Tool und ein bisschen überlegen, wie sieht das insgesamt aus. Aber bei größeren Websites ist das manchmal schon schwierig. Wir wissen, was die anderen noch alles mit diesen Parametern machen. Okay, danke. Okay. Mal schauen, was haben wir noch? Eine Frage von uns all, seit einiger Zeit kann man pro Tag nur noch 10 URLs pro Account einreichen an den Index senden. Danach erhält man eine Fehlermeldung. Gerade bei mehreren Properties-Websites ist die Ganze sehr restriktiv und erschwert, dass immense Änderungen an den Seiten schnell live zu bekommen. Könnte man das Limit nicht vielleicht etwas höher setzen. Okay. Könnte man vielleicht schon ich weiß nicht was man da gezielt machen kann. Also ich würde im Allgemeinen versuchen eher die automatisierten Methoden zu nehmen wie die Sidemap Detail oder RSS Feed dass man solche Sachen nimmt um neue URLs einzureichen und dass man quasi die manuelle Einreichung eher auf solche Fälle wirklich konzentriert wo jetzt irgendwie aus irgendeinem Grund das nicht mit dem automatischen System funktioniert. Das heißt, wenn ich jetzt ein Blog habe und ich habe jetzt ein paar Beiträge pro Tag die dazukommen würde ich das eher automatisieren als da mit diesen Tools das von Hand einreichen. Aber vielleicht müssen wir das irgendwie auch mal anders dokumentieren dass es ein bisschen klarer ist welche Möglichkeiten man da hat oder was die Vor- und Nachteile sind oder wofür verwendet ihr das im Moment. Also gut, bei der Zeitung ich verwende das meistens wenn ich irgendwas recycle also eben die alten Artikel bearbeite also wir haben ja die Situation dass wir einige Artikel die endlich sind oder zum Beispiel STA kommt unser Artikel und dann natürlich also möchten wir unseren Artikel dann einreichen obwohl wir halt vielleicht mit STA Artikel gerade im Google News Box sind also dadurch, dass es schneller ist und deswegen verwenden wir aber hat im Denke so was wie Live-Ticker das läuft schon, dann hat automatisch wenn irgendwie neue Informationen reinkommt also für solche Sachen brauchen wir dann eben das brauchen wir dann gar nicht zu verwenden oder da können wir uns halt eben diese Cronen sparen für so Sachen die wir halt uns verbendet ja, das wäre wirklich kritisch aber sonst wenn wir halt jetzt Live-Ticker irgendwie jetzt beim WM alle Stunden schicken, dann ist es nur dann haben wir noch 10 mal und dann ist es vorbei aber das läuft halt eben automatisch und solche Sachen nicht von Cronen ja ja, wir hatten vorallem zwei anderen Wendungsfälle einerseits bei Relounges, wo wir halt wir versuchten die wichtigsten Seiten so schnell anzustoßen oder wenn wir wichtige Änderungen auf einzelnen Seiten schnell gekrolt haben wollten wenn irgendwelche gravierenden Fehler auf der Seite passieren falls es kein Onical Tag oder so für diesen Einsatz ja, ich denke mit 10 am Tag ist wahrscheinlich dann schwierig manchmal braucht es wahrscheinlich nicht jeden Tag aber wenn man es braucht ja, dann könnte man gut mehr URLs gebrauchen ja ja du hast die XML-Seitmaps angesprochen eine konkrete Frage wenn es gibt Webseite die generieren dynamische URLs für XML-Seitmaps also mit Timestamp dahinter wie läuft es eigentlich bei Google App geht Google zuerst zur Index-Datei und sieht dann schon dass da neue URLs für die XML-Seitmaps da sind und dann ist es kein Problem oder wird dieses Vorgehen grundsätzlich zu einem gröbern Problem führen weil dann die XML-Seitmaps im ersten Moment halt nicht aufrufbar sind wie vom letzten Mal dass man quasi immer neue Seitmap-Dateien erstellt genau die generieren die halt mehrmals pro Tag und haben dann immer den Timestamp in der URL also die XML-Seitmaps sind dann immer andere URLs via Index-Datei findet man sie schon aber sie ändern jedes Mal wahrscheinlich schon ziemlich suboptimal ich für uns ist natürlich am einfachsten wenn wir die Seitmaps immer wieder aufrufen können und wahrscheinlich wird das so sein dass unsere Systeme einfach all die Seitmap-Dateien jetzt anders sammelt haben und die trotzdem immer wieder probieren und von dem her würde ich versuchen möglichst die Seitmap-B URLs weiter zu verwenden und danach auch innerhalb von diesen Seitmaps dann die neuen Einträger sprechen dazu und wichtig ist auch wenn man jetzt mit dem Änderungsdatum arbeitet dass es wirklich auch der Änderungsdatum von den Inhalten ist dass wir uns darauf irgendwie verlassen können dass wenn wir die Seitmap-Datei anschauen und sehen das sind jetzt irgendwie 100 URLs die neuen Änderungsdatum haben dass wir dann die gerade crawlen können und wirklich auch so indexieren können nicht dass alle URLs in der Seitmap-Datei quasi Änderungsdatum heute haben weil so wird das gerade über die Datenbank gestellt oder was auch immer weil für uns ist natürlich schon hilfreich wenn wir sehen können dass die Sachen in der Seitmap-Datei relevant sind dass sie korrekt angegeben sind dass wir dann wirklich auch wenn wir sehen dass etwas neu ist dann wirklich schnell hingehen können gut wir konzentrieren uns auf das jetzt und nicht auf den ganzen Rest wenn hingegen alles immer neu markiert ist dann ist es mir gar nicht wo wir anfangen müssen also es wird wirklich berücksichtigt das last mod Änderungsdatum wird berücksichtigt die Änderungsfrequenz und die Priorität nicht weil wir einfach gesehen haben da kriegen wir keine sinnvollen Angaben weil es ist auch sehr subjektiv der Änderungsfrequenz kann ja sein dass er sich jetzt im Moment sehr viel verändert aber dann bleibt es wieder gleich was ist da so die deutschschnittliche Änderungsfrequenz macht nicht wahnsinnig viel Sinn ok also mehr als 10 URLs pro Account zum Einreichen ja ich weiß nicht wie weit wir das hinkriegen können weil das Hauptproblem was wir da hatten ist einfach dass auch wirklich sehr viel Spam so eingereicht worden ist und da ist es schwierig da dann wirklich auch zu unterscheiden ob diese Funktion verfügbar ist für möglichst viele aber dass das dann doch nicht missbraucht wird und nur Spam eingereicht und manchmal ist es sehr trickreich weil wenn zum Beispiel eine Website gehackt ist dann nehmen die die Hackery auf oft neue Inhalte auf die Website drauf und dann schauen wir das an und denken ah das ist eigentlich eine legitime Website die da Inhalte einreicht und dann erst im letzten Moment merken wir aber das sind die gehackte Inhalte die gar nicht zu dieser Website gehören und ist das immer ein bisschen ja schwierig dann eine Frage zur Shopping Ads da habe ich eigentlich keine Information dazu also alles was mit Ads zu tun hat habe ich eigentlich nicht wahnsinnig viel dazu kann ich leider nicht viel helfen dann noch mehr Fragen mit Kategorien und Paginierungen vielleicht müssen wir da ein bisschen mehr Dokumentation machen so viele Fragen kommen Canonical Tag bei Produktvarianten was passiert wenn ich vorsorglich ein Canonical Link zum Hauptprodukt setze und Google da nicht einverstanden ist kann das irgendwann negative Auswirkungen haben nein im schlimmsten Fall was passiert ist wenn wir den Canonical Link sehen und wir denken das macht keinen Sinn dann ignorieren wir den und indexieren in die Seite einfach separat das heißt eigentlich im schlimmsten Fall passiert halt das wie wenn kein Canonical Tag da wäre es ist nicht so dass man dann noch mehr Probleme hat deswegen ich würde trotzdem versuchen den Canonical Tag sauber einzusetzen dass wir uns wirklich auf die Angaben ein bisschen verlassen können aber wenn man das nicht immer hundertprozentig sauber setzen kann dann müssen wir auch leben dann eine Frage zu den News Outmaps mit den News Keywords Tag was da damit jetzt los ist meines Wissens wird denn der News Keyword Tag jetzt nicht mehr verwendet ich weiß nicht ob du da eigentlich Informationen hast wie wir das jetzt verstanden haben das wird nicht mehr berücksichtigt wir ignorieren das jetzt komplett das war ein großes Thema bei uns wir haben auch wirklich viel darauf gearbeitet dass wir saubere Text gekriegt haben für News aber jetzt machen wir das nicht mehr ich glaube auch mit der allgemeinen Google News Umstellung ist das ja jetzt anders ich schaue mir den Link zur Dokumentation der da angegeben ist noch mal an vielleicht müssen wir das ein bisschen klarer machen da also meines Wissens wird er nicht mehr verwendet einfach weil wir haben jetzt diese Umstellung gemacht mit News dass wir das eher wie Websuche auch das Ganze betrachten und da versuchen wir die Inhalte dann sprechen aus ins Altenhalt rauszulehnen eine internationale Website auf einer Punkt-Com-Domain Sprachvarianten der Länder sind alle in einzelnen Länder Verzeichnissen hrefline Setup ist normal D E D E für deutsche Inhalte E S E S für spanische jetzt haben wir zu einem Spezialthema ein Wegweiser in englischer Sprache gebaut komplizierte Frage okay die Seiten also irgendwie diese Wegweiser sind dann in Englisch und die ganzen Inhalte rundherum sind dann halt in einer anderen Sprache quasi und dann ist die Frage ob wir das aus E N D E zum Beispiel oder E N E S im hrefline markieren soll oder nicht für uns ist eigentlich relevant die Hauptsprache der Seite d.h. wenn die Hauptinhalte in einer Sprache sind, würden wir die Sprache entsprechend auch angeben mit dem hrefline wenn jetzt rundherum die Navigation in einer anderen Sprache ist und die Inhalte nur in einer Sprache vorhanden ist dann kann man natürlich auch sagen dass es eigentlich für deutsche Benutzer gedacht, obwohl die in Englisch sind das ist auch zum Beispiel normal bei user generated content wo die Kommentare sind halt in einer Sprache die kann man ja nicht übersetzen und trotzdem kann man da mit hrefline arbeiten und sagen grundsätzlich ist die Seite jetzt so auf Deutsch obwohl die Hauptinhalte jetzt da weiterhin auf Englisch sind von dem her kann man das durchaus so machen ich denke e-n-d-e ist natürlich immer ein bisschen schwierig oder so per hrefline angebt jetzt das ist auf Englisch für Deutschland da kann man genauso gut sagen das sind einfach Inhalte auf Englisch kann man ja auch sagen soft 404 Fehler und cookie banners seit Anfang Juni steigt die Anzahl unser soft 404 Fehler soft 404 Fehler drastisch an bisher haben wir noch nicht die Ursache gefunden und das sind jetzt einige Beispiellinks eine Vermutung von uns ist, dass unser cookie banner ein Problem darstellen könnte dieser ist als overlay auf der Seite platziert Nutzer müssen diesen erst zustimmen bevor sie die Seite vollständig benutzen können ich müsste wahrscheinlich die Seite mal anschauen und sehen wie das jetzt wirklich da ist wichtig für uns ist dass die normalen Inhalte irgendwie auf der Seite noch verfügbar sind das heißt wenn man per javascript ein banner dazu nimmt dann sind ja die normalen Inhalte trotzdem noch da, dann funktioniert das für uns für die Indexierung wenn man hingegen vom server aus nur den interstitial quasi uns weiter gibt und gar keine Inhalte dabei hat dann indexieren wir nur den interstitial und denken all diese Seiten sind ja gleich und falten die zusammen oder sagen das sind softfinal 4 von dem her muss man das vielleicht auch wirklich separat mal anschauen zum Beispiel in search console kann man ja mit fetch and render das kontrollieren was wirklich gesehen wird von Google sind da die Inhalte dabei die hat ja mal Inhalt oder nicht wenn die Inhalte gar nicht dabei sind dann ist das schon etwas das mit der Indexierung Probleme verursachen kann ich weiß nicht sieht ihr da Probleme mit den ganzen cookie banners klappt das soweit es macht ihr jeder fast ein bisschen anders oder ist bei uns nicht als großes größeres Problem aufgetaucht noch nicht noch nicht, okay gut, ja ich denke es ist natürlich schwierig wenn jeder es ein bisschen anders macht dann gibt es wahrscheinlich auch so Fälle die das falsch machen die dann quasi eher eine Zwischenseite haben und dass wir dann die Inhalte gar nicht sehen können aber ich schaue mal die die Seiten mal an, nachher eine Frage bezüglich report paid links in search console es geht hierbei um eine Seite die ihre Benutzer bezahlt backlinks erfordern und blogs mit spezifischen anchor text zu erstellen die Benutzer werden dann entsprechend den Alexa Rank der backlinks mehr oder weniger bezahlt macht es Sinn solche im Tool zu melden oder nicht ich würde es auf jeden Fall trotzdem melden einfach damit das Web Spam Team das hat wenn ihr größere, sag mal systematische Probleme findet bezüglich Spam oder allgemein könnt ihr die auch direkt an mich schicken dann kann ich das mit dem Team ein bisschen anschauen einfacher Meldungen sind natürlich immer ein bisschen einfacher für das Team zu verarbeiten man wirklich sagen kann dieser Link auf dieser Seite auf die andere Webseite ist quasi ein bezahlter Link und wenn man das direkt auch sehen kann aber manchmal sind größere Systeme auch relevant für das Web Spam Team ich denke wenn man das Alexa Rank macht weiß nicht wie relevant das heutzutage überhaupt noch ist das geht ja ich glaube ich über die Toolbar und weiß nicht wie viele heutzutage noch mit ein Toolbar im Internet drum kommen wahrscheinlich nicht so viele okay, einmal Ladezeit um die Ladezeit unserer Seite zu verbessern planen wir den wichtigsten Content als erstes zu laden um anschließend den restlichen Content Dokumente per Lazy Loading nachzuladen dadurch dass wir zurzeit Server-Site Rendering implementiert haben würden wir ebenfalls nur die so genannten Hero Elements prerendern gäbe es eventuell die Gefahr dass Google gewisse Inhalte nicht findet das könnte schon passieren je nachdem wie das natürlich eingerichtet ist ich würde auf jeden Fall mit den Testing Tools das kontrollieren mit der friendly Test kann man das sehr einfach testen ob die Inhalte überhaupt gecrawlt oder gerendert werden man sieht auch da die html Version und kann dann ein bisschen sehen findet Google überhaupt die Bilder die per Lazy Loading implementiert werden oder nicht man kann sich natürlich auch überlegen ist es kritisch dass Google die Bilder findet wenn das jetzt einfach Bildelemente sind die nicht wahnsinnig relevant sind für die Seite wenn vielleicht die Bildersuche nicht kritisch ist für die Website dann muss man ja nicht alles indexieren wie macht ihr das mit Lazy Loading habt ihr da irgendwelche Erfahrungen als Practices was bei euch klappt oder nicht klappt ja also wir betreuen ja verschiedene Kunden und sind da auf verschiedenen Orten mit Zeiten lautet Zeiten natürlich ziemlich intensiv beschäftigt ja die Situation ist auch bei jeder Website dann wieder anders ja ist schon ein Thema ja würde ich jetzt aber so spezifisch auch nicht so eine generelle Aussage ok könnte ich da noch eine Frage stellen ja und zwar wir benutzen auch Lazy Loading und es ist ja so dass Google es gibt ein developer.google.com Forum wird empfohlen eine NoScript Anweisung zu benutzen also hinter dem Bild das man jetzt per Lazy Load halt nachlädt dann halt eine NoScript Anweisung ich hätte grundsätzlich eine Frage dazu also wenn Googlebot jetzt vorbeikommt auf unserer Seite schaut rendert Googlebot dann immer die komplette Seite also auch wenn wir jetzt Javascript benutzen wird dann wirklich alles durchgerendert oder ist es so dass Google nur CSS vielleicht benutzt und man könnte das dann emulieren indem man in Firefox Javascript deaktiviert und das dann praktisch sieht was Googlebot dann auch sieht wir machen ein bisschen vor beide das heißt im ersten Moment laden wir die Seite ohne JavaScript auszuführen und nehmen quasi die statischen HTML Elemente die auf der Seite direkt sind im zweiten Schritt versuchen wir ein Rendering zu machen dass wir wirklich den ganzen JavaScript ausführen so weit möglich und dann möglichst auch sehen was alles sonst noch dazu kommt und gerade für Lazy Loading funktioniert das dann eigentlich relativ gut schwierig ist manchmal dass bei Lazy Loading ist es ja so dass die Bilder manchmal erst geladen werden wenn man auf der Seite und Googlebot versucht die Seite als einzelne Stück zu laden versucht die Seite mit einem möglichst großen Viewport zu laden so dass möglichst viele dieser Bilder quasi im Viewport sind zum Laden aber je nachdem wie man Lazy Loading macht kann es natürlich sein dass die Bilder dann trotzdem nicht geladen werden und deswegen klappt das eigentlich sehr gut mit dem NoScript dass man sagen kann dass die Bilder das einhalten und so kann man sie auf jeden Fall trotzdem verhindern aber wird CSS denn immer auch geremnt also wir haben zum Beispiel im horizontalen Slider auf der Homepage jetzt ist es so dass du kennst das wahrscheinlich wenn man jetzt keine Fixe höher einstellt dann verschieben sich die Elemente so weit als JavaScript initialisiert wird dann landet der Besucher irgendwie oder vielleicht sich gerade irgendwie schon mal beschäftigert mit der Seite gelesen hat jetzt ist es so dass bei uns halt praktisch nur drei Elemente erscheinen von den acht Elementen also meine grundsätzliche Frage ist halt Googlebot kommt und rendert CSS das auf jeden Fall also das steht fest und nicht nur den Quelltext sondern CSS ist auf jeden Fall schon mal drin genau, wir müssen das ja machen um festzustellen ob die Seite normal friendly ist oder nicht ohne CSS lässt sich das nicht so einfach feststellen alles klar, okay also im Firefox, JavaScript deaktivieren dann sieht man das was Google im ersten Moment auch sieht genau okay es ist natürlich immer schwieriger mit den ganzen modernen Frameworks die auf JavaScript basieren da kann man nicht nur sagen dass einfach Googlebot ohne JavaScript rumkauft sondern da wird halt wirklich möglichst viel auch ausgeführt aber es ist immer noch so dass es mal besser klappt und mal weniger gut klappt wahrscheinlich geht es ja dann auch um Ressourcenverschwendungen, dass man jede Seite immer wieder durchkreuert und immer wieder JavaScript hat rendert und es macht ja keinen Sinn immer die ganze Zeit das zu machen ja, okay das ist natürlich nicht was sich verändert oder vielleicht ist per JavaScript kommen da gerade die interessanten Sachen noch dazu von dem her müssen wir da schon regelmäßig machen aber es ist schon sehr aufwendig und das ist auch eine der Gründe warum wir da versuchen daran zu arbeiten und das ganze zu verbessern dass wir wirklich auch möglichst viel vom normalen Crawling auch per Rendering machen können ich weiß nicht ob wir da zu 100% kommen können aber es gibt möglichst viel in die Richtung auch bezüglich Geschwindigkeit ist vielleicht auch noch kurz zu erwähnen im Juli kommt ja die Änderung mit dem Mobile Speed dass ein erster Ranking Factor auch noch dazu kommt das heißt lohnt sich vielleicht da die Mobile Version nochmal durch zu testen dann gucken wo kann man vielleicht noch ein bisschen Wasser rausholen okay kurz für den Neuladen noch kommen ich weiß nicht gibt es von euch aus noch irgendwelche Fragen ich habe eine Frage aber das ist auch sehr spezifisch für unser Business mit den ganzen duplicated Content also eine große Zeitung seit 2005 also wir haben halt sehr viele Inhalte, Seasonale Inhalte die halt wirklich veraltet sind und sehr oft auch ähnlich sind, es ist jetzt nicht 1 zu 1 also das ist jetzt kein Canonica in dem Sinn aber es ist im Grunde genommen kein Duplicated Content das ist jetzt die Frage diese Aufräumen es gibt ja immer unterschiedliche Aussagen dazu was ist besser also Redirect also die Altenhalte einfach auf die neue Redock New Index oder einfach irgendwie einstellen dass ab bestimmte Jahre nicht mehr also nicht mehr gekollt wird das Problem ist auch dass wir schon auch ranking auch auf die alte Inhalte haben also historisch rankings das ist halt immer so ein schwieriges Thema bei uns was sollen wir dann halt priorisieren und dass wir uns auch selbst nicht also quasi uns selbst rankings brauchen ja ich glaube das ist immer das Problem ich denke die die meisten Themen ich weiß nicht die meisten also viele Themen werden sicher so sein dass sie auch weiterhin relevant sein werden dass man vielleicht auch im Nachhinein nachschauen möchte was ist 1991 da natürlich passiert dann findet man die Informationen trotzdem noch ich denke solche Inhalte sind durchaus weiterhin relevant und andere Inhalte wo man sagen kann dass es wirklich jetzt nicht mehr relevant oder wir haben das aktualisiert die würde ich dann einfach per Redirect weiterleiten an die neuen ich weiß nicht vielleicht die älteren Wetterberichte ja eben also so was wie Wetterberichte aber auch sehr viele solche wie eben so was zu Evergreen also wo wir auch Evergreen Peace haben, wo wir irgendwie Atlastöke haben aber es gibt halt immer wieder News wie z.B. Zecken es gibt halt immer wieder in Zürich jetzt gerade wieder Zeck-Saison jetzt wieder also die Zecken sind extrem aktiv und solche Meldungen kommen halt immer regelmäßig jetzt Juni, Juli, August also mindestens drei Artikel also Kommentaren also die sind halt in welchem Moment relevant weil das das News-Thema ist aber im Grunde genommen sollen wir solche Artikel dann auf die auf die neusten irgendwie Redirekten also von den 2006 ich meine kein interessiert mehr also was da oder ist das stattes gar nicht also ich meine es ist immer eine Frage wie weit man sich dann selber irgendwie konkurrenziert wenn man jetzt Artikel von jedem Jahr zu diesem Thema hat dann ist es natürlich auch schwierig aus unserer Sicht wenn jemand nach Zecken sucht welches diese Artikel jetzt relevant was ich normalerweise empfehle ist dass man irgendwie wie eine Themenseite dazu hat und sagt das ist jetzt so quasi zu diesem Thema haben wir und dann kann man trotzdem noch Nachrichten Seiten machen die dazu passen, die dann einfach auf diese Themenseiten verlinken damit längerfristig die Themenseiten eigentlich diejenigen sind die relevant werden die quasi immer wieder aktualisiert werden die immer stärker werden und nicht dass man dann einfach von Jahr zu Jahr immer wieder neue Seiten dazu hat das sieht man zum Beispiel auch oft bei Konferenzen oder so wiederkehrenden Events wenn man für jedes Jahr eine neue Website macht dann hat man dann einfach jedes Jahr wenn ich nach der aktuellen Konferenz suche finde ich die vom letzten Jahr weil das natürlich diejenige die am meisten links hat und die am meisten relevant ist bisher wenn man hingegen eine Website macht für die Konferenz im Allgemeinen dann ist das eher diejenige die quasi aufgebaut wird und man kann dann die letztjährigen Inhalte nehmen und einfach auf quasi den Archivbereich nehmen wenn man so will aber so baut man wenigstens irgendwie ein Hub quasi auf und über die Jahre wird das einfach immer stärker und das ist dann einfach da quasi der Themenbereich und man kann ja trotzdem in den Nachrichten dazu noch weitere Informationen bringen solange man irgendwie immer auf diesen Hub quasi zurück verweist aber das sind Sachen ich denke da da kennen viele damit wohl das haben wir auch mit Google I.O. haben wir das eigentlich fast jedes Jahr bisher gehabt dass wenn man auf Google I.O. sucht dann kommt einfach die vom letzten Jahr in den Suchergebnissen hat jemand Neues die Website gemacht und dann jedes Jahr neue Tools und dann ja passiert das irgendwie so und das sind da einfach so Bereiche um man sich überlegen was ist so der längerfristige Plan für diese Inhalte möchte man die weiter verwenden oder ist das jetzt wirklich nur eine einmalige Sache aber dieses offline und dann redirect ist das eigentlich ja, redirect kann man auch machen wie viel wird dann totaleriert wie viel da weiterverwendet wird mit dem redirect das was normalerweise passiert mit dem redirect ist dass wir einfach quasi die Seite haben die den redirect gemacht hat und die Zielseite und wir versuchen dann möglichst einfach alles signal weiterzugeben auf die Zielseite und schwierig oder komplizierter ist es dann eher wenn man verschiedene Seiten hat die auf diese Zielseite redirecten dann müssen wir halt irgendwie vorausfinden wie kann man das insgesamt anschauen ok ok mal schauen da ist noch die ganzen Cookie-Banner Seiten ich glaube die anderen Fragen die da sind sind soweit ähnlich wie die bisherigen gibt es aus eurem Seite vielleicht noch irgendetwas oder so still ja ich hätte sonst noch die Frage rund um voice search was nebst den generellen best practices für Webseiten was würdest du empfehlen zu unternehmen und auch irgendwie Gerüste zu sein für die Zukunft ähm, weiß ich nicht also ich denke Voice finde ich sehr interessant ist einfach ein sehr aktuelles Thema gibt es immer mehr diese Google Home Alexa Geräte mit dem man per voice auch Anfragen machen kann aber ich denke es ist immer noch sehr sehr neu das heißt ich hätte jetzt Mühe zu sagen man muss irgendwie diese Strategie haben damit man per voice gerüstet ist weil ich weiß nicht wie im nächsten Jahr oder in den nächsten 5 Jahren man per voice irgendwelche Anfragen macht oder Inhalte dann kriegt ich weiß nicht wie das aussehen wird die Konferenzen sagten ja immer 2020 ich bin 34% ich mein es ist natürlich ich denke mit mit den ich mein es ist natürlich mit den Zahlen ist natürlich immer schwierig zu sagen weil viele benutzen eine Voice für alles Mögliche dass sie da irgendwie weckerstellen oder Radio hören oder die Lampen an und ausschalten eigentlich ist das ja nicht Voice man macht ja etwas gezieltes und mit Voice Search quasi als Ersatz für die normale Websuche ich denke das braucht noch schon ein bisschen Arbeit bis man das irgendwie machen kann, dass es wirklich auch hilfreicher ist weil mit der normalen Websuche hat man ja seine 10 Ergebnisse und kann dann aussuchen welches von denen man genauer anschauen möchte auf Voice ist es eigentlich nicht so einfach was er wahrscheinlich ein bisschen in die Richtung gehen wird um Structure Data also gerade bei Rezetten kann man natürlich auch angeben das ist das was jetzt gesprochen wird und vielleicht gibt es dann auch in Zukunft mehrere so Elemente dass man sagen kann wenn jemand per Voice nach meinen Seiten sucht dann sagt bitte diesen Abschnitt das könnte ich mir vorstellen aber war das nicht, dass er mit diesem Metabeschreibung etwas länger geworden ist und dann wieder gekürzt mit dem Snippet ich dachte vielleicht ist das auch so eine für Voice geplant war damit man dann klar, ich glaube also ich meine warum hat das überhaupt gemacht also zuerst auf 330 vergrößert und jetzt dann wieder halt reduziert ich denke das, dass einfach die normalen Veränderungen die sie immer wieder testen zum Schauen was funktioniert gut was funktioniert nicht gut ich glaube im Moment ist es ja auch so dass es nicht eine Länge ist sondern je nachdem wie man sucht das Snippet das sind so Anpassungen die gerade die Usability-Teams bei Google probieren sie halt mal und so schauen wir mal wie reagieren Leute darauf wenn sie jetzt größere Snippets haben lenkt das er ab, hilft das er und solche Tests muss man einfach, denke ich, immer wieder machen überleben, machen wir das überhaupt das Richtige nur weil das jetzt die letzten paar Jahre geklappt hat ist das eigentlich das Richtige oder nicht, lohnt sich mal zu testen aber ja, ich weiß nicht wie es weitergeht was ich einfach jeweils empfehle ist, dass man selber auch mal so ein Gerät zu Hause stehen hat und dann merkt man auch sehr schnell wie kann man damit umgehen, wo sind die Grenzen wo wird es dann auch schwierig, dass man sagt gut, für eine richtige Antwort würde ich jetzt zum Handy greifen und das mal lesen was da relevant ist und wenn man das selber auch regelmäßig ausprobiert dann sieht man, denke ich, auch eher dass es nicht so magisch ist wie immer in der Werbung oder wie quasi oft angepriesen wird dass sehr viele, sag ich mal handfeste praktische Sachen dabei sind aber dass das Ganze mit den Finden von Inhalten aus dem Web halt doch sehr neu ist noch ein bisschen beschränkt, denke ich auch und wann kommen die Auswertungsmöglichkeiten dazu in der Google Search Console das weiß ich nicht ich weiß, dass das Team arbeitet daran die Sachen auch zu kriegen dass man das wirklich auch so zeigen kann in Search Console ich vermute für die meisten Websites dass es einfach so eine kleine Zahl sein dass man da nicht wahnsinnig viel Informatives auch rausholen kann einfach weil auch so viel noch experimentiert wird wie man das überhaupt bringen kann aber das, ich denke das kommt auf jeden Fall auf jeden Fall dann wenn es immer mehr Möglichkeiten gibt wie man da auch wirklich das steuern kann wenn der Wettmeister wirklich auch gezielt das machen kann um die ganze Sprachausgabe zu steuern dann macht es auch Sinn, dass man ein bisschen mehr Informationen gibt und sagt so, das hat sich gelohnt oder das hat sich nicht gelohnt was du da jetzt gemacht hast okay ich schaue mir das mit den SoftFino4 Fehlern nochmal an die Links, die da angereicht worden sind schauen wir mal, was man da noch verbessern kann aber ich glaube, sonst sind wir zeitlich haben wir es geschafft bis zum Ende vielen Dank euch, euch beiden fürs Kommen vielen Dank fürs Zuschauen und vielleicht sehen wir uns in einem von den nächsten Hangouts wieder mal an Tschüss allerseits Tschüss