 Okay, herzlich willkommen zur heutigen Webmaster-Sprechstunden, zum heutigen Webmaster-Sprechstunden-Hangout. Mein Name ist Johannes Müller, ich bin hier bei Google Schweiz als Webmaster Chance Analystatik und Teil von dem, was wir machen, sind solche Webmaster-Hangouts, wo Webmaster halt Fragen stellen können, bezüglich ihrer Website und der Google-Suche. Sind einige Fragen eingereicht worden, aber wir können gerne gerade mit euch anfangen. Wenn bei euch irgendwas denkt, bei dir zum Beispiel, ja. Genau, wir haben zum Beispiel oder eine Frage bezüglich Crawling in der Google-Search-Konsole. Wir haben Seiten, die seit über einem Jahr nicht mehr gecrawled werden, obwohl wir diese beantragt haben auf der Google-Search-Konsole oder nach unserer Meinung alles beantragt, live getestet mit der Google-Search-Konsole, Metatex und so weiter. Und da stellt sich einfach die Frage, was können die Gründe sein, warum das nicht gecrawled wird und was sind die Möglichkeiten? Okay, grundsätzlich ist es so, dass wir innerhalb von einer Webseite nicht alles mit der gleichen Geschwindigkeit crawlen. Es gibt einzelne Seiten, die schauen wir vielleicht mehrmals täglich an. Andere Seiten schauen wir vielleicht alle paar Wochen oder alle paar Monate mal an. Normalerweise schauen wir die Sachen, die indexiert sind, mindestens einmal im Jahr an. Und wenn das jetzt länger war, dann klingt das erstmal ein bisschen komisch. Also ich denke, das sollte eigentlich nicht so sein. Was könnte man da machen? Also was ich vielleicht mal im ersten Moment überlegen würde, ist, ob das jetzt wichtige Seiten sind innerhalb der Webseite oder ob das einfach Seiten sind, die sonst noch wieder bei sind. Das heißt, wenn ich 100.000 Seiten habe und 100 davon werden nicht so häufig gecrawled, dann kann das durchaus normal sein. Es gibt einfach gewisse Seiten, die aus unserer Sicht nicht so wichtig sind, dass wir die regelmässig crawlen würden und dann bleiben die halt so, wie sie sind für eine längere Zeit. Wenn du willst, kannst du wahrscheinlich, ich vermute, wir haben nicht allso viele Fragen heute. Wenn du willst, kannst du vielleicht einige dieser URLs mal im Chat reinkopieren. Dann kann ich sie nachher mal anschauen. Und vielleicht gibt es aber etwas Bestimmteres, was worauf ich hindeuten kann. Grundsätzlich würde das nicht mit dem MetaTags zusammenhängen, weil die werden ja erst gesehen, wenn wir die Seiten crawlen. Ich vermute, die Seiten sind auch nicht per Robots Text blockiert. Ich vermute, die sind auch nicht per Robots Text blockiert. Sonst würdest du das ja direkt sehen. Was aus unserer Sicht ein bisschen hilft, ist, wenn sie intern sauber verlinkt sind, wenn sie gut finden kann intern und wenn sie in der Sign-Up-Datei dabei sind. Ich glaube, von der Frage, die hast du euch auch bei YouTube eingetragen, da sieht das so aus, ob ihr das so weit eigentlich gemacht habt. Das heißt, was ich da machen würde, ist mal einige dieser Beispiel URLs einfach hier im Chat reinkopieren und dann kann ich die nachher mal anschauen. Dann soll ich jetzt schon noch ein paar zwei URLs reinkopieren. Danke schön. Gibt es sonst noch was, was wir vielleicht von Anfang an schon mal anschauen sollten? Ich habe auch was gepostet. Es geht um dieses Keyboard-Stuffing. Du hattest im englischen Hangout vom 27.9. da ein Beispiel gebracht. Da war eine Seite, also du hast über T-Shirts gesprochen, also wenn die Seite halt über T-Shirts handelt und dann, wenn ganz viele Produkte verlinkt sind, mit T-Shirt rot, T-Shirt blau, T-Shirt, T-Shirt und so weiter und unten drunter dann nochmal ein Text ist. Jetzt frage ich mich, bei mir ist es jetzt eigentlich genauso. Die Seite geht um Tischflaggen und dann haben wir jetzt 60 Produkte mit Tischflagge, Kroatien-Tischflagge, Italien-Tischflagge, USA und so weiter. Und unten drunter ist jetzt kein Wikipedia-Artikel, sondern ein Produktberater, aber wo natürlich auch wieder Tischflagen vorkommen, mit Sockel und die Höhe und so weiter. Würdest du sagen, ich laufe da auch in dieses Keyboard-Stuffing-Problem, weil ich sage mal, in den URLs steht Tischflagge drin, im Titelattribut vom Link steht Tischflagge drin, in den Altattributen von ImageTek steht auch nochmal Tischflagge drin. Wenn ich jetzt suche im Text-Editor, dann komme ich schon auf 500 mal Tischflagge-Wörter, die jetzt gezählt werden. Meine Frage dazu, sollte ich mal ausprobieren, einfach die Produkte zu reduzieren, vielleicht auf 12, von 60 auf 12 runtergehen und mal zu testen, würdest du sagen, das ist nicht so das Problem eigentlich mit dem Keyboard-Stuffing heutzutage. Gut, bei 500 mal auf einer Seite klingt das schon ein bisschen, vielleicht in Richtung problematisch, aber was natürlich dabei ist, sind zum Beispiel, wenn in den URLs einfach diese Keywords dabei sind, das zählt ja eigentlich nicht aus Keyboard-Stuffing. Das heißt, wenn die Links mit Keyboard-Stuffing drin dabei sind, dann ist das unproblematisch. Wenn der Link Anchor Text hingegen Keyboard-Stuffing, also diese Wörter dabei hat, dann ist das etwas, was wir als Wort zu dieser Seite zählen würden. Aber nur weil dieses Wort auch in der URL drin ist, das ist aus unserer Sicht eigentlich nicht so wahnsinnig wichtig. Das heißt, ich würde da vielleicht mal grob versuchen, um das zu schätzen, wie viele URLs sind da verlinkt, die auf dieser Art sind, vielleicht, dass man sucht, mit einem Strich Keyword-Stuffing, dann sieht man ja schnell, wenn das 200 URLs sind, die so verlinkt sind, dann habe ich diese 500, minus 200. Immer noch 300 ist vielleicht auch ein bisschen hoch. Aber zumindest hat man dann eher die Zahl der Male, wie dieses Wort effektiv dieser Seite vorkommt, was wir für die Indexierung verwenden würden. Also Image-Alt-Attribut zählt auch? Genau, ja. Das zählt auch, okay. Und ich hätte jetzt theoretisch, würde ich mal probieren, dass ich 12 Artikel anzeige und den Rest, die 48 restlichen Produkte über Lazy-Loading nachlade, aber dieses Lazy-Load praktisch für euch geblockt wird, über Robotspunkt Text. Also die Links zu den Produkten gibt es sowieso irgendwo im Online-Shop. Es muss nicht in dieser Kategorie verlinkt sein, also es ist auch woanders verlinkt. Könnte man das ausprobieren auch über Lazy-Loading vielleicht? Ich würde das mal ausprobieren. Oder mal überlegen, ob vom Alt-Text her oder vom Link-Anker-Text für die einzelnen Produkte, ob man da irgendwas machen kann, dass man das nicht immer wiederholen muss. Wenn schon als Kategorie, sag ich mal, Tischflaggen dabei ist, vielleicht muss man nicht Tischflaggen immer im Text auch noch dazu nehmen. Weiß ich nicht. Müsste man vielleicht mal anschauen oder ausprobieren. Okay. Und zählt das zur Qualität der Seite? Keyboard-Stuffing? Oder ist das wieder was anderes? Weniger in Richtung Qualität. Es ist eher etwas, unsere Systeme separat anschauen und sich dann überlegen, ist das jetzt problematisch da oder ist das eher weniger problematisch? Und das hat da schon ein bisschen einen fließenden Übergang. Das heißt, es gibt nicht irgendwie eine fixe Zahl, wo ich sagen könnte, so viel Mal darf man höchstens ein Wort pro Seite verwenden. Aber es sollte einigermaßen im natürlichen Bereich sein. Ich denke, bei 300 Mal auf einer Seite ist das schon relativ viel. Okay. Du hattest dann noch in den englischen Hangouts gesagt, zum Beispiel, da war eine Seite mit Spam-Links. Ihr schaut euch die Qualität allgemein an von der Seite und wenn auch diese Seite Spam-Links hat, dann hat das nicht so einen großen Einfluss auf dieses Gesamt-Ranking. Das würde doch bei mir dann genauso sein. Aber wir sind ja nicht schlecht vom Ranking, aber jetzt nicht unbedingt die besten vom Ranking halt. Also könnte es sein, dass man durch das Keyboard-Stuffing dann nur ein bisschen was runterziehen, und wenn man das verbessert, dann doch nochmal vom Ranking besser wird. Oder? Das könnte ich mir schon vorstellen. Also ich vermute, wenn ihr normal im Ranking drinnen seid, mit dieser Seite, dann ist es weniger problematisch. Die Fälle, wo ich gesehen habe, dass Keyboard-Stuffing wirklich problematisch ist, hat sich dann so ausgewirkt, dass die Seite dann so gut wie gar nicht für diese Keywords in der Suche erschienen ist. Ach so, okay. Es war dann schon deutlich sichtbar, da irgendwie das jetzt nicht mehr so sichtbar war. Wenn das einigermaßen gut ist im Ranking bei dir, dann könnte ich mir vorstellen, dass das ein bisschen klein ist, vielleicht hilft, wenn wir ein bisschen besser erkennen können, worum es geht bei dieser Seite, aber wahrscheinlich ist es nicht ein kritisches Problem. Okay, alles klar, Dankeschön. Okay. Ich fange mal mit den Fragen an, die eingereicht worden sind. Wenn ihr zwischen euch Kommentare oder weitere Fragen habt, einfach loslegen. Es geht um zwei Websites, die bereits Anfang März, beziehungsweise April unter neuen Domains relaunched wurden. 301 redirects auf die neuen URLs wurden damals eingerichtet und funktionieren nach wie vor. Trotzdem sind... Trotzdem sind nach Monaten immer noch viele URLs mit den alten Domains indexiert und werden auch in den Suchergebnissen ausgespielt. Was kann ich tun, damit die alten URLs endlich aus dem Index entfernt werden? Gute Frage. Grundsätzlich ist es so, dass wenn wir sehen, dass ein Domain von einem Domain oder eine Website von einem Domain zu einem anderen umgeleitet wurde, das heißt, eigentlich die Adresse gewechselt hat, dann versuchen wir das relativ schnell neu zu bearbeiten und dann versuchen wir da möglichst schnell alles auf den neuen Domain weiter zu übernehmen. Was aber trotzdem passieren kann, ist, wenn man gezielt nach dem alten Domain sucht, dass man dann die URLs immer noch sieht. Man kann das relativ einfach ausprobieren, indem man eine Site-Abfrage macht und dann sieht man manchmal noch das alte Domain dort. Wenn man die gecached Version anschaut von diesen URLs, sollte man allerdings dann das neue Domain sehen. Das ist dann für uns ein Zeichen, dass der Canonical vom alten Domain zum neuen Domain gewechselt hat und dass wir eigentlich mit dem neuen Domain für die Indexierung arbeiten. Wenn das auf der gecached Version nicht der Fall ist, wenn effektiv immer noch da der alte Domain ist und wenn das URLs sind, die einigermaßen sichtbar sind, sonst regelmäßig crawlen, dann klingt das für mich danach, dass wir mit dem Canonicalisierung Probleme haben mit diesen URLs. Das heißt, vielleicht ein URL Canonical ist irgendwie falsch, vielleicht ist es so, dass die interne Verlinkung noch nicht ganz sauber auf die neue Domains alle zeigt. Vielleicht in der Site-Ab-Platei, dass man da die URLs von dem alten Domain noch separat einreicht über die Site-Ab. All diese Signale helfen uns, quasi die richtigen URLs zu finden, wie wir für die Indexierung verwenden sollten. Wenn man da unterschiedliche Signale sendet, dann kann es sein, dass unsere Systeme mal in die Richtung gehen Okay, also ich frage, ist von mir eingereicht worden. Ich habe jetzt auch die betroffenen URLs durchgeschickt, aber die werden nicht nur, wenn man gezielt nach der Domainsucht ausgespielt, sondern man findet sie teilweise wirklich in der Suche, wenn man zum Beispiel nach dem Unternehmensnamen sucht. Und ich wüsste eigentlich nicht, dass sonst irgendwas nicht passt. Also wie gesagt, sind schon sehr lange diese redirects drinnen, die Canonical Text sollten eigentlich auch passen. Es gibt natürlich einzelne URLs in den Websites, nachdem es auch ein Re-Launch war und nicht nur eine Domainänderung, die es jetzt einfach nicht mehr gibt und wo es auch okay ist, wenn die Fehler-Seiten, ja zu Fehler-Seiten führen. Und den Firmennamen habt ihr auch gewechselt oder ist das... Teilweise, es sind zwei unterschiedliche Unternehmen. In einem Fall wurden zwei Websites zu einer neuen verschmolzen und in einem Fall ja was ein Wechsel des Firmennamens und deswegen auch Domainänderung. Ja, ich merke einfach, wenn ich, sag ich mal direkt nach der alten URL suche, dann sehe ich die, aber wenn ich jetzt die gecached Version anschaue, dann kommt das eigentlich richtig. Das heißt, aus meiner Sicht ist es an und für sich sauber verarbeitet da. Ich sehe auch, wenn ich nach dem Firmennamen suche, dann sehe ich an erster Stelle, glaube ich, da die neue URL und die anderen kommt dann irgendwo weiter unten. Von dem her würde ich meinen, zum großen Teil ist es eigentlich verarbeitet und nicht unbedingt etwas, jetzt groß noch etwas machen muss. Was man machen kann, wenn man will, ist mit dem URL-Entfernungstool arbeiten in so einer Situation. Das heißt, in Search Console kann man ja vom alten Domain alle URLs entfernen lassen. Dabei werden die nicht aus dem Index entfernt, sondern die werden einfach nur in den Suchergebnissen nicht mehr dargestellt. Das heißt, wenn jemand gezielt nach dem alten Namen sucht, dann wissen wir, diesen alten Domain sollen wir nicht mehr zeigen, dann zeigen wir halt den Rest an, was wir auch noch haben. Das heißt, in eurem Fall einfach den neuen Domain zum Beispiel. Okay. Aber eben wie gesagt, das ändert für die Indexierung eigentlich nichts. Ist nicht so, dass man dann besser in den Suchergebnissen dasteht. Man hat einfach nur dann die neuen URLs dabei. Danke. Ja, bitte. Okay. Ich arbeite für ein Gesundheitsportal und seit letztem Jahr im August. Das viel diskutierte Medic Update geht es für uns stetig Backup. Sämtliche Maßnahmen, den Fall zu stoppen oder gar umzukehren, sind bisher viel geschlagen. Meine zwei Fragen. Kann guter Content durch schlechten Content runtergezogen werden? Zum Beispiel durch ein User Generated Forum. Gibt es so etwas wie eine Art manuell downgrade der gesamten Domain, vielleicht durch einen Quality Rater. Zur ersten Frage, das kann durchaus der Fall sein. Das heißt, in vielen Fällen versuchen wir ein Domain gesamthaft anzuschauen und versuchen festzustellen, wie die Qualität von diesem Domain gesamthaft ist. Wenn wir dann sehen, dass gesamthaft effektiv ist, dass wir da nicht 100%ig sicher sind, dass das jetzt gute Inhalte da sind, dann kann das schon sein, dass von der Qualität her, wenn wir das Domain anschauen und die neuen Seiten sehen, dass wir da nicht 100%ig sicher sind, wie wir damit umgehen sollen. Das heißt, wenn ihr so ein Mix habt zwischen ich weiß nicht, Inhalten, die geprüft worden sind, die sauber von Fachpersonen geschrieben sind und Inhalten, die von irgendwelchen Laien in einem Forum geschrieben wurden, dann würde ich mir schon überlegen, wie man das gestalten kann, dass das Gesamtbild wirklich passt, dass zumindest das, was indexiert wird, wirklich mit dem übereinstimmt, wofür ihr gefunden werden wollt. Das kann sein, dass man da, die mehrere Meinungen sehen möchte und dass man da auch die Vor- und Inhalte dazu haben möchte. Es kann auch sein, dass man irgendwie ein Art, weil ich weiß nicht, Qualitätssignal schicken will, in dem, dass man einzelne Formbeiträge auf a new index stellt, damit sie für die Indexierung nicht verwendet werden. Wenn man zum Beispiel sieht, dass gewisse Formbeiträge keine Antworten haben oder wenn die Antworten von Personen kommen, die vielleicht nicht 100%ig trauen können, dann könnte ich mir schon vorstellen, dass man das so ein bisschen stärker konzentrieren kann, dass das wirklich, wenn wir die Webseite indexieren, dass das Gesamtbild dann auch eben so passt, wie ihr das haben möchtet. Die andere Frage, ob es eine Art manuellen Downgrade, eine gesamte Domain gibt, vielleicht durch einen Quality Rater. Es gibt schon manuelle Maßnahmen, die wir treffen auf einzelnen Domains, aber das bezieht sich auf Webspam. Das heißt, wenn unser Webspam Team manuell sieht, dass da wirklich etwas Problematisches ist mit dieser Webseite in Bezug auf unsere Webmaster Guidelines, dann kann es sein, dass das Webspam Team da halt mal eingreifen muss und eine manuelle Maßnahme verlegen muss und solche Maßnahmen sind immer in Search Console sichtbar und man kann da immer die Möglichkeit, dass man ein Reconciliation Request beantragen kann. Das heißt, man kann beantragen, dass jemand das nochmal manuell überprüft und schaut, ob ihr das bereinigt habt oder ob das vielleicht falsche Antworten ist. Ihr könnt da Kommentare entsprechend eingeben und dann wird das überprüft und wenn das dann okay ist, dann wird diese manuelle Maßnahme behoben. Es gibt keine manuellen Maßnahmen von Quality Ragers. Das heißt, bei uns ist es so, das System mit den Quality Ragers findet an und für sich vor dem allgemeinen Algorithmus Update statt. Das heißt, wenn unsere Entwickler an neuen Algorithmen arbeiten, dann schicken sie Beispielssuchernfragen an unsere Quality Ragers und geben ihnen dann gezielte Fragen, die sie beantworten sollen. Das heißt, in der Regel sollen sie überprüfen, ob die Suchergebnisse vorher und nachher für diese Suchernfragen, die sie zu überprüfen haben, ob die jetzt besser sind oder schlechter sind. Und das hilft uns dann, die Algorithmen ein bisschen anzupassen. Das heißt, wir versuchen herauszufinden, wie funktioniert das am besten. Wie können wir die Suchergebnisse so optimieren mit den Algorithmen, dass sie wirklich so zu dem passen, was wir darstellen wollen. Und wenn das von den Quality Ragers so weit okay ist, dann werden diese algorithmische Anpassungen gemacht. Und diese Algorithmen betreffen dann alle Websites und alle möglichen Suchernfragen. Das heißt, es ist nicht so, dass einzelne Quality Ragers den Ausgang vom Ranking für einzelne Websites beeinflussen können, sondern die Quality Ragers helfen uns, die Algorithmen ein bisschen besser zu bestimmen und dann die Algorithmen schauen dann die einzelnen Websites an und versuchen dann, die Relevanz für diese Suchernfragen entsprechend herauszufinden. Das heißt, es gibt keine manuelle Maßnahme, die Quality Ragers treffen, die einzelne Websites betreffen werden. Okay. Ja, erst mal, also die Fragen kam von mir. Wir arbeiten halt wirklich seit letztem Jahr verstärkt daran, dass wir da eben da irgendwie was zu verbessern. Und deswegen, es gibt so zwei, drei Punkte halt tatsächlich, wo wir uns schwer tun, tatsächlich aus Monetarisierungssicht heraus. Das ist halt eben leider so. Und ich such einfach nach Argumenten, die ich natürlich anbringen kann. Und deswegen habe ich halt eben auch diese Fragen gestellt. Diese manuelle Maßnahme war halt irgendwo so eine Idee, weil wir uns tatsächlich einfach gar nicht mehr erklären können, woran es liegt. Wir haben lange auch wirklich gut gerenkt mit dem Content. Und wirklich seit letztem Jahr geht es eigentlich wirklich immer, immer nur runter. Also es ist halt mit jedem Update, was seitdem gekommen ist, es ist weiter runtergegangen. Einzelne Contents ranken noch und aber so wirklich die Gesamtheit. Deswegen habe ich halt gefragt, okay, gibt es quasi sowas wie ein, ja, so einen manuellen Haken, wo dann steht, einfach 10% off, das war quasi so ein bisschen diese Idee. Aber im Grunde von dem, was du sagst, ist es natürlich, wenn ihr die Algorithmen anpasst und die Quality Rater gucken sich danach an, ob die Suchergebnisse besser sind, dann bedeutet das ja auch ein Stück weit, okay, wenn man einmal so ein Stück weit abgerutscht ist, wird es dann in 12 Zeit schwerer natürlich auch wieder hochzukommen. Weil die Ergebnisse sind ja gut. Vermutlich sage ich jetzt mal einfach. Ja, aber wenn die Signale sich verändern, wenn wir die Website neu anschauen und sehen, dass sie jetzt wirklich signifikant besser ist, dann ist es aus unserer Sicht eigentlich schon auch okay und dann kann das auch wieder hoch hutschen. Das sind Sachen, die sehe ich oft, sage ich mal indirekt, indem das einzelne SEOs, ich sehe das häufig aus Amerika, auch Untersuchungen machen und zum Beispiel einzelnen Beispiele zeigen mit medizinischen Websites, die vorher, sage ich mal, schlecht abgeschnitten haben mit den letzten Updates und mit gezielten Veränderungen, die sie gemacht haben, dass sie jetzt auch wieder ein bisschen besser dastehen. Und von dem her kann ich mir schon vorstellen, dass man da durchaus noch was herausholen kann. Es ist nicht so, dass wenn man einmal ein bisschen tiefer in den Rankings erscheint, wieder hochzukommen. Aber ich kenne jetzt eure Website nicht, ich weiß nicht, wie das aussieht bei euch, aber es gibt schon einzelne Websites, wo wenn wir die Gesamtqualität anschauen, auch Sachen, die ich dann direkt zum Quality Team schicke, die quasi an diesen Algorithmen arbeiten, dann sagen sie, das ist eigentlich so gedacht. Das heißt, wenn wir bei gezielten medizinischen Suchern fragen, wenn die Resultate von einer Website wirklich ein bisschen zweifelhaft sind, wenn das Informationen, die einfach nur im Forum dargestellt werden und wirklich kein Qualitätsmerkmale davorhanden sind, dass man weiß, die Person, die jetzt im Forum geantwortet hat, dass es vielleicht eine Ärztin und die kennt sich da aus. Wenn man das gar nicht sieht auf der Website, dann kann ich mir schon vorstellen, dass unsere Algorithmen da ein bisschen kritischer hinschauen. Was ich da vielleicht machen würde, ist mal die einzelnen Berichte aus Amerika von anderen medizinischen Websites anschauen, wo sie gezielt Veränderungen gemacht haben, wo sie dann auch Verbesserungen gesehen haben und mal überlegen, was man da machen könnte, dass man das mit der eigenen Website auch ein bisschen ausprobieren kann. Das Schwierige ein bisschen bei diesen größeren Core-Updates, ist, dass man oft ein bisschen warten muss, bis die Veränderungen verarbeitet worden sind. Das heißt, es ist nicht so, wie mit einem normalen Inhaltsstück, wo wir das einfach noch einmal neu crawlen können und dann mit dieser einzelnen URL da sind diese Wörter noch neu dabei, dann können wir diese Seite für diese Wörter sauber in den Suchergebnissen zeigen. Gerade bei Qualitätsveränderungen und bei Core-Updates braucht es einfach eine gewisse Zeit, bis all die Signale angesammelt sind, bis man dann eine Veränderung sieht. Das heißt, man muss ein bisschen mehr längerfristig denken und längerfristig arbeiten und weniger hoffen, dass man da mit kleinen Tweaks dann relativ schnell eine Veränderung in den Suchergebnissen sieht. Ja, okay. Gut, danke. Könntest du bitte noch mal meine Website anschauen, ob es dort negative Signale gibt, die das Ranking bremsen? Ich habe die Website ein bisschen angeschaut, mal geschaut, wie das ungefähr da aussieht und ich sehe da eigentlich keine negative Signale. In dem Sinne wird die eigentlich im Ranking natürlich gebracht. Das heißt, es ist nichts da, was diese Website zurückzieht oder zurückhält. Was ich einfach gesehen habe, ist, dass die Textnippets manchmal ein bisschen sehr kort sind und ein bisschen sehr allgemein. Das sind, ich glaube, die Description-Metathags, die du bei dir drin hast. Ich würde mal überlegen, ob man das ein bisschen verbessern kann. Grundsätzlich ist so, dass der Description-Metathag nicht fürs Ranking verwendet, aber wir zersähen die natürlich in den Suchergebnissen. Und wenn Sie so etwas vielleicht sehen in den Suchergebnissen und das es nicht wirklich 100 % klar oder es klingt zu verallgemeinert, dann könnte ich mir schon vorstellen, dass vielleicht benutzer ein bisschen weniger auf solche Ergebnisse klicken. Und dann ist es weniger eine Frage vom Ranking, sondern einfach ihr erscheint den Suchergebnissen, aber es klickt niemand auf eure Ergebnisse und das ist natürlich auch suboptimal für euch. Das macht vom Ranking her haben für sich nicht viel aus, aber das kann natürlich helfen, eure Website ein bisschen bei den Benutzer ein bisschen beliebter zu machen und dann indirekt. Sieht man vielleicht schon etwas, dass wenn ihr mehr Besucher habt, dann kann es natürlich sein, dass mehr Leute das auch weiter empfehlen. Ansonsten habe ich eigentlich vom technischen her jetzt nichts gezielt gesehen. Ich denke von der Qualität her ist es wahrscheinlich noch ein bisschen optimierungsbedürftig. Das heißt, man kann wahrscheinlich noch einiges rausholen von der Qualität her, aber es ist nicht so, dass man sich nicht etwas die Website zurückzieht oder irgendwie, dass da eine manuelle Maßnahme da ist, die das Ganze irgendwie ausbrebst. Wir verzeichneten am Wochenende plötzlich einen Traffikeinbruch von 60%. Wir fanden heraus, dass es vor allem User aus dem englischsprachigen Ausland plus Polen und Südamerika waren, die wir Desktop als Direct oder non zu uns kam. Diese Gruppe brach um 90% ein. Diese User sind für uns nicht wirklich relevant, da wir nur in Dach operieren. Aber mich würde aus reiner Neugierbrennen interessieren, wie so etwas passieren kann. Weiß ich nicht. Ich vermute, dass da auch eine Vermischung von zwei Elementen da ist. Das heißt, wenn du die als Direct none siehst, dann bist du nicht in Analytics. Das heißt, nicht in Search Console. Wenn das als Direct kommt, dann sind das nicht Besucher, die über die Google Suche kommen. Das heißt, zumindest über Google Suche ist es vermutlich nicht so, dass da sich groß etwas verändert hat. Sondern irgendwie kommen halt diese Besucher weniger häufig zu dir. Ich weiß nicht, wie das sein könnte. Eine Sache, die ich vermute, ich bin jetzt nicht sicher, ob das immer noch der Fall ist. Aber ich glaube, in Analytics ist es so, wenn man ein redirect macht, von einer Seite auf eine andere, dann wird der Refer auch fallen gelassen. Das heißt, man sieht dann auch Direct none. Vielleicht war da irgendeine Website, die ein redirect zu euch gemacht hat und da ist relativ viel Verkehr gekommen. Auf jeden Fall sollte das eigentlich kein Einfluss auf die Suche haben. Das heißt, es ist ja nicht so, dass wir sehen, wer auf eure Website kommt und wenn auf einmal weniger Leute zu euch direkt kommen, dann ist es an für sich eine Sache auf eurer Seite und nicht eine Sache, die wir über die Google Suche irgendwie verwerten würden. Darf ich dazu etwas fragen? Ja, klar. Und zwar hatte ich am Wochenende auch etwas Seltsames gehabt. Wir benutzen auch Google Ads und in 2 Minuten sind da 2.000 Clicks gekommen auf ein Aufkleber von uns. Also das ist ein UDSSR, Sowjetunionaufkleber innerhalb von 2 Minuten. Was ich beobachtet habe in den Server-Logs, dass auch gleichzeitig an der Google-Bot anfing, diese Seite zu crawlen. Welchen Zusammenhang hat das? Also das ist nicht der Ads-Bot gewesen, sondern der ganz normale Google-Bot. Ihr habt ja normal, aber eigentlich habt ihr ja keine Verbindung zu den Google Ads. Ich weiß nicht, wie das genau da verknüpft ist, aber ich glaube über die Product Search ist es so, dass wir die Seiten mit den normalen Google-Bots crawlen. Ja, war noch Produkte. Okay. Ja, alles klar. Dann wird immer nur geguckt, ob die Seite auch tatsächlich irgendwie in Ordnung ist und so weiter, ne? Ja. Ja. Gib manchmal komische Sachen, aber ja. Okay, alles klar, danke. Bei einer News-Website überlegt man sich, nach einem Relaunch die URL-Struktur für neue Artikel so zu verändern, dass in Zukunft alle Artikel-URLs nur die Struktur Domain Artikel-ID statt Domain-Kategorie Artikel-Titel lauten würde. Wie groß wäre die negative Auswirkung einer solche Änderung? Über die Google-Suche sollte das eigentlich kein großen Einfluss haben. Das heißt, ihr habt sicher in dem Moment, wo ihr diese Umstellung macht, gibt sicher Schwankungen. Das heißt, denk ich mal für eine gewisse Zeit, bis sich das alles wieder eingependelt hat, wird das so sein, dass wir diese URLs alle erst mal neu crawlen müssen. Wir müssen die Zusammenhänge zwischen diesen URLs erst mal neu verstehen. Gerade wenn man eine größere URL-Struktur-Veränderung macht innerhalb einer Website, dann geht es einfach eine gewisse Zeit, bis sich da alles wieder eingependelt hat. Aber längerfristig sollte das eigentlich gar keinen Einfluss haben. Das heißt, könnt das durchaus so umstellen, das ändert die Google-Suche nichts. Ich habe kurz noch bei Google News im Hilfercenter nachgeschaut, weil ich da irgendwie so etwas in Erinnerung hatte. Und da ist es so, dass Sie, gerade bei größeren News-Websites, dass Sie gerne davon im Voraus Bescheid wissen. Und ich glaube, da ist im Hilfercenter ein Link zu irgendeinem Kontaktformular, wo man sich melden kann und sagen kann, wir verändern unsere News-Urails von diesem Format in einem anderen Format. Was damit passiert auf der Google News-Seite, weiß ich nicht genau. Aber das ist wenigstens eine Sache dort. Vom Praktischen her ist es so, dass man das eigentlich wie ein normal URL-Struktur-Veränderung anschauen würde. Das heißt, man stellt die Redirects ein, man weiß, dass die interne Verlinkung auch sauber auf die neuen URLs direkt verweist. Dass man mit dem REL Canonical sauber arbeitet, wenn man mit hreflang arbeitet, dass es auch sauber auf die neuen URLs geht. Mit AMP ebenfalls, dass da die Verknüpfung zu den AMP-Seiten und zurück mit dem Canonical sauber verlinkt ist. All solche Sachen darauf würde ich achten. Und das sind viele Kleinigkeiten. Deswegen würde ich da einfach versuchen, möglichst systematisch vorzugehen. Wenn die Kleinigkeiten alle zusammenpassen, dann wird das relativ schnell verarbeitet. Wenn es da Ungenauigkeiten gibt, dann kann es unter Umständen ein bisschen länger geben. Und ebenso wie bei der ersten Frage, wenn man gezielt nach den alten URLs sucht auch, denke ich mal, ja oder so, oder länger vielleicht sogar, dann kann es sein, dass wir die trotzdem einfach, weil wir erkennen können, dass jemand gezielt nach dieser URL gesucht hat. Das heißt, wenn ich eine Side-Abfrage mache und zum Beispiel Side-Dein-Domain-Kategorie mache und das sage ich mal in einem Jahr nach dieser Umstellung, dann könnte ich mir schon vorstellen, dass da etliche URLs trotzdem noch sichtbar da sind. Wenn man dann die gekernste Version anschaut, sieht man aber meistens, dass das eigentlich schon auf die neuen URLs zeigt, dass eigentlich die neuen URLs indexiert sind und dass wir nur die alte Version zeigen, weil es so aussieht, dass ob jemand gezielt nach der alten Version gesucht hat. Wir haben ein großes Nachrichtenportal-Magazin seit etlichen Jahren auch ein Paywall für unser Premium Content. Gäste können jeden dieser Plusartikel für ein paar Absätze lesen und danach endet der kostenlose Teil und die Benutzung müssen bezahlen um weiterzulegen. Natürlich begriff es auch den Googlebot. Die Artikel sind teilweise extrem ausführlich mit Bildern und Videos und Text und kommen regelmäßig auf über 50.000 Zeichen wertvollem Content. Der Bot sieht aber nur die ersten 2-5 Absätze. Entsprechend kommt der Bot auch kein richtiges Bild vom gesamten Content. Und das geht glaube ich in die Richtung quasi, was wir da noch machen. Ich denke, was da wahrscheinlich einen großen Einfluss hätte ist, wenn man mit dem Flexible Sampling arbeitet. Ihr habt ja dazu auch zum Hilfercenter gelingt, wo das ein bisschen beschrieben wird. Wichtig ist da, dass Google den gesamten Inhalt sehen kann, auch wenn ihr den an Benutzern nicht ausliefert. Das heißt, mit dem Markup geht man ja gezielt an. Dieser Bereich ist zum Beispiel nicht kostenlos erhältlich und das hilft uns dann, dass wir die gesamte Seite bewerten können, dass wir die gesamte Seite auch für die Suchbegräfer, die auf dieser Seite sehen, zeigen können. Auch wenn der Besucher dann nachher mit einem Paywall oder mit so diesen Lead in das, wenn das so ein bisschen blockiert wird. Wichtig ist da eben, dass Google das Ganze sehen kann. Das heißt, man kann mit verschiedenen Wegen arbeiten, einerseits mit CSS, dass man die Inhalte einfach nicht sichtbar macht. Ich denke, gerade bei eurem Benutzern, so wie du das beschrieben hast, ist das nicht so wahnsinnig hilfreich, weil das lässt sich ja auch im Browser umstellen. Anderseits, was man auch machen kann, ist, dass man gezielt auf den Googlebot achtet, wenn solche Zugriffe kommen, dass man dann die vollen Inhalte zeigt. Das kann man einerseits über den User-Agent machen, andererseits auch über die IP-Adresse kontrollieren. Das heißt, praktisch gesehen überprüft man, ob der User-Agent Googlebot ist. Man kann ja auch nach diesem Textstück suchen. Und dann überprüft man, ob die IP-Adresse zum Bereich von Googlebot passt. Und wenn das stimmt, dann kann man die vollen Inhalte dort zeigen. Einfach mit der entsprechenden Markierung, dass wir dann auch wissen, diese Inhalte sind hinter einer Paywall versehen. Und dann können wir die ganze Seite so entsprechend für das Ranking verarbeiten. Ja, ich denke, das wäre wahrscheinlich die beste Variante da. Und vom Thema ist es natürlich so, dass ihr die Inhalte anders zu Googlebot zeigt, als was ihr den Benutzern zeigt. Aber wenn das sauber markiert ist, dann ist es aus unserer Sicht auch so okay. Letzte Woche gab es das letzte Google Update. Nun frage ich mich, wie lange es solch ein Update werden kann, mehrere Monate bis zum nächsten größere Updates oder ist das Update nach ein paar Tagen oder Wochen dann durch und der Traffic pendelt ein, ohne weiter zu gewinnen oder zu verlieren. Grundsätzlich ist es so, dass wir regelmäßig Updates machen. Das heißt, es gibt größere Core Updates, die wir gelegentlich auch entsprechend melden auf Twitter zum Beispiel. Und es gibt einfach sehr, sehr viele kleine Updates, wo dann Entwickler an einem Teilsystem arbeiten, welches irgendwie in den Suchergebnissen nicht bei ist. Das können manchmal sehr kleine Sachen sein, dass da jemand vielleicht daran arbeitet, ein Datumsformat besser zu erkennen auf einer Seite, damit wir das entsprechend auch sauber verarbeiten können. Oder dass da vielleicht einige Pixels hin und her geschoben werden in den Suchergebnissen. In der Regel ist es so, dass all diese kleinen Veränderungen werden zuerst mit A-B-Tests quasi kontrolliert, ob das wirklich auch Sinn macht, ob das wirklich weg erfüllt vor diesen Veränderungen und dann werden die freigeschaltet. Die meisten dieser Tests, die wir machen, werden die, glaube ich, groß freigeschaltet. Ich weiß nicht, was die aktuellen Zahlen sind. Ich glaube, wir haben das irgendwo auf einer Webseite. Aber Größenordnung sind das Zehntausende von Tests, die wir machen und Größenordnung, Tausende Updates, die dann effektiv freigeschaltet werden. Das mal die eine Sache, bezüglich der Core Updates, ist es so, dass diese in der Regel innerhalb von ein paar Tagen bis zum maximal einer Woche brauchen, bis sie wirklich voll ausgerollt sind und bis sie dann auch wirklich voll eigentlich stabil laufen. Manchmal ist es so, dass die in einzelnen Datacenters zuerst kommen und dann von dort aus quasi sich weiter verteilen. Es muss sein, dass man geografisch, je nachdem, wo man gerade ist, dass man das update ein bisschen früher sieht als anderer oder nicht. Oft ist es aber so, dass es einfach gesamthaft ausgerollt wird. Man geht es einfach Schritt für Schritt bis alle Suchergebnisse sauber mit dem neuen Algorithmus arbeiten. Dann noch eine Frage zu Tischflacken. Bei uns gibt es zwei relevante Seiten für Italien-Flacke die Hauptübersichtseite mit allen Produkten und eine Top-Sellergröße die fast immer gekauft wird. Wie würde es zuvor gehen, damit beide Seiten ranken? Gute Frage. Was ich mir da überlegen würde, ist wie sie in den Suchergebnissen erscheinen sollen. Das heißt, für welche Suchanfragen ist die eine Seite oder die andere relevant und wie kann ich das sicher mal stellen, dass wenn Googlebot diese Seiten anschaut, dass es wirklich klar ist, welche Seite für welche Suchanfrage geeignet ist. Wenn du die Suchanfrage nicht sauber unterscheiden kannst, dass du sagst, für Italien-Flacke könnte die eine oder die andere kommen, das ist mir eigentlich auch egal, dann kann man sich auch überlegen, ob man vielleicht nicht besser komprimierte Seite macht, statt zwei unterschiedlichen Seiten. Mit einer Seite hat man ein bisschen Vorteil, dass sich die Signale dann ein bisschen konzentrieren lassen, dass die ein bisschen besser für die allgemeineren Suchbegriffe erscheinen kann. Allerdings ist sie dann auch weniger ausgerichtet auf unterschiedliche Bedürfnisse. Das heißt, wenn du wirklich siehst, dass bestimmte Suchanfragen wirklich nur auf diese Variante der Seite kommen und nur mit einer anderen Variante auf die andere Seite kommen, dann lässt sich manchmal das nicht so einfach kombinieren, dass man sagt, wir machen eine Seite für das. Wenn ich zum Beispiel Luxusflakken habe und irgendwelche Billigflakken habe, dann mache ich dann nicht eine Seite, wo ich Luxusflakken und Billigflakken vermische, sondern das sind ja sehr unterschiedliche Bedürfnisse und dann würde ich die wahrscheinlich auch mit unterschiedlichen Seiten versuchen, abzufangen in den Suchergebnissen. Wie das jetzt bei dir im Fall ist, weiß ich nicht, ob sich das so gut unterscheiden lässt oder nicht. Das würde ich einfach mal schauen, welche Suchbegriffe da hineinkommen. In Search Console sieht man das ja einigermaßen und überlegen, ob du das, wenn du das manuell anschaust, ob du das klar unterscheiden kannst und wie du dann die Seiten so gestalten kannst, dass es wirklich für alle ganz klar ist, dass für diese Art von Sucheinfrage ist diese Seite wirklich die beste und für die andere Art von Sucheinfrage ist die andere Seite wirklich die beste. Du ja so, es geht alles ja immer auf kaufen, also Flagge kaufen, es ist immer alles das Gleiche. Auf dem Handy, auf dem Smartphone ist es so, dass da zum Beispiel die Bilder vorschauen also der Kunde gibt ein, die Teilenflagge kaufen, die Kategorie Seite kommt und der, ich sage jetzt mal direkt der Kunde, der kann schon mal durchskrollen und sehen, was es dort für Flaggen gibt. Das ist zum Beispiel super. Jetzt gibt es aber auf dem Desktop auch diese Side Links, kann man denn diese Side Links irgendwie erzwingen? Also geht das? Also es wäre zum Beispiel super, wenn jetzt die Teilenflagge kaufen, die Kategorie Seite käme und darunter dann die Größen als Side Link, also so wie es eigentlich auf dem Smartphone passiert. Aber jetzt nur in der Bilder vorschaut. Es geht zwar auf die gleiche Seite, aber dass man da so ein Titel Google geben kann, weil viele haben das ja auch zum Beispiel Luxus-Uren kaufen und dann kommt als Side Link da, ich kenne mich jetzt nicht aus, da kommen die Marken zum Beispiel. Die Side Links sind aus unserer Sicht normale Suchergebnisse, das heißt man kann die nicht gezielt steuern an und ausschalten. Was man vielleicht machen kann, ist einfach schauen, dass die interne Verlinkung sauber in die Richtung auch geht. Das wirklich von dieser halbgemeineren Seite, dass wirklich die interne Verlinkung sauber auf die Unterseiten entsprechend verweist. Also wenn das jetzt Unterseiten sind oder halt die andere Variante, so dass wir dann auch wirklich den Zusammenhang klar erkennen können. Wenn gegen diese beiden Seiten wirklich die selbstständige Seiten innerhalb der Website vorhanden sind und nur von oben hinunter quasi verlinkt sind, dann ist es schwierig für uns zu sagen, dass diese Seite mit der anderen Verwandt ist. Wenn sie wirklich intern untereinander sauber verlinkt sind, dann können wir dann eher sagen, ja diese Seite ist irgendwie mit dieser anderen Verwandt. Ist ja auch die sauber Verlinkung da und dann sehen wir auch vom Link Anchor Text vielleicht etwas aus und dann können wir das noch einmal eine Frage zu diesem Thema Keyword Stuffing Man kann ja in der gecached Version nur Text aufrufen und dann sieht man ja die Sachen, die jetzt als Text vorkommen, nur der Anchor Text und Image All Text ist das dann das was verarbeitet wird von Google auch? Oder macht ihr trotzdem nochmal irgendwie Kommentare oder sonst irgendwas was noch dazukommt ist alles was per JavaScript nachgeladen wird. Aber ich vermute wenn man jetzt nicht mehr eine JavaScript basierte Website hat dann ist die gecached Version mit der nur Text Variante ist schon ein relativ gutes Zeichen für das, was wir für die Indexierung verwenden. Das ist noch ein guter Tipp den muss ich mir merken, weil das ich denke damit kann man gerade bei nicht JavaScript Websites kann man das ein bisschen einfacher kontrollieren als wenn man im Quelltext nach diesen Wörtern sucht. Genau, das ist gut. Und wie ist das wenn jetzt 100 mal in den Warenkorb drinsteht also es geht ja beim Keyword Stuffing geht es dann nur um die Suchanfrage selbst oder geht es, ja okay also wenn jetzt fremde Sachen drin vorkommen in den Warenkorb oder Details anzeigen das ist kein Keyword Stuffing Das ist kein Problem, weil du versuchst ja nicht für Warenkorb zu ranken. Okay, ja, na klar das ist wer, ja okay Vielleicht wäre das seine Variante aber das sind dann sehr ja ich weiß nicht ob die gut konverten die Benutzer die nach Warenkorb suchen. Ja, okay, alles klar, Dankeschön. Okay, da habe ich noch eine Frage die gerade noch eingereicht worden ist. Ich frage mich wie wichtig eine Paginierung für euch ist wenn ich euch alle relevanten Seiten per Sitemap oder Atomfield rüberschicke, braucht ihr dann noch die Paginierung oder wäre eine userfreundliche Lazy Loading Variante geschickter, wir haben ca. 70.000 Formseiten mit weiteren Posteinträgen die mit Qualitätsfilter ebenfalls gepraut werden sollten benötigt die Paginierung zwingend etwas wie Page 2 wenn wir User-Tests durchführen wollen wie sollten wir das am besten durchführen ohne Cloaking Gefahr Ach, der berate Fragen, okay Also wegen der Paginierung, das heißt wahrscheinlich eher Richtung Allgemeinrichtung interner Verlinkung im Vergleich zu Sitemap oder Atomfeed Aus unserer Sicht ist eine interne Verlinkung sehr hilfreich das heißt wenn wir die internen Link sehen dann können wir da auch die Signale sauber weitergeben von einer Seite zu anderen mit der Sitemap-Datei sehen wir einfach einzelne URLs und können die dann auch crawlen und indexieren aber wir können die Hand für sich nur ohne Zusammenhang indexieren, das heißt wir wissen nicht wie passt das in das Gesamtbild von eurer Website und von dem her helfen Sitemap und Atomfeed auf jeden Fall neue URLs schnell zu finden wir können dann die Inhalte schon mal indexieren wir wissen noch nicht wie das Gesamtbild zusammenpasst aber wir haben schon mal die Inhalte und können die unter Umständen auch zeigen gerade bei geänderten Seiten sehen wir über die Sitemap das natürlich noch viel schneller, das sehen wir mit dem Änderungsdatum dass diese Seiten haben sich verändert das heißt wir müssen nicht erstmal dort hin crawlen und dann auf natürlichen Weg merken diese Seite ist jetzt ein bisschen anders als letzte Mal das heißt von dem her die Sitemap-Datei und Atomfeed, je nachdem wie man das eingesetzt hat würde ich auf jeden Fall machen gerade bei einer größeren Website aber das ersetzt keine interne Verlinkung bei interne Verlinkung bei der Paginierung ist es für mich immer ein bisschen eine Frage was das Ziel davon ist wenn das wie bei einer Forung darum geht wirklich die Inhalte überhaupt darzustellen dann finde ich es schon wichtig dass wir die Paginierung crawlen können wenn hingegen das wie bei einem eCommerce Shop ist dass die Paginierung nur dazu dient dass man innerhalb von gewissen Kategorien einfach weitere Produktlinks finden dann ist es oft weniger kritisch weil wir die Produktlinks ja auf viele verschiedene Wege finden können die Produkte in unterschiedlichen Kategorien oft sind die Produkte untereinander auch verlängst das heißt man hat verwandte Produkte die sind dann irgendwie so quer verlängt und so finden wir auf jeden Fall die Produktdetailpages irgendwie und wenn wir die irgendwie finden durch den normalen Crawl dann ist es eigentlich gut genug für uns das heißt die Paginierung und die Filtrierung oder wie man das halt sagen würde auf Deutsch bei Kategorienzeiten ist oft weniger kritisch ich sage mal oft weil das nicht bei allen Websites immer gleich ist bei den Urals die man für die Paginierung verwendet ist es eigentlich total egal wie ihr die gestalten wollt das heißt wenn der Page gleich 2 dabei steht und das hilft euch oder es klappt mit eurem CMS ist es okay wenn ihr mit Buchstaben arbeitet oder einfach ganz andere Urals habt ist das aus unserer Sicht eigentlich auch okay wir gehen nicht durch und versuchen Urals zu erfinden um zu schauen ob da noch weitere Seiten vorhanden sind bezüglich User Tests ist es so dass aus unserer Sicht was sehr was wir eigentlich möchten ist dass Googlebot nicht als etwas Fremdes anschaut das heißt dass Googlebot dann auch bei diesen Tests irgendwie dabei ist und meistens bedeutet das dass Googlebot irgendwie halt in der A, B Variante noch dabei ist und dementsprechend würde ich vorschlagen dass man einfach diesen User Test auf einen bestimmten Dauer begrenzt das heißt, dass man sagt ich teste das jetzt über den Lauf von einem Monat die A und B Variante sind relativ ähnlich die erfüllen die selben Zwecke und nach einem Monat wählen wir dann einen von diesen Varianten und führen die entsprechend weiter das Ziel davon ist dass ihr nicht in eine Situation kommt wo Googlebot eine Version sieht und Benutzer sehen eine ganz andere Version und das kann man eigentlich relativ gut abfangen wenn man sagt, gut, wir machen das einfach für eine begrenzte Zeit und dann sind wir sicher, dass wir nicht ausversehen in dieses Problem hineinfragen ok haben wir alle Fragen mal geschafft könnte ich noch mal was fragen zum Thema Keyword Stuffing Nikos wie würdest du das denn machen wenn man jetzt für Croatium Flagge 120 Artikel hat und man will Renten für Croatium Flagge und die Artikel heißen Croatium Tisch Flagge Croatium Boots Flagge Croatium Croatium man hat halt unheimlich viel Croatium auf der Seite wie würdest du denn da vorgehen einfach jetzt die Anzahl Produkte reduzieren oder eher einen anderen Weg gehen zum Beispiel einfach Croatium weglassen weil die Seite ist ja über Croatium und dann einfach nur die Konfektionen verlängten ich denke beides kann man machen ich vermute dass es auch bei dir jetzt nicht kritisch ist wenn du einigermaßen normalen Suchergebnissen dabei bist was ich einfach machen würde in einem solchen Fall ist das einfach mal testen dass du vielleicht irgendwie zwei, drei Varianten mal nimmst zum testen und das ausprobierst mit Seiten die einigermaßen Trafik aus der Suche bekommen das heißt dass du da irgendwie das messen kannst und dann würde ich das einfach mal ausprobieren einmal mit Croatium weglassen, einmal mit Anzahl Produkte pro Seite ein bisschen begrenzen und dann siehst du relativ schnell wo geht's hoch, wo geht's runter und ich vermute die Veränderungen werden relativ klein sein aber vielleicht siehst du dass es bei dir ein oder anderen Varianten wirklich messbare Unterschiede gibt wenn es keine messbaren Unterschiede gibt dann war's auch mal ein Test wert aber hat dann auch keine große Veränderungen die auf deiner Seite stattgefunden haben wenn man sich die Gesamtheit natürlich dann anguckt man hat dann nicht 256 Länder und alle 256 Seiten sind irgendwie voll mit diesen Namen und überall steht Flagge dann ist doch eigentlich allgemein irgendwie schon so ein bisschen eigenartig oder würdest du sagen nein, das ist jetzt nicht so der Punkt wo Google drauf guckt also ich denke wenn du einigermaßen in den Suchergebnissen dabei bist dann ist das nicht kritisch aber das lässt sich vielleicht optimieren dass man das ein bisschen besser konzentrieren kann ich würde es einfach mal ausprobieren dass ich denke es ist jetzt nicht so dass du unbedingt springen musst und das alles umstellen musst sondern es sind mal Optimierungsvarianten dann kann man es mal ausprobieren okay, alles klar, Dankeschön okay ich kopiere mir mal die Beispiel URLs raus zeitlich haben wir doch keine Zeit gehabt da alles anzuschauen aber das nächste mal dass wir anschauen dann bedanke ich mich erst mal bei euch allen für die vielen Fragen und ich hoffe dass wenn ihr in Deutschland seid dass ihr weiterhin einen schönen Feiertag habt und vielleicht sehen wir uns in einem der nächsten Hangouts wieder tschüss allerseits tschüss tschüss tschüss