 Okay, herzlich willkommen zum heutigen Webmaster-Sprechstunden-Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trans Analyst bei Google in der Schweiz und Teil von dem, was wir machen, sind diese Webmaster-Hangouts. Sind schon einige Fragen eingereicht worden über YouTube, aber wenn ihr wollt, könnt ihr gerne loslegen mit Fragen von euch erst einmal, wenn ihr wollt, springt niemand los. Dann fangen wir mal an mit den Fragen, die so eingereicht worden sind. Wenn ihr zwischen euch Kommentare oder Fragen habt, einfach nur loslegen. Okay, dann fangen wir mal an mit zwei Fragen. Wie geht Google mit internen Links um, die auf einer Übersichtseite doppelt, nämlich mal als Bildlink und mal als Textlink eingebunden sind? Wie steuert man den Link-Juice in solchen Fällen effektiv? Gute Frage, wir sehen an für sich beide dieser Links. Das heißt, wir sehen einerseits die Bilder, die verlinkt sind und andererseits auch die Texte, die da so verlinkt sind. Und für die Linksintern zum Weiterverfolgen ist es so, dass wir einfach die Links hauptsächlich brauchen, dass wir die einfach die anderen Seiten finden. Für den Anchor Text, den wir verwenden, ist ja beim Bild normalerweise nichts direkt verbunden. Also nehmen wir dann einfach den Textlink, den wir da gefunden haben. Wenn ihr beim Bild noch Alt-Attribute eingebunden habt, dann können wir die natürlich auch nehmen als Anchor für diese Links. Wie soll man interne Footer Links am besten aussteuern, damit der Link-Juice optimal verteilt wird? Intern nofollow zu verwenden macht keinen Sinn, aber da Seiten wie Impression immer verlinkt werden müssen, fließt dort natürlich auch Link-Juice von jeder Seite ab. Gibt es eine Möglichkeit, diesen Links keine Links-Juice zu vererben und Google zu zeigen, welches die wirklich relevanten internen Links sind? Wir empfehlen anfühle ich, dass man da nichts Spezielles macht, sondern dass man da eigentlich das ganz normal natürlich verlinkt intern. Wir können eigentlich sehr gut mit solchen Links umgehen, die zum Beispiel zum Impression führen, die zu eigentlich Terms of Service oder sonstigen Richtlinien führen, können wir eigentlich relativ gut umgehen. Und das ist nicht so, dass man da irgendwas verliert, wenn man eine natürliche Linkstruktur innerhalb der Webseite hat. Von dem her würde ich eigentlich empfehlen, solche Sachen ganz normal zu verlinken, also nicht unbedingt mit nofollow, nicht, dass man die irgendwie verstecken muss, sondern ganz normal als normale Links anzuschauen und die normal zu verlinken. Es ist ja auch in der Regel so, dass wenn jemand nach normalen Inhalten sucht, nach irgendwelchen Produkten von euch, dann habt ihr ihr Produkte Seiten, die für diese Suchanfragen ranken kann. Dann ist es ja nicht so, dass wir dann auszusehen, dass Impressum zeigen würden, wenn jemand nach einem von euren Produkten sucht, sondern die sind hand für sich ganz normal verlinkt. Und da muss man nicht spezielles machen. Da noch eine Verständnisfrage. Stell dir vor, es gibt einen richtig bösartigen Typen, der kauft sich einen Domain, setzt auf diese Domain viele schmutzige Backlinks und leitet diese dann per 301 zu jemandem um, den er nicht mag. Kann man so einen Mitbewerberschaden, der Mitbewerber hat so gesehen keine Chance zu erkennen, dass da irgendwas passiert. An und für sich sind wir da recht gut erkennen von solchen Situationen und ignorieren die eigentlich. Das heißt, in der Regel ist es ja ziemlich einfach zu erkennen, die Situation, dass man auf einmal da ein neuer Domain dabei ist und dass er auf einmal weitergeleitet wird auf einem bestehenden Domain und das macht aus unserer Sicht eigentlich verursacht. Keine Probleme, wir ignorieren an und für sich solche Links und speziell muss man da eigentlich nichts machen. Wenn man will, kann man mit der Disservow-Datei arbeiten. Ich würde sagen, in der Regel muss man da nichts machen, weil das sind so Standortsachen, die werden seit 10 Jahren probiert und haben eigentlich in der Regel keine Fakt. Ich nehme an, das ist bei allen Suchmaschinen so, dass solche Sachen längst bekannt sind und dass man da eigentlich nicht irgendwie einen Schaden anrichten kann oder auch nicht im Vorteil davon hat, wenn man das so macht. Eine gleiche Build-Ural wird einmal laut der neuen Search Console durch die Robots Text blockiert und einmal in der alten Search Console zugelassen. Handelt es sich hier um ein Bug? Ja und nein. Es ist so in der neuen Search Console in Inspekt-Ural-Tool ist es so, dass dieses Tool nur für normale Webseiten gedacht ist. Das heißt, normale HTML-Seiten, die man als normale Webseiten indexiert haben möchte. Und wenn man andere Dateien dort einreicht oder versucht zu testen mit dem Tool, dann werden die als blockiert angesehen. Das heißt, einerseits sind das Bilder, dann auch JavaScript-Dateien, CSS-Dateien, solche Sachen, die eigentlich nicht normal indexiert werden müssen. Die werden für sich intern blockiert, damit sie auch gar nicht erst in der Websuche normal erscheinen. Und dementsprechend auch in diesem Tool, wo ja die Websuche emulliert werden, werden die auch als blockiert dargestellt. Das heißt, Inspekt-Ural-Tool steht dann unter Umständen blockiert durch Robots Text zum Beispiel. Und eigentlich ist es normale Bilddatei, die nicht per Robots Text blockiert ist, aber es ist halt blockiert für die Websuche. Es ist nicht allgemein blockiert, sondern wirklich nur für die Websuche. Das heißt, ich sehe das ein bisschen als Burg an, dass es verwirrend ist, dass es nicht klarer in der UI ist. Aber an und für sich ist das aus unserer Sicht so gewollt, dass man da diese Sachen als blockiert anschaut, einfach damit sie nicht auszusehen in der Websuche erscheinen. Gibt es Pläne, dass in Zukunft in der Search Console auch Informationen über Bilder angezeigt werden, wie es bereits zum Beispiel für Nutzerfreundlichkeit auf Mobile oder Logos der Fall ist? Das ist eine gute Frage. Ich weiß nicht, ob da speziell etwas geplant ist für Bilder in der neuen Search Console. Ich weiß, dass die Bildersuche für uns echt wichtig ist. In dem Entsprechenden versuchen wir, das so weit man es auch irgendwie interessant zu machen. Von daher könnte ich mir vorstellen, dass vielleicht einmal ein bisschen mehr Information über Bilder kommt in Search Console, aber mir nicht da eigentlich nicht spezielles bekannt. Bei einem News Publisher werden die Artikel über mehrere Seiten veröffentlicht. Insofern entsteht duplicate Content zwischen all diesen Domains, die diesem Publisher Unternehmen gehören. Dazu hat jeder duplizierte Artikel einen Canonical Attack auf sich selbst. Wie entscheidet hier Google, welche Domain ranken soll? Ist es grundsätzlich schädlich für die Rankings allgemein, dass man den selben Artikel über mehrere Domains veröffentlicht? An und für sich passieren da zwei Sachen in einer solchen Situation. Das heißt, wir crawlen erst mal diese verschiedenen Artikel. Wir sehen, dass die Seiten insgesamt unterschiedlich sind. Das heißt, wenn jetzt ein Artikel bei verschiedenen Nachrichten Websites zum Beispiel veröffentlicht wird, dann sind die Seiten ja unterschiedlich. Da sind das unterschiedliche Nachrichten Websites, die den gleichen Artikel haben. Das HTML der Seite ist unterschiedlich. Der Hauptinhalt ist aber ähnlich oder vielleicht sogar gleich. Und was dann passiert, ist wir indexieren. Erst mal diese verschiedenen Versionen, weil wir sehen, dass die unterschiedliche HTML-Zeiten sind. Und dann in der Suche, wenn jemand nach diesen Informationen innerhalb vom Artikel sucht, dann sehen wir relativ schnell, dass es ja die gleichen Inhalte wären. Also suchen wir eins diese Seiten aus und zeigen die dann in den Suchergebnissen. Die Wahl der Seite hängt von verschiedenen Faktoren ab. Manchmal ist es schwierig zu erraten, im Voraus, welche Seite dargestellt wird. Aber was natürlich passieren kann, ist, wenn jemand gezielt nach einer Variante sucht. Das heißt, wenn jetzt mal eine Sportnachrichten bei einer Fahrradwebsite und bei einem Läuferwebsite veröffentlicht wird und wir sehen in der Suchernfrage, sucht jemand eher nach Fahrradinformation zu diesem Artikel, dann nehmen wir vielleicht eher die Fahrradwebsite als die Läuferwebsite. Das passiert aber natürlich nicht immer, dass jemand gezielt so genau mit weiteren Informationen sucht. Das heißt, in der Regel zeigen wir einfach einen von diesen beiden an in den Suchergebnissen und blenden den anderen aus. Für das Ranking ist es insofern nicht optimal, weil einerseits müssen wir all diese Varianten ständig neu crawlen und neu indexieren. Wir schauen die Seite ja nicht nur einmal an, sondern versuchen, die mehrmals anzuschauen, regelmäßig aktualisieren. Das passiert einerseits. Andererseits ranken diese Seiten für sich selber. Das heißt, jedes dieser Variante könnte in den Suchergebnissen erscheinen und hat die ganzen Ranking-Signale für sich und die andere Variante hat eigene Ranking-Signale. Und dementsprechend gibt es wie eine Art Konkurrenz zwischen diesen Varianten. Die optimale Situation wäre, wenn man in solchen Fällen einfach mit dem Canonical-Tag arbeitet und dass man eines dieser Seiten als Canonical aussucht. Anfüßig ist es egal, welches ihr nehmt, sondern ihr sagt einfach, das ist jetzt meine Hauptversion für diesen Artikel. Und was wir dann machen können, ist wir konzentrieren dann alle Ranking-Signale auf dieses Artikel und zeigen dann das entsprechend ein bisschen besser in den Suchergebnissen, weil das sind dann einfach mehrere Signale, alles ist ein bisschen konzentriert. Wir sehen, dass das wirklich eine sehr relevante Seite ist zu diesem Thema und können die dann auch ein bisschen höher in den Suchergebnissen zeigen. Das heißt vom Ranking her wäre es sicher optimal, wenn man mit dem Canonical das ganze ein bisschen konzentriert, statt dass man die einzelnen Versionen für sich stehen lässt. Und da würde ich schon sagen, dass man da eher einen Vorteil hat in der Suche, wenn man das so machen würde. Laut einer Studie wird Voice Search immer wichtiger und könnte im Jahr 2030 bereits 37 Prozent des Umsatzes in e-Commerce ausmachen. Gibt es eine Möglichkeit in Analytics oder in der Search Console herauszufinden, wie viele Leute bereits jetzt per Voice Search auf unsere Website landen oder müssen wir uns mit der Annahme begnügen, dass längere Keywords sehr wahrscheinlich per Voice eingereicht wurden? Gute Frage. Ich denke, dass das kommt immer mehr, gerade weil diese Studien immer häufiger kommen. Wie weit das wirklich für euch relevant ist, ist schwer zu sagen, weil viele von diesen Studien über Voice Search schauen natürlich alles Mögliche an, was über Voice gemacht wird. Das sind Sachen wie Schalte das Licht an oder Spiele dieses Lied auf Spotify oder was auch immer. All diese Sachen sind natürlich auch Voice-Anfragen, die kommen. Aber das sind für sich nicht Sachen, die speziell mit einer Website verbunden sind oder zumindest in den meisten Fällen. Das heißt, man sieht sehr schnell, dass es viele Leute gibt, die die Voice-Suchen machen. Aber das heißt nicht unbedingt, dass das Voice-Anfragen wären, die zu eurer Website führen oder dass ihr da speziell etwas anders machen müsst mit eurer Website für diese Voice-Such-Anfragen. In Search Console ist es im Moment so, dass die Voice-Suchen-Anfragen, die, sag ich mal, über Voice als Art-Tastatur für die Suche kommen, die sind dort vorhanden, aber die sind nicht separat verfügbar. Das heißt, wenn ich auf dem Handy das Mikrofon-Symbol anklicke und dann meine Suchanfrage mache und eine Suchseite bekomme, dann ist das aus unserer Sicht eine normale Suche. Dann ist das nicht irgendwie spezielle Art zu suchen, sondern wirklich mit dem gleichen Such-App und einfach eine andere Art, die Suchanfrage einzugeben. Deswegen wird das aus unserer Sicht dann nicht separat dargestellt. Anders ist es, wenn man direkt über Google Assistant geht oder über ein Google Home-Gerät geht und eine Frage stellt und dann kommt das Antwort laut dieser Website, ist das und das die Antwort und dann vielleicht wird noch ein Link auf das Handy geschickt, dass man die Seite selber anschauen kann. Diese Anfragen gehen über Assistant direkt und die sind im Moment nicht in Search Console verfügbar. Ich weiß nicht, wie sich das ändern wird im Laufe der Zeit. Ich vermute, dass das irgendwann mal kommen wird. Ich denke, das hängt ein bisschen mit zusammen, wie oft solche Suchanfragen gemacht werden und wie weit das für Webmaster wirklich interessant sein könnte. Aus meiner Sicht würde ich sagen, dass man sich auch selber vielleicht mal diese verschiedenen Assistant-Devices mal zulegt, einfach damit man das ein bisschen auch ausprobieren kann. Weil das ist etwas, was ich zumindest gemerkt habe, dass gerade bei Voice sind sehr viele Ideen davorhanden, wie sich das verändern könnte, aber sehr wenig im Verhältnisperson dieses wirklich auch mal ausprobiert haben, sich überlegt haben, ja, wie könnte das überhaupt gehen mit meiner Website und Voice? Es ist nicht so etwas Wages, dass auf einmal Traffic zur Website kommt und das geht alles über Voice, sondern man muss sich wirklich mal überlegen, ja, wie würde jemand überhaupt per Voice den Weg zu meiner Website finden und ein Produkt kaufen können? Es würde ja nicht jemand kommen und sagen, ich gehe auf diese Website mit dieser URL und dann suche dieses Produkt in dieser Variante aus und bestelle das, so dass ich das übermorgen habe. Sondern das ist schwierig manchmal mit diesen Geräten umzugehen und da wirklich auch das herauszuholen, was man so haben will. Und da würde ich da vielleicht ein bisschen das Ganze mal kritischer anschauen und überlegen, wie man da wirklich mitmachen könnte oder wie man vielleicht etwas andausmachen könnte, dass dann trotzdem auf Voice funktionieren würde oder wie, was müsste man überhaupt umgestalten auf der eigenen Website, damit das besser geht mit Voice? Und ich denke, da sind noch sehr viele schwierige Fragen, die geklärt werden müssen und für den normalen Benutzer gibt es noch einen langen Weg, bis man da sagen kann, dass E-Commerce oder für Websites insgesamt, dass man da speziell etwas machen kann und dass man da genau weiß, was man machen kann, sondern das gibt noch, denke ich, schon noch eine längere Zeit, wo einfach sehr viel experimentiert wird. Werden die Impressionen von Google News Oneboxen ebenfalls in such Console mitgezählt? Ich habe das kurz mit dem Team vorher mal angeschaut und bei Google News ist es ja so, dass man die spezielle Google News Oberfläche hat und dass manchmal News-Ergebnisse in den Suchergebnissen auch eingeblendet werden. Die Sachen, die in der normalen Google News-Umgebung dargestellt werden, die sind nicht in such Console, aber alles, was in der normalen Such, sozusagen mal Google Websuche-Website dargestellt werden, das wird über such Console gezählt. Das heißt, wenn ich in den normalen Suchergebnissen oben irgendwie ein Onebox habe mit verschiedenen News-Seiten, das wird gezählt. Wenn man speziell auf diese News-Funktion in der Suche geht, das wird dann nicht gezählt. Und von der Position und von den Impressionen ist es so, dass wir da ein Hilferartikel haben, welches ziemlich genau in die Details geht, wie was gezählt wird. Das heißt, wenn ich jetzt im Karussell bin, oben wie wird das gezählt, ab wann wird das gezählt, muss ich da irgendwie die Seite quasi sichtbar haben im Blickfeld oder nicht. Das ist alles relativ detailliert in diesem Hilferartikel dargestellt. Ich kenne ein Website, die auf der Startseite beim initialen Besuch der Seite ein riesiges MP4-Video automatisch abspielt mit lauter Musik. Inhaltlich ist es schon relevant, da das Video auf das Unternehmen selbst eingeht, aus User-Sicht ist das Ganze jedoch ziemlich nervend. Auf Mobile startet das Video übrigens nicht selbstständig. Gibt es hier eine konkrete Empfehlung, wie man mit automatisch startenden Videos umgehen sollte? Aus Sicht der Websuche haben wir da eigentlich nicht spezielle Empfehlungen. Das heißt, man kann das machen, wie man will. Es gibt sicher viele, denen das nervt, wie jetzt hier bei dieser Frage. Vielleicht gibt es Situationen, wo es Sinn macht, wie man das so macht. Ich vermute, gerade mit Musik, mit Audio dabei ist das natürlich ein bisschen nervig, wenn es automatisch losgeht und man das nicht erwartet. Und dementsprechend ist es so, dass man vielleicht indirekt irgendwelche Veränderungen hat in der Suche, die man dann da sieht. Das heißt, wenn man benutzer natürlich abschreckt, die eigene Website anzuschauen, dann wird es vielleicht auch so sein, dass sie entsprechend weniger zur Website verlinken. Also, dass sie die weniger weiter empfehlen. Und das sind dann einfach indirekte Sachen, die wir vielleicht aufrufen können. Aber direkt in der Suche ist es nicht so, dass wir da automatisch startende Videos mit Audio als negative Signal sehen würden. Aber was natürlich passieren kann, was manchmal auch dabei kommt, aus der Webmaster-Sicht ist, dass wenn wir erkennen können, dass ein Video eine große Rolle spielt auf einer Seite, dann zeigen wir das oft mit einem Video-Thumbnail in den Suchergebnissen. Das heißt, wir haben dann das Bild nebendran mit dem Play-Symbol, damit benutzer, wenn sie auf diesen Suchergebnissen gehen, dass sie da relativ früh schon wissen, dass auch ein Video dabei ist. Einerseits ist das für Besucher natürlich interessant. Für Webmaster kann das auch interessant sein. Es gibt aber auch Situationen, wo Webmaster sagen, das möchte ich nicht haben. Wenn ich zum Beispiel eine Firmen-Informations-Seite habe und daneben ein Thumbnail mit einem Video, dann könnte das so aussehen, als ob das wie eine Videoseite ist und nicht eigentlich eine Firmen-Informations-Seite. Und da gibt es dann manchmal auch Situationen vom Webmaster-Hörer, dass man sagt, ich nehme lieber das Video weg, damit ich diesen Video-Thumbnail nicht habe. Oder ich finde das toll mit dem Video-Thumbnail, weil dann Besucher relativ schnell schon sehen, was präsentiert wird. Und das ist dann eher, sag ich mal, eine direktere Entscheidung, die der Webmaster treffen kann, möchte ich ein Video-Thumbnail oder möchte ich eins haben. Zwei strategische Fragen für einen Kunden aus dem Medizinbereich, der seit dem App-Medic-Updates kontinuierlich an Sichtbarkeit verloren hat. Der Kunde hat Praxen an sieben verschiedenen Standorten. Jeder Standort hat seine eigene Website und diese sind untereinander verlinkt. Macht es mittelfristig Sinn, diese Website so weiterzuführen oder wäre es zum Fehlen, eine eigene Brand-Seite aufzubauen, die dann aus ERT-Sicht, also wie übersetzt man das auf Deutsch, Expertise, Authority, Trustworthiness durch den Brand dann Vorteile hätte und der gesamte Content an einem Ort konzentriert und dadurch ausführlicher aufgebaut werden könnte. Ich würde vermuten, dass es insgesamt, gerade für diese ERT-Signale, macht das vielleicht ein bisschen Sinn, dass man das ein bisschen konzentriert. Aber wahrscheinlich ist das eher nebensächlich. Ich könnte mir vorstellen, dass es insgesamt aus SEO-Sicht aber Sinn machen würde, dass man eine starke Website hat, statt dass man verschiedene, einzelne, kleinere Websites hat. Ich weiß jetzt nicht, wie viele dieser Filialen da sind. Sieben steht. Bei sieben Filialen könnte ich mir vorstellen, dass sie uns separat führt. Wenn man viel mehr hat, dann ist es irgendwie fast so, dass man die ganzen Inhalte ein bisschen verdünnt und dass die einzelnen Websites dann nicht mehr so stark sind, wie sie eigentlich sein könnten. Da könnte ich mir schon vorstellen, dass es Sinn machen würde, dass man das Ganze konzentriert und sagt, das ist jetzt unsere Hauptfirmen-Website und wir haben Standorte in diesen verschiedenen Punkten. Das heißt, dass man an und für sich gemeinsam aufbaut. Das heißt nicht, dass jeder dieser sieben Standorte, Information-Bereiche für diese medizinischen Techniken, die da ausgeführt werden, aufbauen muss oder Hintergrundinformationen aufbauen muss, sondern es man wirklich eine starke Website hat, die all diese Informationen hat, die dann auch an und für sich in den Suchergebnissen relativ stark präsent sein kann, die es auf dieser Website ist. Und dementsprechend könnte mir schon vorstellen, dass es Sinn macht, dass man das ein bisschen konzentriert, statt dass man das so aufteilt. Ich denke, gerade bei sieben ist es vielleicht ein bisschen an der Grenze, dass man sagt, sieben Websites könnte man noch einigermaßen aufbauen. Sieben ist auch schon relativ viel, aber gerade wenn man auch vorhat, dass man das weiter aufbaut, würde ich auf jeden Fall empfehlen, dass man hierher in eine starke einzelne Website aufbaut, statt dass man noch mehr weitere Filialen aufbaut. Die Seiten haben grundsätzlich dasselbe Design und denselben Code im Grundaufbau. Siehst du hierbei aus SEO-Sicht ein Nachteil für die Bewertung der Seiten oder hat die Ähnlichkeit des Codes keine größere Auswirkungen auf die Rankings. Die Ähnlichkeit vom Code hat eigentlich keine größeren Werte. Wie gesagt, es ist einfach so, dass wenn man diese Inhalte dupliziert und auf verschiedenen Websites bringt, dann ist es wie, dass man die Signale auch ein bisschen verdünnt und dass die einzelne Version dann nicht so stark in den Suchergebnissen erscheint, wie das vielleicht sein würde, wenn man jetzt wirklich eine starke eigene Website hättest im Vergleich zu diesen sieben einzelnen, die da wäre. Ich möchte eine Website in den Ländern gut in den Suchergebnissen gefunden werden. Sollten wir die entsprechenden Tableable Domains benutzen, also Exempel DE oder CoUK FR oder macht eine PLDB.com und Unterverzeichnisse für DE ENFR mehr Sinn. Aus unserer Sicht kann man das mit beiden machen. Das heißt, man könnte auch mit Subdomains arbeiten für sich. Es ist so, dass wir für Geotargeting bei länderspezifischen Top-Level-Domains machen wir das Geotargeting selber und es ist so, dass man das selber nicht ändern kann. Das heißt, wenn ich einen Punkt DE-Domain habe, dann ist es automatisch aus unserer Sicht für Deutschland per Geotargeting eingerichtet. Ihr müsst da nichts machen, ihr könnt dann nicht sagen mein DE-Domain soll auf, sage ich mal, Irland ausgerichtet werden, sondern ihr seid automatisch für Deutschland eingereicht. Mit einem generischen Top-Level-Domain könnt ihr das selber einstellen. Einerseits mit den Unterverzeichnissen, andererseits mit Subdomains, wie gesagt, könnt ihr eigentlich mit beiden machen. Wenn ihr mit Unterverzeichnissen arbeitet, dann habt ihr wieder ein bisschen mehr die Situation, dass ihr einen starken Domain habt, statt dass ihr verschiedene einzelnen Domains habt. Das ist unter Unbeständen ein Vorteil. Manchmal gibt es aber auch sehr starke Marketinggründe, warum man sagt, ich möchte lieber ein länderspezifischen Top-Level-Domain. Das heißt, in manchen Ländern ist es ja so, dass man da vielleicht sagt, ich möchte wirklich Inhalte aus meinem Land haben. Und das sieht man ja sehr schnell mit einem eigenen Top-Level-Domain. Und wenn man da auf FR steht, kann man wirklich davon ausgehen, dass es wirklich von Frankreich oder zumindest für Frankreich ausgerichtet ist, hingegen, wenn da ein langer Firmenname.com irgendwo versteckt noch weiter hinten FR steht, dann sieht man das ja nicht so schnell. Und solche Marketingüberlegungen sind manchmal stärker, manchmal weniger stark. Und das sind Sachen, die wir aus SEO-Sicht haben für sich beurteilen können oder nicht groß für euch Empfehlungen machen können, sondern das müsst ihr selber einfach mal überprüfen. Macht es Sinn, dass man mit den länderspezifischen Domain arbeitet, ist das kritisch für unsere Kunden oder ist das vielleicht weniger kritisch? Eben aus SEO-Sicht kann man da beide Varianten machen. Dann geht es weiter, was ist den Best Practice, wenn in unterschiedlichen Ländern die gleiche Sprache gesprochen wird, beispielsweise Großbritannien und Irland, sollte ich dann inhaltsgleiche Bereiche aufbauen und ein paar hreflang arbeiten oder mit den canonical wie macht man das am besten? Aus meiner Sicht kann man das auf jeden Fall in beide Varianten machen, entweder dass man eine Sprachvariante aufbaut und die dann für alle Länder verfügbar macht oder dass man verschiedene länderspezifische Versionen aufbaut, die eigentlich die gleichen Texte haben. Das ist ja auch sehr normal z.B. über Deutschland, Österreich und Schweiz nimmt man an für sich schneller mal, gerade wenn man Produkte hat, nimmt man die gleichen Produktebeschreibung die Beschreibung ist ja nicht anders nur wer jemand in Österreich oder in Deutschland jetzt sitzt. Was da einfach oft passiert, aus unserer Seite ist, dass wir erkennen, dass die Inhalte gleich sind und wenn wir erkennen, dass die Inhalte gleich sind dann kann es sein, dass wir die Sachen zusammenklappen und sagen, das ist jetzt eine Seite, per hreflang können wir die verschiedenen URLs noch dazu nehmen und können die entsprechend wieder auseinandernehmen, nachher in den Suchegebnissen aber für die Indexierung nehmen wir eine dieser Varianten und was dann passiert ist einerseits in Search Console nehmen wir die Canonical URL für die ganzen Daten, das heißt wenn ich einmal Punkt DE habe und einmal Punkt AT dann nehmen wir vielleicht vielleicht mal die DE Version aus Canonical für einzelne diese Seiten und alle Daten, die wir für diese Seiten haben, haben wir dann in Search Console in der DE Version und wenn man die AT Version anschaut in Search Console sieht man da so gut wie nichts weil alles ja mit der Canonical Version an und für sich aufgeführt wird in den Suchegebnissen selber mit hreflang können wir die URLs dann wieder austauschen das heißt für normale Benutzung macht das wenig Unterschied aber für den Webmaster jemand der das Ganze überwachen will da ist es auf einmal wieder recht verwirrend das heißt aus meiner Sicht man kann das machen, dass man die gleichen Inhalte nimmt für unterschiedliche Länder ich würde eher empfehlen dass man für wichtige Informationen wirklich auch eigene Inhalte nimmt für einzelne Länder dann ist es einerseits für die Benutzerklare dass das wirklich für mein Land jetzt abgestimmt ist andererseits in der Suche würden wir die auch viel weniger zusammenklappen und entsprechend in Search Console sieht man dann die Daten viel schneller auch unterschiedlicher für die einzelnen Länder Version man kann aber auch genauso gut sagen ich habe jetzt eine deutsche Version und das ist jetzt eine starke Version die einfach auf Deutsch ist die ist verfügbar für verschiedene Länder das ist an für sie auch okay Könnte ich eine Frage stellen? Ja, natürlich also du hattest ja in irgendeinem letzten Hangout gesagt, dass ihr auf jeden Fall eine ch-Domain in der Schweiz höher rankt ein bisschen höher jetzt ist es so dass ich in der Search Console für unsere Punkt-Com-Domain kein Land angegeben habe also es ist eigentlich ausgerichtet auf Frankreich wenn ich jetzt ausrichten würde auf Frankreich die Punkt-Com-Domain würde ich dann bessere Ergebnisse in Frankreich erzielen oder nicht? Vielleicht Ja, das Schwierige ist gerade mit der Länderausrichtung so dass wir versuchen zu erkennen wenn der Benutzer etwas lenderspezifisches sucht das heißt wenn man zum Beispiel einfach insgesamt Informationen über Länderflaken haben möchte dann können wir vielleicht anhand der Sucher erkennen, das ist in dieser Sprache aber wir vermuten vielleicht dass sind einfach Informationsanfragen welche Länderflaken gibt es oder solche Sachen und dann ist es so dass wir sagen würden da ist der Standort von der Website und die Ausrichtung von der Website weniger wichtig wenn wir hingegen erkennen können dass der Benutzer wirklich etwas lenderspezifisches sucht das heißt zum Beispiel in deinem Fall jemand sucht nach Länderflaken so und so kaufen dann können wir davon ausgehen dass das wirklich etwas lenderspezifisches gesucht wird und dann würden wir mit dem Geo Targeting die Länderversion ein bisschen höher das kann die Länderdomain sein oder es kann auch ein generische Domain sein die mit der Ausrichtung auf das Land ist also ich habe es weggelassen da wir auch Kunden in Belgien haben, in Kanada deswegen habe ich mir gedacht ok.com ist einfach für alles nur für die französische Sprache eigentlich gedacht, sollte ich das denn ausprobieren einfach mal schauen vielleicht ein Monat und auf Frankreich ausrichten weil unsere meisten Kunden sind in Frankreich eigentlich ja, ich würde es mal ausprobieren ich vermute wenn du die Einstellung machst für Frankreich, dann siehst du das ist ein bisschen mehr in Frankreich wahrscheinlich ein bisschen zunehmend da und vielleicht was in anderen Ländern ein bisschen abnehmend wie weit das bei den anderen Ländern das ganz verschwindet, lässt sich schwer sagen ich vermute, dass es trotzdem noch wie eine generische Webseite dort ranken würde das heißt ihr habt dann einfach nicht den Vorteil vielleicht mal in Belgien oder in Kanada dass man das als lokale Webseite anschauen würde macht wahrscheinlich auch so sehen ok, danke dann geht es dann auf weiter, machen in dem Fall Markups for Structuredata zum Beispiel für Google Jobs sind auf Seiten die Paganonical auf andere verweisen ich weiß jetzt nicht wie das bei Google Jobs gehandhabt wird von dem her kann ich gerade zu Google Jobs nicht wahnsinnig viel sagen aber insgesamt wenn man mit verschiedenen Länderversionen arbeitet und dann ein Canonical Set dann ist es so, dass wir uns wirklich nur auf diese Länderversionen also auf diese Canonical Versionen konzentrieren das heißt, wenn ich jetzt Deutschland Österreich-Schweiz habe und ich sage von Österreich ist der Canonical die Deutschland-Version dann würden wir wirklich nur die Deutschland-Version indexieren das heißt, die ganze Structuredata die ganzen Informationen auf der Version für Österreich, das würde für sich gar nicht berücksichtigt werden, sondern wir indexieren dann nur die Version für Deutschland das heißt einerseits könnte man sich da sparen jetzt würde ich in einem solchen Fall nicht per Rail Canonical arbeiten, weil dann wirklich die einzelnen Länderversionen ganz verschwinden würden gibt es eine ungefähre Zeitangabe wie lange der Google Crawler wartet bis eine Website beziehungsweise Zeitmarkt geladen ist, so dass er die Daten abrufen kann ich glaube nicht, dass wir da eine spezielle Zeitangabe haben bei es hängt ein bisschen davon ab denke ich mal von der Website selber was wir in der Regel versuchen zu vermeiden, ist, dass wir all zu viele gleichzeitig Anfragen offen haben bei einer Website das heißt, wenn wenn alle Seiten beim Crawling sehr lange brauchen bis wir die HTML-Version zurückkriegen oder die Inhalte dieser Sites zurückkriegen dann wird es so sein, dass wir wieder Crawlen von dieser Website aber insgesamt für die Indexierung ist es so, dass Google relativ flexibel ist mit der Zeit, die es dafür braucht sind ja auch nicht unbedingt unter Zeitdruck für den einzelnen Websites das heißt, wenn wir eine Seitenabdatei abrufen und es geht im schlimmsten Fall eine Minute oder zwei bis die Seitenabdatei heruntergeladen dann warten wir halt die Zeit bis wir das heruntergeladen haben und bis wir das weiterverarbeiten können von dem her ist es nicht so, dass das unbedingt negativ ist aber ich würde gerade bei den normalen HTML-Seiten die da verfügbar sind, die ganzen Inhalte dort, würde ich schon schauen dass es relativ schnell kommt weil wenn wir, wie gesagt, wenn wir sehen dass wir mit vielen Anfragen hängen beim Crawling dann werden wir da entsprechend auch weniger Crawlen von dieser Website auf Google.de hat sich die Schriftgröße geändert bleibt das jetzt so groß weiß ich nicht so wie ich das sehe ist es so, dass das UI-Team bei Google arbeitet natürlich auch weiterhin sie machen sehr viel A-B-Testing und manches dieser Tests führen dann Veränderungen in der Suche aber oft ist es ja so, dass diese Veränderungen eigentlich nur Temporer sind und irgendwann kommt das nächste von dem her so wie ich das sehe ist das jetzt überall erschienen ich denke das bleibt jetzt erstmal so wie sich das längerfristig verändert keine Ahnung eine Frage dazu sollte ich denn jetzt reagieren und unsere Titel verkleinern weil unsere Titel werden jetzt angezeigt und sieht nicht mehr gut aus in der Suche ist zu sagen reagieren oder eher warten, wenn es jetzt noch 2 Wochen dauert würde ich jetzt natürlich warten aber wenn du sagst für die nächsten 6 Monate wird es erstmal so bleiben dann würde ich natürlich ändern ich habe keine Ahnung wie lange die bleiben was in der Regel passiert gerade mit den Titels ist ja so wie passen die Titel ja automatisch auch an in der Suche dass wir immer größere Umstellung im UI-Bereich machen für die Titels dann ist es oft so, dass wir die alte Länge erstmal indexiert haben und die angepassten Titels für die alte Länge optimiert haben und dann wird das abgeschnitten mit Pünchenpünchen am Ende wenn wir die Seiten neu verarbeiten dann berechnen wir an für die neuen Titel für die Seiten und dann wird die Länge wieder richtig angepasst das heißt, was wahrscheinlich passiert ist, dass nächste Woche so werden diese Seiten in großen Teilen neu verarbeitet werden, die neuen Titel werden bestimmt und die Titel sind dann wieder ohne Pünchen am Ende, weil die an die neue Länge angepasst sind das wird ja automatisch gemacht aber wenn du natürlich Vorstellungen hast, wie du am liebsten die Titels haben möchtest und du weißt am besten wie man die kürzer machen könnte in einer Stelle direkt machen dann musst du nicht darauf warten dass Google etwas neu bestimmt und einzelne Wörter weglassen kann oder das kürzer machen kann sondern das kannst du ja selber auch in die Hand nehmen sind die Titel dann genauso wie früher also ihr hattet ja irgendwann mal die Titel länger gemacht und jetzt sieht es so aus wie vor, weiß ich nicht, vor 5 Jahren oder wann das war kann das sein keine Ahnung nicht gefällt es nicht ist zu groß ja ich höre auch nur Feedback von Leuten denen es nicht gefällt, aber vielleicht ist es so dass die anderen hat nichts zu sagen die anderen merken es nicht, wenn ich meine Mutter frage die merken es nicht ist so ich denke mit der Titellänge ist es auch so, dass wir irgendwann mal gewechselt haben, dass es auch unterschiedlich lang sein kann, das heißt manche Seiten haben längere Titel zahlen hinweg und andere haben dann nur einen kürzeren Titel ich denke das ist wahrscheinlich schon auch weiterhin so aber ob das jetzt ähnlich ist wie früher weiß ich nicht darf ich da noch eine Frage dazu stellen? ja gibt es denn irgendwie ein, ich weiß nicht ein Schreiben das aussagt wie viel Platz es jetzt ist eigentlich nicht es ist so dass wir gerade für den Titel und für die Suchergebnisse ist es so, dass wir an für sich keine optimale Länge angeben, dass wir sagen ihr müsst auf das hin optimieren weder für die Anzahl Buchstaben noch die Pixel Länge da noch eine Frage zu Google for Jobs ich glaube das muss ich dann das Thema weitergeben und was haben wir denn noch wie geht Google mit Webseiten Webshops um die pornographisches beziehungsweise erotisches Bildmaterial verwenden kann man beispielsweise für ein Erotikprodukt ein Rich Snippet mit Bild erhalten oder hat Google eine Art Jugendschutz- Filter gerade für die Rich Results und die ganzen Zusatzergebnisse die man einrichten kann mit den Structure Data ist es so, dass in unseren Richtigen an für sich steht dass man die nicht für Adult Content verwenden soll ich weiß nicht wie das auf Deutsch da genau formuliert wird aber in den Rich Snippet Guidelines müsste das so entsprechend drin sein das heißt an und für sich würde ich schauen dass man da nicht Structure Data verwendet für diese Sachen ist es auch so, dass unsere Systeme eine Art Safe Search Filter haben das heißt, dass sie automatisch die Rich Results von solchen Websites dann gar nicht erst darstellen würden und in der Regel ist es so dass wir das auf Webseitebene machen oder auf größeren Teilen der Website haben, die für Erwachsene sind und Teile die für einen allgemeinen Benutzer verfügbar sind, würde ich einfach schauen dass man die wirklich sehr klar unterscheiden kann am besten über die URL selber was wir genau wissen dieser Abschnitt der URL Unterverzeichnissen oder Subdomain das ist etwas was wir mit Safe Search entsprechend labeln können und der andere Teil ist etwas was wir ohne Safe Search herausliefern können das ist manchmal nicht einfach machbar und gerade bei einem Shop das verschiedene Produkte hat es ist ja nicht so, dass man da mit Unterverzeichnissen arbeiten kann und sagen kann, dass es jetzt so sondern es ist alles ein im gleichen Produktbereich da lohnt es sich Unterumständen zu überlegen ob man das ganz trennen möchte auf unterschiedliche Websites oder ob man einfach sagen möchte unterschiedliche Inhalte und wenn die mit Safe Search gefiltert werden ist das auch nicht das Ende der Welt weil in der Regel jemand der nach solchen Produkten sucht der wird ja auch daran denken dass man Safe Search auch ausschalten kann mal schauen ob da noch neuere Sachen gekommen sind oder gibt es vielleicht aus eurer Sicht noch irgendwelche Fragen da haben wir noch etwas Neues ich habe eine 20 Jahre alte Domain und von Typ 3 auf Voltpress umgestellt und muss nun die Linkstruktur von mehr als 2000 Beiträgen und vor allem die Links neu aufbauen auf was soll ich achten um die alten Rankings nicht zu verlieren Linkstruktur, Codebereinigung und so weiter also was ich da an erster Stelle machen würde bevor man da groß etwas umstellt ich weiß nicht, ob das jetzt vielleicht zu spät ist dass man wirklich auch ein klares Verzeichnis hat von den alten Inhalten d.h. am besten eine Liste aller Urals und vielleicht alle Inhalte die da verfügbar waren damit man das längerfristig auch vergleichen kann und dann wenn man die interne Struktur der Website umstellen muss dann würde ich schauen, dass man wirklich eine ein zu ein zweiter Leitung von all den alten Urals zu den neuen Urals hat damit man sicher ist, dass alles was mit den alten Urals irgendwie verbunden war auf den neuen Urals weitergeleitet wird und das betrifft nicht nur die HTML-Seiten sondern auch alle eingebundenen Inhalte Sachen wie PDFs auch die vielleicht verlinkt werden, die JavaScript-Dateien die CSS-Dateien die Bilder die eingebunden waren dass all diese Urals auch weitergeleitet werden an die neuen Urals und die Idee dabei ist dass wenn wir eine ältere HTML-Seite irgendwie in unserem Cache haben und die neue Rendering wollen dass wir da dann nicht hängen bleiben dass wir da trotzdem diese Seite Rendering kann, dass die Bilder weitergeleitet werden, dass wir einfach die neue Urals direkt verfügbar haben in diesen Dateien und je eher man das machen kann umso eher kann man dann wirklich die alten Signale beibehalten und anführe sich alles bis eins zu eins so weiterverwenden was ich dann längerfristig auch machen würde ist mit einem Websitecrawler die ganze neue Domain mal durchgehen und wirklich kontrollieren dass alle internen Links auch angepasst worden sind dass er möglichst wenig über verschiedene Redirect-Stufen geleitet wird, sondern dass es wirklich möglichst alles sauber weitergeleitet wird und nicht dass man dann irgendwo noch 404 Bereiche hat die hängen geblieben sind wenn man ein Crawler drüberlaufen lässt dann sieht man auch sehr schnell ob die Links-Struktur innerhalb der Website ähnlich ist wie vorher das heißt solche Sachen wie dass alle Seiten irgendwie gefunden werden über die Links, dass vielleicht die Anchor Text innerhalb der Website ähnlich sind, obwohl ich vielleicht das Template ganz umgestellt habe was ich vielleicht auch überlegen würde ist ob man irgendwie vermeiden kann, dass sich die URL-Struktur verändert weil wenn man das machen kann, dass man die alten URLs beibehalten kann dann spart man sich sehr viel mit den ganzen Redirects da muss man sich nicht so viel Gedanken machen mit dem ganzen Crawling, mit der Indexierung der alten Inhalte, dann weiß man ja dass das anfühlt sich so weiter geht manchmal lässt sich das machen auch wenn man eine Art Struktur dazwischen einbaut dass die neuen Inhalte über die alten URLs aufrufbar sind manchmal ist das sehr aufwendig und da muss man halt mit Redirects arbeiten auf jeden Fall würde ich sagen auch wenn man alles 100%ig korrekt macht mit Weiterleitung, mit Neuaufbau mit der internen Verlinkung, dass es einigermaßen funktioniert lässt sich nicht garantieren, dass alles 1 zu 1 weiter läuft in der Suche weil wenn wir erkennen können dass es größere Umstellungen gegeben hat auf einer Website, dann versuchen wir das halt zu berücksichtigen und das kann sein, dass es da ein bisschen weniger gut dasteht am Ende, es kann auch natürlich sein dass es ein bisschen besser dasteht am Ende, dass sie auch manchmal ein bisschen das Ziel mit einer Umstrukturierung der Website, dass man da ein bisschen besser dasteht in der Suche aber auf jeden Fall ist das erste mal viel Arbeit und viele Sachen, wo man auf die Details achten muss und schauen muss dass wirklich alles 1 zu 1 weitergeleitet wird und wieder verfügbar ist wie vorher Dankeschön, das war meine Frage Ich kann dich noch was dazu sagen also deine Antwort war schon ungefähr das was ich gemacht habe in dem Bereich, also ich habe ja die ganze Seite auch aus Back Machine zum Beispiel, ich schaue schon mal Parallel nach, welche Seite war da gelingt zum Beispiel, wie ist der Link ich habe auch Weiterleitung, also 301 Weiterleitung gemacht, von den alten Links zu den neuen Links, weil das ist nicht möglich dass man die alte Leuchttür so macht weil das ja Typ 3 hat, der andere Link-Struktur mit 1 Videos und dann eine Nummer hin dran und dann hat man dann das Verschattelung innerhalb von der Seite zum Beispiel noch zu anderen Artikeln und ich habe aber gemerkt, muss ich noch einen Link zu funktionieren, wie ich es mache also ich habe die ganze Seite ich habe über 10.000 Ränke im Google mittlerweile durch die alte Seite schaue ich mir die ganzen alten Seiten an und tut das 1 zu 1 quasi die Seiten anschauen mir, übernehmen den Link neu machen und dann die Sachen bereiten weil ich hatte zum Beispiel auch Keywords angegeben also Optimierung nach mehreren Keywords angegeben und das in einer Liste mit 5, 6, 7, 8, 9 Keywords als Hauptkeyword und das muss ich alles bereiten ich habe einen alten Code drin zum Beispiel einen alten Google AdSense Code drin den ich rausnehmen muss also ich muss den kämtischen Art im L Code bereiten und bei 2.000 bei insgesamt 5.000 Beiträge ziemlich viel Arbeit eine Frage dazu, wie lange wird es ungefähr dauern bis die Seite so halbwegs wieder im Google drin ist sozusagen wie sie vorher war also die ist wirklich gut geregt, wie gesagt 20 Jahre alt und die liefern wir gut, aber bei AdSense lief die sehr gut und hat ja durch Einbuß jetzt genommen weil die hat nie auf Mobile Wert gelegt, für 4 Jahre keine Aktualisierung mehr gemacht von Typ 3 deswegen habe ich mich entschieden für WordPress weil ich halt WordPress schon seit Jahren mache ich bin mit Typ 3 nie ausgegangen, ich mache das jetzt ich tue den Weg gehen mache das als WordPress und ich merke, es geht langsam wieder aufwärts, aber dann hat er durchschafen ja, Einraum verloren dadurch wie lange wird es ungefähr dauern bis die Seite ungefähr wieder vielleicht auf dem alten Stand ist von wie vorher war ja, gibt es irgendwelche Tipps dazu was ich noch beachten kann ich denke du machst eigentlich schon alles so weit richtig ich denke, das klingt alles sehr gut zeitlich lässt sich das gar nicht sagen wie lange das gehen wird es kann auch sein dass sich Sachen im Bereich vom Google Algorithmus auch verändert haben im Laufe der Zeit das heißt, wenn das jetzt sag ich mal eine medizinische Website ist und die jetzt mit diesen letzten paar Updates irgendwie sowieso anders gerankt wäre dann lässt sich das schlecht vergleichen wie das Ranking heute ist und wie das Ranking vor einem Jahr war auch wenn die Website eins zu eins gleich bleibt aber ich denke die ganzen technischen Sachen sind sicher mal Sachen die man bereinigen muss die alten Codes rausnehmen dass die Links alle funktionieren und dann ist es eher eine Frage der Zeit, bis sich alles ein bisschen wieder zurück zurückkommt und auch eine Frage von weiter beleben wie man die Websites sonst irgendwie weitertreiben kann wieder aktualisieren kann dass die Inhalte wieder aktuell sind dass Benutzer die entsprechend auch aufhinden und dann wieder weiter empfehlen noch eine Frage dazu wenn ich jetzt meine Wege 10 weitere genaue mache ist es notwendig dass ich die SideMap jetzt mal wieder neu hochladen oder überhaupt nur die SideMap neu hochladen oder das Automatisch von Google dann wenn ich die immer eingesaugt habe, aktualisiert ich habe ja die SEO Just mit der SideMap muss ich die neu hochladen wenn ich eine Aktualisierung mache meinetwegen vor 10 oder 20 noch beiträgt oder wird das alles automatisch abgearbeitet normalerweise geht das automatisch normalerweise bei WordPress gibt es ja die RSS Feeds, sie werden automatisch erstellt und eingereicht und ich glaube mit den Yoast Plugins oder mit anderen SideMap Plugins werden die SideMap Dateien automatisch erstellt und automatisch eingereicht d.h. du musst dann nicht in Search Console von Hand irgendwas noch zusätzlich machen ok, danke schön cool, in den Fragen in Kommentaren hat es noch Spielen Social Signals, noch eine Rolle für das Ranking aus unserer Sicht nicht d.h. die ich glaube ziemlich alle User Generated Content Social Websites haben ja den Real No Follow bei den Links und dementsprechend würden wir die sowieso alle ignorieren aus SEO Sicht ist es natürlich so dass wir die nicht als direkte Signale dazunehmen, aber indirect kann das natürlich trotzdem sinnvoll sein dass man die Websites ein breiteres Publikum bringt und dann könnte es natürlich schon sein dass wir auch separat verlinken zur Website und dementsprechend dass es besser für die Website ist insgesamt wenn man mit den ganzen Social Networks aktiv ist aber es ist nicht so, dass wir da das als direkten Faktor dazunehmen würden ok ich denke zeitlich sind wir ziemlich am Ende und Fragen hat es da sonst keine mehr drin, gibt es vielleicht doch, Entschuldigung ich hatte doch eine Frage eingestellt Max, mal schauen die müsste da in dem YouTube-Kommentarfeld sein, ganz unten oder sagt sie sonst einfach kurz es sind 3 Fragen aber das müssen wir nochmal auf die Seite gehen vielleicht mal aktualisieren Georg ist der Name ah ok verstoßen Link, die über ein Kumpel gebährt werden ohne Bezahlung gegen Google Richtlinien, sollten sie besser disavowed werden in der Regel sind das gleich mal Kleinigkeiten, auf die wir nicht groß achten würden ich denke, wenn das im größeren Rahmen getrieben wird, dann wäre das vielleicht etwas, was unser Website-Team sehen würde und darauf reagieren würde aber wenn das einfach Kollegen sind, die eure Website weiter empfehlen ist das an und für sich keine große Sachen sollten Links auf Verzeichnisseiten unter Umständen Zick Links pro Seite besser auf Follow gesetzt werden, wenn die gelisteten Firmen vertrauenswürdig sind das ist an und für sich euch überlassen, also wenn du ein Website-Verzeichnis betreibst, ist das an und für sich euch überlassen, wie ihr das Hand haben wollt man kann das so oder so machen ich denke, gerade bei Verzeichnisseiten ist es manchmal ein bisschen schwierig weil die einfachen Populität ein bisschen verloren haben und nicht mehr so relevant sind in vielen Fällen verstoßen Follow-Backlinks im Rahmen einer Kooperation der Partner zahlt nicht man selbst gegen die Google-Richtlinien ja, an und für sich schon das heißt, egal ob du direkt jemanden zahlst für diesen Link oder du z.B. einer Agentur etwas zahlst und die kaufen dann die Links ist aus unserer Sicht an und für sich das Gleiche dass der Link nur da ist, weil man da dieses finanzielle Verhältnis hat zwischen den beiden Websites ist das nächste Google Update eher in Wochen oder in Monaten zu erwarten wir machen an und für sich Updates fast jeden Tag und manchmal ist es schwierig zu sagen welches Update groß erscheint extern klein erscheint von dem er lässt sich das schlecht sagen wie schnell das kommt okay uuh, zeitlich haben wir es gerade geschafft gibt es eine Liste aller wichtigsten Ranking-Faktoren haben wir leider nicht extern gibt es verschiedene die Ranking-Faktoren zusammenstellen aber Liste direkt haben wir an für sich nicht cool, dann machen wir vielleicht hier eine Pause vielen Dank vielen Dank für die vielen Fragen und sehen wir uns vielleicht in einem von den nächsten Hangouts wieder tschüss allerseits tschau, danke