 Okay, herzlich willkommen beim heutigen Google Webmaster Central Sprechstunden Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trends Analyst hier bei Google in der Schweiz. Und Teil von dem machen, sind solche Webmaster Sprechstunden, wo Webmaster uns direkt Fragen stellen können, wo man direkt verschiedene Themen über die Websuche auch besprechen kann. Wie immer sind da schon einige Fragen eingereicht worden. Aber wenn einer von euch möchte, könnt ihr gerne loslegen mit den ersten Fragen. Ja, dann beginne ich. Okay. Ich habe schon die Frage auch drunter gepostet unter den... Du? Irgendwie bist du, glaube ich, auf Sturm geschaltet. Ja, jetzt. Hallo? Ja, merci. Ich habe meine Frage schon auch unter den Post gepostet. Es geht um dieses Fetch and Render Tools in der Search Console, das Mobile Friendly Tool. Und zwar sehe ich in vergangenen Monaten immer wieder, bei verschiedensten Seiten, auf verschiedensten Servernen, verschiedensten CMS, Schomulatropa, WordPress, Agenda, alles Mögliche, dass dort einfach Ressourcen oder teilweise auf die ganze URL nicht gefetched werden können. Und bei einem Projekt vor allem, kommt es vor, dass eigentlich bei fast jedem Fetch und der Search Console, alles auch im Mobile Friendly Tool, wirklich eine Großseite der Sourcen darüber, dass CSS und Shavas Departee einfach nicht gefetched werden. Ich habe schon aufgerissen, was wir alles versucht haben. Die Seite ist halt enorm abgestürzt. Das mag auch mit dem Medic Update zu tun haben. Also es ist eine Arztseite, ein durchaus bekanntes Thema. Es geht um Urologie und Anthrologie. Wir waren aber davor, also wirklich, wir haben eigentlich die Sachen dominiert, die servic alle richtigen Keywords. Und, wie gesagt, das Medic Update mag aber eine Rolle spielen. Wir sind da dran, uns da irgendwie zu verbessern. Aber aufwendig ist es immer doch, dass es diese technischen Fehler keine gibt. Da würde ich fragen, ist es ein grundsätzliches Problem mit diesem Test auf Google-Seite, weil es ja bei anderen Seiten auch vorkommt, zwar nicht in diesen Ausmaße, oder ist es wirklich auf unserer Seite, was kann man tun? Aus meiner Perspektive passt alles, diverse Tools sagen es alles okay. Der Hoster sagt, es ist alles okay. Das Search Console sehen keine grundsätzlichen Probleme mit Server. Wir haben jetzt die ganze Ressource nach bei CDN ausgelagert. Es tritt eigentlich immer wieder auf, genau. Ich habe jetzt nicht genau nachgeschaut wegen einzelner Ressourcen. Aber was ich gesehen habe, ist allgemein bei der Webseite, dass was ein bisschen passiert ist, dass wie eine Verlagerung von sehr allgemeinen Keywords auf eher spezifischerer Keywords. Und wenn man natürlich die Gesamtmenge anschaut, dann sieht man natürlich schon eine Verlagerung der Gesamtsicherheit. Aber so wie ich das so aufhandlieb, da sehe, ist es eigentlich eher so, dass für die Suchen, wo ich meine würde, dass die Webseite gut passen würde, wo die Benutzerbedürfnisse gut erfüllt werden, dass da die Webseite trotzdem noch erscheint. Und solche Veränderungen kann es natürlich immer wieder geben. Und gerade wenn jetzt zum Beispiel bei einem Keyword, was sehr häufig gesucht wird, wenn die Webseite früher dort erschienen ist und jetzt nicht mehr, dann kann das natürlich in der Gesamtzahl der Impressions natürlich schon rechte Veränderungen geben. Aber das heißt nicht unbedingt, dass deswegen weniger relevante Besucher auf die Webseite kommen. Das ist mir eher klar. Die Besucher sind natürlich trotzdem dramatisch zurückgegangen, also mehr als 50 Prozent. Und es ist ja gerade, dass wir haben für ein Keyword zum Beispiel, wir haben für ein Keyword auf Seite 1 gebrankt, was jetzt zu breit ist, das Ding, den es wohl überhaupt nicht klar, mit einer Side View. Ja, wie ich das Verlängerung ging. Dass das jetzt zurückgehen, dass die Besucher, obfand es schon klar, trotzdem aber zur Frage zurückzukommen, gibt es ein technisches Problem, das eben mit diesen Tools erscheinen oder eben nicht? Was diese Tools zeigen, ist an und für sich, dass da verschiedene weitere Dateien eingezogen werden für diese Seiten und dass da einige davon nicht rechtzeitig abgerufen werden konnten. Und in der Regel ist das eher dann ein Problem, wenn relevante Inhalte gar nicht geladen werden. Und das ist zum Beispiel der Fall, wenn man jetzt einen JavaScript-basierte Site hat, wo die textlichen Inhalte zum Beispiel nur per JavaScript eingeladen werden und diese JavaScript-Dateien aus irgendeinem Grund nicht geladen werden können, dann haben wir natürlich die Inhalte überhaupt nicht. Wenn es hingegen nur, sag ich mal, Hintergrundsbilder sind, wenn es CSS-Dateien sind, wenn es JavaScript-Dateien sind, die nicht kritisch sind für die Inhalte, dann würde ich mir da eigentlich keine große Sorgen machen. Wenn ich jetzt die Website so anschaue, sieht es aus, dass die meisten Inhalte eigentlich direkt in der HTML-Seite drin sind. Und von dem her, wenn wir die HTML-Seite laden können, auch wenn wir keine weiteren Dateien dazu laden können, dann können wir eigentlich die Inhalte binden. Dann ist es nicht so, dass da irgendetwas verloren geht. Die Meldung, die wir da bei diesen Tools haben, bezieht sich eher in die Richtung, dass es quasi Inhalte vielleicht gibt, die gar nicht geladen werden können. Und heißt nicht, dass die Website deswegen weniger relevant erscheint. Das heißt, wenn einzelne CSS-Dateien nicht geladen werden können aus irgendeinem Grund, das kann ja zwischendurch auch passieren, hat das eigentlich gar keinen Einfluss auf den Rest der Website. Der einzige Einfluss, den es dann manchmal gibt, ist, wenn wir regelmäßig die CSS-Dateien nicht laden können, dann können wir unter Umständen nicht feststellen, ob die Seite mobile-friendly ist oder nicht. Und dann hat man einfach auf Mobilgeräten in der mobilen Suche, hat man dann unter Umständen diesen mobile-friendly-Bust dort nicht. Die Veränderung da ist aber eher klein. Also es ist nicht so, dass die Website dann ganz versinken würde, oder dass sie gar nicht sichtbar wäre für diese Suche, sondern hätten vielleicht einfach eine kleine Veränderung nur auf mobilen Geräten. Das heißt, auf Desktop-Suchen würde es weiterhin normal erscheinen. Hilft das ein bisschen? Es hilft ein bisschen, um zu wissen, dass es jedenfalls dieses technische Problem oder dieses technische Fehler, der angezeigt wird, nicht kritisch ist und dass dieser Rückweg an Sichtbarkeiten wohl im Medi-Update oder in anderen Faktoren zu suchen ist. Vielen Dank. Ich kann vielleicht mal ganz kurz nachschauen, ob ich da vom Crawling allgemein irgendwelche Probleme sehe. Manchmal ist das ein bisschen ein Zeichen, dass wir vom Server her einfach nicht genug crawlen können. Aber wenn ich jetzt so die Statistiken hier anschaue, für die Website sieht das eigentlich okay aus. Ich vermute, was einfach passiert, ist, dass bei einzelnen dieser Dateien, also einzelne dieser Seiten, dass es einfach sehr viele Ressourcen hat, die geladen werden müssen und dass wir das einfach im Live-Test nicht sofort nachladen können. Das sieht nicht extrem aus. Wenn ich jetzt in Chrome nachschaube bei den Netzwerk-Daten, sind das wahnsinnig viele von dem her. Würde ich mir diesbezüglich eigentlich keine großen Sorgen machen. Ich denke, das sind einfach uns jetzt kleine Schwankungen, die es manchmal geben kann, dass wir einzelne Ressourcen einfach nicht aufrufen können. Okay, danke schön. Bitte. Okay, ich möchte weiter infragen, bevor wir losleben. Vielleicht kommt zwischen euch noch was. Schauen wir mal, wo wir hier anfangen. Könnte man mal einen Special mit einem Mitarbeiter vom AdWords Team machen? Könnte man vielleicht schon. Ich müsste da mal schauen, wie ich dazu organisieren könnte. Ich weiß, in Zürich sind auch einige vom AdWords Team. Vielleicht wäre das natürlich auch eine Variante, dass wir so etwas mal zusammen machen oder dass ich das für Sie mal einrichte und dass Sie das selber dann entsprechend machen. Wenn eine Seite über Jahre mehr Authority-Patreon bekommt, profitieren die verlinkten Seiten ebenfalls von diesem Wachstum nur der LinkJuice-Vererb, der beim Erstmaligen finden durch Google aktuell ist. Ich denke, man muss sich nicht allzu fest auf LinkJuice und Authority verharren. Das sind Sachen, die verändern sich im Laufe der Zeit sowieso und wie Google das verwendet, ist in der Regel anders, als was die meisten SEO-Blogs da beschreiben. Bezüglich PageRank ist es aber schon so, dass die Seiten, wie sie verlinkt werden, die Menge und die Qualität der Links, die zu einzelnen Seiten gehen, das betrifft dann auch, wie die Signale weitergeleitet werden von dieser Seite. Das verändert sich natürlich im Laufe der Zeit. Diese Veränderungen verfolgen wir jeweils. Das heißt, wenn eine Website einige Jahre besteht und einige Links darauf sind und bisher war wie noch nie groß bekannt, dann ist es so, dass die Links im Moment nicht so einen wahnsinnig großen Wert haben. Wenn hingegen später irgendwas kommt, wo auf einmal alle möglichen Leute auf diese Website verweisen und die weiterhin fehlen, dann kann es natürlich sein, dass sich das verändert. Diese Veränderungen verfolgen wir jeweils und kommt jeweils schon dazu. Das heißt, es ist nicht eine Frage, wie der PageRank ganz am Anfang von beim Aufhinden der Seite ist, sondern wie eigentlich der Zustand, die Signale sind im aktuellen Moment, wenn wir die Seite neu crawl, neu indexieren. Ist Duplicate Content im Titel und der Meta Description ein Problem? Es gibt viele Fälle, wo es keinen Sinn machen würde, jedes Mal etwas Handlers hinzuschreiben, wie beispielsweise Testberichten zu Anbietern einer bestimmten Sparte. Anfühlt sich ist das kein Problem. Es ist nicht so, dass wir eine Website deswegen bestraften würden oder als minderwertig anschauen würden, wenn im Titel oder Description die gleichen Inhalte da sind. Was einfach passieren kann, ist, wenn wir eine Suche haben wo mehrere dieser Seiten von der gleichen Website erscheinen würden und wir sehen, dass die Titel und Descriptions sind alle gleich, dann kann es sein, dass wir die einfach zusammenpacken und wählen eines dieser Seiten aus, weil die sehen ja, für den Benutzer sehen sie alle gleich aus und zeigen die Seite dann in den Suchergebnissen anstelle von 3 oder 4 Mal das Gleiche. In der Regel macht das für beide Seiten Sinn. Ich denke, für Benutzer sehen sie natürlich sehr gut die einzelnen Seiten dann. Für den Webmaster ist dann eine Seite sichtbar statt 3. Aber eigentlich, wenn ein Besucher kommt, ist es trotzdem ein Besucher. Nichts als zu trotz. Ich würde trotzdem schauen, dass man möglichst wirklich gute Titel und gute Beschreibungen hat, weil das zieht natürlich die Benutzer auch ein bisschen an, wenn man klar beschreibt, worum es geht auf diesen Seiten. Manchmal macht es Sinn, dass man die gleichen Titel und Beschreibungen hat, weil die Inhalte sind eigentlich so ähnlich. Aber in vielen Fällen kann man trotzdem etwas Eigenes dazu geben. Wenn ich richtig verstanden habe, dann rankt eine Domain für eine Sucheranfrage und nicht eine URL. Früher gab es Content Keywords in Search Console. Dort stand bei uns Kaufen fast immer ganz oben. In 2017 haben wir den Kaufenbutton in ein Warenkorb auf den Produkten Seiten umgelandt, damit Google diesen Kontext unserer Seite versteht. Sollten wir dann auf jeder Seite die Wörterflacke unterbringen, zum Beispiel in Texten oder Bilder alt Texten. Vielleicht zwei Sachen grundsätzlich vorweg in der Suche werden die Seiten pro URL geregt. Also nicht pro Domain. Von dem her denke ich, verändert sich nicht groß was an dieser Frage, aber das wird wirklich pro Seite versuchen, die Relevanz herauszufinden. Es lässt sich schlecht sagen, dass ein Domain jetzt für diese Sucheranfrage relevant ist, weil wir Nutzer gehen ja nicht auf ein gesamtes Domain, sondern auf einer einzelnen Seite. Bezüglich Content Keywords in Search Console ist es so, dass wir diese Funktion entfernt haben, gerade weil sie ein bisschen verwirrend war. Ich denke in die Richtung, wie hier jetzt beschrieben ein bisschen verwirrend war, Content Keywords hat nicht die Relevanz von einzelnen Wörtern untersucht, sondern einfach nur die Häufigkeit auf den Seiten. Und die Relevanz wie jetzt hier in diesem Fall muss nicht immer gleich sein, wie die Häufigkeit. Wenn man jetzt einen Kaufenknopf auf jeder Seite hat, weil man ein e-Commerce Website ist, dann heißt das nicht, dass diese Website nur für das Wort kaufen relevant ist. Von dem her gedacht, dass wir die Webmeister ein bisschen weniger verwirren, indem wir gar nicht erst die Häufigkeit dieser Wörter groß in den Vordergrund schieben. Und in den meisten Fällen, gerade wenn es um e-Commerce Websites gibt, können wir eigentlich relativ gut erkennen, dass es eine e-Commerce Website ist. Das heißt, man muss dann nicht jedes Mal Kaufen noch dazu nehmen oder wahren Koop dazu nehmen, sondern das sind Sachen, die finden wir innerhalb der Website. Und wenn wir das finden, wenn wir Informationen haben, dass diese einzelnen Seiten relevant sind für Benutzer, die jetzt so etwas Spezielles kaufen möchten, dann versuchen wir die Seiten entsprechend auch in der Suche zu zeigen. Das heißt, ihr müsst nicht künstlich diese Wörter noch irgendwie vermehrt auf der Seite bringen. Ihr müsst nicht künstlich Wörter unterdrücken oder verstecken, natürlicherweise auf der Seite auftreten, sondern ich würde wirklich einfach schauen, dass man da möglichst natürlich in Umgang ist und möglichst natürlich im Stil die Website nachgestalten. Weil das versuchen wir unsere Algorithmen auch einigermaßen zu erkennen, ist das jetzt eine Website, die unnatürlich versucht einzelne Wörter hervorzuheben und dementsprechend für unsere Algorithmen vielleicht eher vorsichtiger sein müssen. Oder ist das eine Website, die eigentlich gut auf den Benutzerbedürfnisse passt und wo wir denken, ja, da stimmt eigentlich soweit alles. Okay, dann eine Frage zu Structured Data wo Brand und Modell in Structured Data in Aller quasi gefunden wird. Ich denke da, das sind zwei Wörter, die man da vielleicht mal kurz ansprechen kann. Einerseits habt ihr immer noch mit dem hash bang die URLs, also mit den Nummerzeichen und Ausrufezeichen. Aus unserer Sicht funktioniert das soweit schon. Wir versuchen einfach die Seiten zu renderen. Das heißt, wir sind darauf angewiesen, dass wir in diesem Fall JavaScript sauber ausführen können, dass wir die JavaScript-Dateien sauber laden und dementsprechend kann es natürlich auch sein, dass es ein bisschen langsamer geht, bis wir die Inhalte wirklich auch finden. Weil bei JavaScript-basierten Websites ist es so, dass wir zuerst die HardHemal-Seite laden und indexieren und dann im zweiten Schritt erkennen wir, dass da JavaScript wirklich dazu gehört, dass wir das ausführen müssen und dann zu einem späteren Zeitpunkt kommt dann unser System und führt JavaScript aus und macht das ganze Rendering und versucht die Inhalte sauber zu erkennen. Und das kann natürlich zu zeitlichen Differenzen kommen. Das heißt, wir können da manchmal die HardHemal-Seite finden und dann geht es ein paar Tage und dann können wir das Rendering machen. Manchmal geht es auch eine Woche oder sogar länger, bis wir das Rendering machen können. Und gerade bei einer Website wie diese, wo ich vermute, dass da Inhalte relativ schnell wechseln, jetzt gebraucht waren, vermute ich, dass da häufig neue Inhalte dazukommen, häufig Inhalte wieder rausgehen. Da könnte ich mir vorstellen, dass wenn man auf das Rendering angewiesen ist, dass es dann eher schwierig wird, dass wir da wirklich in gleichen Tempo mit euch mithalten können und dass wir vom Indexing her die neuen Inhalte so schnell bringen können, wie ihr sie veröffentlicht. Das ist mal, denke ich mal, nebensächlich, aber ich denke, das ist sehr kritisch bei, gerade bei einer Website, wo die Inhalte sehr schnell sich verändern. Die Frage zum Structured Data, soweit ich das gesehen habe, ist auf der StackExchange Frage, ist auch ein bisschen eine Antwort schon die Richtung bekommen, dass Google versucht natürlich die Structured Data Informationen so herauszulesen, wie wir sie für die Suche verwenden können und das haben wir jeweils dokumentiert auf der developers.google.com Website und da ist es so, dass wir für Brand glaube ich einfach nur ein Textfeld haben und wenn ihr als Brand ein eigenes Objekt noch dazunehmt, dann könnte ich mir vorstellen, dass unsere Systeme Mühe haben, das sauber zu erkennen. Von dem her, wenn ihr diese Structured Data verwenden möchtet und diese Attribute geben möchtet, ich glaube Brand ist optional sowieso, dann würde ich das möglichst genau machen, wie das vorgegeben ist in den Richtigen und wenn das so gemacht ist, dann sollten wir das eigentlich schon herauslesen könnten. Gerade mit den ganzen Testing Tools ist es natürlich auch wieder schwierig, wenn man eine JavaScript basierte Website hat, dann müssen die Testing Tools auch das Rendering jeweils machen und ich weiß nicht, ob das alle unsere Testing Tools da machen würden bei einer JavaScript basierten Website, wie jetzt hier. Das ist auch wieder ein bisschen eine Schwierigkeit. Okay, eine Frage zu duplicate content. Du empfiehlst bei paginierten Seiten den gleichen Titel und die gleiche Überschrift zu verwenden, was passiert auf Produktebene, wenn man den gleichen Titel für Produktvarianten nutzt. Clubgoal die URLs ebenfalls zusammen muss die Meta Description dafür ebenfalls gleich sein oder fast gleich sein. Ich denke, das ist ähnlich wie die frühere Frage-Mägen Titel und Description. Wenn wir sehen, dass wir den gleichen Titel und den gleichen Snip zeigen würden in den Suchergebnissen, dann würden wir das in der Regel zusammenklappen. Was hier vielleicht eine Schwierigkeit ist, ist, dass wir Titel und Snip auch ein bisschen algorithmisch bestimmen können. Das heißt, wir versuchen das zu nehmen, was ihr auf der Seite definiert habt. Aber wenn wir denken, dass was was ihr definiert hat nicht wirklich auf die Suche passt, dann kann es sein, dass wir auch aus dem Inhalt der Seite selber etwas herauslegen. Das heißt, auch wenn ihr den gleichen Titel und gleichen Description Meta Description angegeben habt, kann es sein, dass wir unterschiedliche nehmen würden. Und wenn wir unterschiedliche nehmen würden, dann würden wir die Seiten nicht zusammenklappen. Das geht dann natürlich auch wieder ein bisschen in die Richtung, dass, wenn man wirklich etwas unterschiedliches, wenn man die Seiten als unterschiedliche Seiten behandelt haben möchte, dann würde ich einfach wirklich schauen, dass man unterschiedliche Titel und Snip jetzt auch dabei hat. John, eine Frage dazu? Ja. Würden die Seiten dann auch stärker werden, also genau wie beim Canonical? Nein. Nein. Was in der Regel passiert, ist, dass man macht eine Suche und wir würden anstelle 2, 3 und 4 würden wir die unterschiedliche Seiten von einem gleichen Website zeigen, mit dem gleichen Titel und Snip dann würden wir einfach die höhere Seite vermutlich einfach die auswählen und die zeigen und dann die 2, 3 und 4 also 3 und 4 in diesem Fall dann entsprechend ausblenden. Meistens sieht man das anhand von einem Link am Ende der Suchergebnisse, wo dann steht, ob ich weiß nicht, einiges Suchergebnisse worden ausgefiltert hat. Okay, alles klar. Aber es ist nicht so, dass die Seiten, die ausgewählt wurden, dann irgendwie stärker behandelt werden. Okay, dann die Frage wegen der anderen Website. Ich glaube, das haben wir kurz angeschaut. Dann mal kurz schauen. Ah, halt, das andere Website. Okay, bei langen Fragen ist das immer ein bisschen schwierig. Also, wir haben vor 18 Monaten unsere Seite redesigned. 10 Jahre wurde sie nur inhandlich aktualisiert. In der Sicherheit haben wir immer weiter einen Wert verloren und auch nach dem redesign ging es weiter bergab. Die URLs blieben alle gleich, nach dem relaunch wurde aber permanent monatliche SEO-Optimierung durchgeführt. Und ich glaube, ich spreche da also die Überschriften an Canonicals, Seitenzusammenfassungen, weitere data, Bilder, Videos dazu. Also, ich habe das hier mal angeschaut, die Website. Das ist die Sprecher Website. Und sehe da eigentlich nichts Besonderes, was ich sagen würde, ihr macht da irgendetwas komplett falsch. Was ich ein bisschen hier sehe, ist, dass es fast in Richtung Keyword Stuff hingeht, wo unsere Algorithmen wahrscheinlich ein bisschen kritischer das Ganze einfach anschauen würden. Das heißt, wenn ich auf der Homepage bin und den Source Code anschau und nach einigen dieser Sprichwörter quasi suche, dann ist es so, dass ich da so viele Varianten da, also Varianten, hunderte Vorkommnisse von diesen Wörtern da finde. Und das könnte ich mir vorstellen, dass unsere Algorithmen da vielleicht einfach ein bisschen kritischer den Gegenüber sind. Und deswegen seht ihr wahrscheinlich auch, dass die Homepage nicht so wahnsinnig toll in den Suchergebnissen erscheint, hingegen die einzelnen Landing Pages von den einzelnen Personen, die ihr weit relativ gut. Das heißt, wenn man nach den Namen sucht von diesen Personen, dann erscheint eigentlich eure Inhalte relativ gut. Das heißt, was ich da mir vielleicht überlegen würde, ist, wie könnte man machen, dass die Homepage oder vielleicht irgendwelche Kategorien-Seiten, wo man das Gefühl hat, dass da viele vielleicht nach diesen Kategorien suchen würden, wo ihr vielleicht auch immens viel Information habt. Wie könnt ihr das so gestalten, dass das für diese Besucher auch relevant sein könnte und so relevant in dem Sinne auch, dass ihr etwas davon habt. Also nicht unbedingt nur Seiten erstellen, die auf Keywords zielen, die häufig gesucht werden, sondern wirklich gezielt auch überlegen, wohin nach sucht unser Publikum. Und wie kann ich die Information, die ich über die Jahre hinweg gesammelt habe, so präsentieren, dass sie für diese Leute relevant sein könnte. Ich denke, gerade bei dem Thema ist es auch so, dass man sehr schnell dazu neigen könnte, Seiten zu erstellen, die einfach häufig gefunden werden, die viele Search and Pressions haben, die aber nicht unbedingt sind. Und das hilft euch im Grunde genommen nicht wahnsinnig viel, weil auch wenn die sehr sichtbar sind, wenn ihr sie zum Beispiel, dass diese Keywords viele Impressions haben, heißt es nicht unbedingt, dass es wirklich diejenigen Personen sind, die schlussendlich dann auch ein Coversion machen und bei euch irgendwie Anfragen entsprechend einreichen. Aber eben vom technischen Herst sehe ich da eigentlich komplett Falsches. Ich denke, das sind, gerade mit der Homepage, es ist einfach schwierig für uns das sauber einzuleihen, gerade weil diese Wörter einfach so häufig dort vorkommen auf der Homepage, dass wir dann das Gefühl haben, wir müssen da ein bisschen vorsichtig sein mit diesen Hauptstichwörtern, die ihr auf der Seite habt, auf der Homepage speziell und konzentrieren uns dann vielleicht eher auf die Seiten, die wirklich die Menschen sehen zu einzelnen Personen oder Filmen. Dürfte ich noch was nachfragen? Ja. Dieses permanente SEO, könntest du dazu nochmal Stellung nehmen? Also wenn man wirklich jeden Tag irgendwie an der JavaScript was ändert oder an CSS, was meinst du? Also ist das in Ordnung oder eher schlecht? Wenn es etwas gibt zu machen, dann würde ich es machen. Aber ich denke, sage ich mal einfach zur Beschäftigung ständig, die Wörter auf den Seiten zu ändern. Und es macht sicher Sinn, dass man die Seiten auch so optimiert, dass sie sauber funktionieren, dass die Inhalte klar erkenntlich sind, dass Structure Data da vorhanden ist. Aber wenn das mal gemacht ist und wenn die Fehler so weit eigentlich weg sind, dann muss man da eigentlich nicht permanent dran tüfteln. Bei vielerzeit gibt es einfach Probleme, die man über Jahre hinweg an für sich bearbeiten kann und wo man immer ein bisschen etwas verbessern kann. Von dem her würde ich nicht sagen, dass es keinen Sinn macht, permanent am SEO zu arbeiten, aber ich würde sicher nicht einfach ständig dran tüfteln und Wörter verändern und URLs rumschieben, nur damit man etwas gemacht hat. Also CSS ist kein Problem eigentlich, da als Änderung zu machen, schön am Design arbeiten. Ja, also ich denke, für viele Websites gibt es immer was zu tun. Man kann vielleicht auch ARB-Tests machen, solche Sachen. Von dem her würde ich nicht sagen, dass es keinen Sinn macht, wenn man permanent jemand angestellt hat für SEO, aber ich würde wie immer als sicher sein, dass man sich nicht die Arbeit selber macht. Ich nehme mir heute 10 Seiten vor einige dieser Keywords. Das macht eigentlich keinen Sinn. Da hat man ja kein konkretes Ziel vor den Augen. Ich hatte noch was gefragt. Und zwar ging es da um die Boundsrate beziehungsweise auch Verweildauer, weil wir ja, so hast du ja von unserer Seite gesprochen, wir sehr viele Leute in Unterseiten-Einstiege haben, die ja eigentlich fast alles finden, was man finden muss und wie spielt das eine Rolle? Das ist eigentlich gut. Ich denke, da spricht eigentlich nichts dagegen. Wenn jemand direkt auf die Seiten kommt, die für sie relevant sind und das herauslesen kann, weil was für sie wichtig ist, dann ist das perfekt. Also man sollte in der Boundsrate nicht optimieren versuchen? Ich denke, da muss man nichts machen. Nein. Das ist ja eigentlich auch nicht ein Bounds, wenn jemand die Information findet. Vom technischen her, wie man das misst, ist natürlich ein bisschen schwierig. Aber wenn man sieht, dass die Besucher auf diese Seiten kommen, sich die Zeit nehmen, die Inhalte durchzulesen und dadurch irgendwie zufrieden sind, dann ist ja eigentlich dieses Bedürfnis erfüllt. Dann ist es nicht so, dass sie quasi gleich wieder weitergehen und woanders weiter suchen. Aber das ist natürlich schwierig, sauber zu messen. Wenn man so etwas sieht, überlegen, wie kann ich das besser messen? Ist es vielleicht etwas, was ich messen kann, wenn ich sehe, dass der Besucher die Seite hochgeschrollt hat oder wenn man zum Formulat gekommen ist oder wenn man sieht, dass jemand per Copy-Paste den Telefonnummer rausholt. Also solche Sachen könnte man auch entsprechend untersuchen. Aus unserer Sicht spielt eigentlich keine Rolle bei der SEO. Das ist eher etwas, wo mit ihr arbeiten gehört. Okay, danke. Ich hätte noch eine Frage zum Keyword-Stuffing. Gilt das dann auch für die Navigation oder noch für den Inhalt? Also wenn man jetzt eine Navigation hat, in unserem Fall sind es Flaggen und wir haben da wahrscheinlich 500 mal Flaggen stehen, weil Flaggen 10 mal 15 oder Tischflaggen, also unterscheiden. Oder sollte man da auch vorsichtig sein? Wir versuchen schon die Hauptinhalte zu erkennen und ziehen das sogenannte Boilerplate ab. Und in der Regel ist beim Boilerplate die ganzen Navigationselemente dabei. Und von daher versuchen wir uns schon auf die die Hauptelemente zu konzentrieren auf einer Seite. Und vermute, da habt ihr weniger Probleme. Okay, also Keyword-Stuffing ist meistens nur im Haupt-Content dann praktisch passieren. Oder da sollte man sich nur auf konzentrieren. Ja, also es ist so, dass ich sehr selten sehe, dass unsere Algorithmen in Richtung Keyword-Stuffing Angst haben. Aber meistens wenn das vorkommt, wenn man die Source Code anschaut und danach sucht, dann fällt das extrem aus. Von dem her, ich denke, das kann man sich ja mal machen, dass man die Seite mal aufmacht und schwierig ist natürlich immer, wenn einzelne dieser Wörter in einer URL dabei sind, im Unterverzeichnis oder so. Aber wenn man mal schon mit der Suche nach einem Wort und ein Lehrschlag das ein bisschen herauslesen kann und sieht, dass man da wirklich hunderte Vorkommnisse von diesem Wort auf einer Seite hat, dann sehen wir es da vielleicht ein bisschen. Oder macht das wirklich noch Sinn für Benutzer, wenn wir diese Wörter so oft wiederholen. Manchmal betrifft das auch die Navigation. Wenn man ein Untermenu ausklappt und für alle Länder steht Land und Flagge, Land und Flagge kaufen, dann sieht das für Benutzer auch nicht wahnsinnig hilfreich aus. Okay, danke. Okay. Ja, ich glaube, das waren eigentlich soweit alle Frauen oder sind noch mehr gekommen. Strukturierte Daten zu seinem Unternehmen auf jeder Seite oder nur auf der Startseite. Soweit ich weiß, müssen wir das eigentlich nur auf der Startseite finden. Wenn das auf der Startseite ist, dann ist es eigentlich soweit. Okay. Die Informationen da sehen eigentlich soweit gut aus. Ich glaube, da ist auch die Telefonnummer dabei. Ich bin mir nicht hundertprozentig sicher, wie wir die Telefonnummer brauchen. Das müsste aber bei uns im Dokumentation auch dabei sein. Und wenn das soweit okay ist, sollte das eigentlich klappen. Ja, ich glaube, da haben wir jetzt fast alle Fragen durchgekriegt. Was gibt es aus eurer Sicht noch, was wir vielleicht sprechen sollten? Ich habe noch eine Frage noch mal zu der Borologenseite. Wir haben das Phänomen, dass wir nicht mal für den Eigennamen mehr auf Platz 1 ranken, weil es ja eigentlich Sinn machen würde. Weil es ist, die Domain ist der Eigennamen des Doktors. Und wir waren auf Platz 1. Wir sind jetzt abgeruscht auf nach dem Mobil oder Desktop. Und es ranken so viele von den Doktoren, der Netzdoktor oder beziehungsweise der Privatlinie, wo er operiert vor dem eigentlichen oder unser Domain. Es ist nicht in der Zeichen, dass da doch irgendwie technisch ein Fehler ist, oder vielleicht eine Penalty oder sowas, weil der Eigenname da ist ja auch ein paar Intentionen. Aber medizinisch ist sogar eine Frage irgendwie Absprache. Aber beim Eigennamen ist die Intention die an der Regationale, die man früh zu der Seite dieses Arzt sucht. Ja. Oder da haben wir einfach so eine Antwort. Ja, aber wenn ich es jetzt hier probiere, dann sehe ich eure Arbeit schon an erster Stelle da, aber das wäre wahrscheinlich etwas, was wir verbessern könnten. Ja. Oder ist es so, dass eben so seitdem die Doktfeinde oder ein Netzdoktor so einen Moment Fuß kriegt, haben sie das, die die jetzt überholen? Aber ich würde sagen, die verlinken ja zurück zu unserer Seite. Ich würde eigentlich meinen, wenn man nach dem Namen sucht, dass man da kurz in der Scheine müsste. Es ist ein bisschen schwierig, jetzt auf Anhieb dazu zu sagen, dann müsste ich wahrscheinlich ein bisschen genauer Informationen auch haben, wo ihr das genau sieht. Wenn ich jetzt hier nach dem Namen suche, finde ich das eigentlich immer an erster Stelle. Aber vielleicht steht der Dünn. Das ist auf Google AT vielleicht? Auf Google AT in Wien wo der Stammbett ist, habe ich eine Drehge hier auf das vorhin neutralen Browser und dann kommt die Webseite und dann kommt die Privatfliegen Dübling, die auch teilweise Tag und Tag unterschiedlich oder wobei man unterschiedlich vorhanden ist. Okay. Ich kann das mal mit dem Pin mal anschauen, aber das wäre eigentlich ein technisches Problem. Weil auf der Homepage ist ja der Name auch dabei, dass wir das eigentlich soweit erkennen können. Und die habt ja auch den Google My Business Eintrag da, glaube ich. Ja, wenn wir Google My Business Eintracht gerne strukturierte Daten zur Person, inklusive CMS Auszeichnungen mit Google Business Eintracht und auch den Doc Finder Profilen und so weiter, dann haben wir eigentlich alles da. Sagen wir es sehr komisch, eben weil man auch jetzt ein Limonieter runterfahren soll. Wir waren hier schon auf Seite 1. Ja, auf Seite 1. Ich schaue das mal mit dem Team an. Ob da irgendwie etwas leicht da komisch ist. Aber es ist natürlich immer ein bisschen schwierig, wenn andere Websites, sag ich mal große Profile dort auch haben, die Klinik oder ich weiß nicht wie verbreit der Doc Finder ist. Dann ist es natürlich immer ein bisschen Konkurrenzsituation da. Aber in der Regel sollten wir, gerade wenn man nach den Firmennamen sozusagen sucht, sollte man eigentlich das gut finden können. Ich schaue das mal hier an, ob wir da irgendwas machen könnten. Super, danke. Ich hätte dazu noch mal eine ähnliche Frage. Wenn jetzt der ursprüngliche Name geändert wird, wenn man nach dem alten Namen gesucht wird oder nach einer alten Brand gesucht wird, die würden Sie den alten Traffic abholen wollen? Das würden Sie da am besten empfehlen. Das ist immer ein bisschen schwierig, je nachdem wie das gehandhabt wird. Aber was ich sicher mal machen würde, ist zumindest auf den neuen Seiten, dass man trotzdem auch noch den alten Namen irgendwo dabei hat. Dass wenn unsere Algorithmen das anschauen, dass sie dann trotzdem irgendwie noch ein Bezug dazu haben. Meistens sollte es eigentlich so sein, dass wir, gerade wenn das jetzt ein Name ist, der früher eher verbreitet ist, sollten wir eigentlich den Zusammenhang trotzdem beibehalten können. Zum Beispiel aufgrund von Links zu diesen Seiten. Dass wir das sehen, das sind immer noch irgendwelche Links mit dem Anchor Text, vom alten Namen auf die Website. So sollten wir das eigentlich einigermaßen noch ein bisschen in Zusammenhang bringen können. Aber das ist auch immer ein bisschen eine schwierige Situation, denke ich, weil, wenn man ein ganzes Rebranding macht und dann nur mit dem neuen Namen aufhindebeist, dann ist das auch nicht wahnsinnig hilfreich. Man kann ja nicht den Namen quasi weiterleiten. Aber ich denke, wenn ihr weiterhin mit der gleichen Website zum Beispiel arbeitet, dann sollte das eigentlich so weit klappen, wenn man auch ein Domain- Umzug machen muss wegen den Namen, dann gibt das natürlich wieder ein bisschen Spierigkeitsstufe dazu. Aber es sollte eigentlich auch machbar sein. Ich habe mal eine Frage zur Mobilesuche. Und zwar wird in der Mobilesuche oft urls angezeigt mit einem kleinen Bild zu dem Artikel. Wenn man jetzt einen Suchbegriff eingetan sieht man halt ein Motiv vom Sprecher oder halt, was halt dazu thematisch passt. Das funktioniert nur bei uns zumindest, wenn ich das Bild genauso nenne wie den Suchbegriff. Sobald in dem Suchbegriff noch ein zweites Wort ist, zeigt zwar Google die gleiche Seite auch ganz vorne an, aber immer ohne Bild. Wie kann man denn in der Mobilesuche das optimieren, dass man eigentlich immer ein schönes Bild zu seinem Artikel haben möchte, wenn es geht, wenn es thematisch natürlich passt? Standardmäßig zeigen wir eigentlich keine Bilder da an. Ich vermute, dass vielleicht das jetzt suchen nach den einzelnen Personen zum Beispiel? Ja, oder man sucht zum Beispiel nach Sprecherpreise. Da gibt es bei uns eine kleine Grafik. Das ist wie eine Tabelle von Preisen, weil die sind ja auch zu finden. Die zeigt dann Google auch gleich daneben an. Und wenn ich aber Sprecher Honorare suche, bin ich zwar gleiche Positionierung, aber ohne Bild auf dem Handy. Ich finde das schöner, mit Bild dargestellt zu sein. Weiß ich jetzt nicht auf Anheb, ja. Wieso wir das da ausgesucht haben, probiere ich das jetzt gerade aus, probiere ich hier. Ich finde das natürlich auch schön. Aber normalerweise zeigen wir das eigentlich nur in speziellen Situationen an. Also wenn wir zum Beispiel erkennen können, dass vom Structured Data, dass da gewisse Sachen da sind, dass wir zum Beispiel erkennen können, dass ein Rezept da ist, dann kann man natürlich ein Bild vom Rezept zeigen. Bei Nachrichtenartikeln kann man ja auch Bilder angeben. Da kann man manchmal die Bilder übernehmen, aber dass wir da für allgemeine Suchbegriffe auch Bilder zeigen. Bei Personen ist das aber auch der Fall. Ja. Bei Personen auch manchmal, ja. Aber auf allen anderen Seiten ist es auch gut, wenn man die Serbs durch die ganzen Personen, also wenn man einen Namen sucht, selbst in einem berühmten, weiß ich nicht, Thomas Gottschalk, dann hat man lauter Serbs mit Bildern dazu, von unterschiedlichen Seiten. Aber geht man halt in den Details um den zweiten Begriff, dann wird kein Bild mehr gefunden. Wir haben jetzt auf bestimmten Seiten mehrere Bilder gemacht, nur mit verschiedenen Namen, aber das ist ja auch nicht der Sinn der Sache. Ja. Weiß ich jetzt nicht, auf jeden Fall, ja. Ich bin noch gar nicht veraufgefallen, dass da die Bilder sind. Also ich geh das auch für Flaggen kaufen zum Beispiel, ich habe auch extra ein Bild angelegt, damit wir ein tolles Bild haben, weil Google sich ein komisches Bild halt ausgesucht hat und ist bei uns auch. Cool. Klären wir beim nächsten Mal. Sieht immer was Neues. Okay, ist das jetzt neu oder habt ihr das schon immer so gesehen? Ich habe es vom Jahr entdeckt und dann habe ich gedacht, okay, ich muss Bilder machen. Und dann habe ich ein paar Tausend Bilder gemacht und das klappt dann auch, aber wie gesagt, nicht wenn ein zweiter Begriff da irgendwie drin rum ist. Es muss dann exakt so heißen wie das Bild heißt. Okay. Gut. Okay, gut zu wissen. Ich schaue mir das mal ein bisschen an, wo das genau herkommt und wie man da vielleicht nachhelfen kann, wenn jetzt das falsche Bild gezeigt wird. Aber immer was Neues dazu. Cool. Ich mache kurz dies verschicken, damit ich da eigentlich das nicht verpasse. Okay, cool. Ich habe noch eine Frage zu Linktexten. Viele SEO-Tools zeigen an, dass wenn man jetzt unterschiedliche Linktexte hat für die gleiche Seite, dass das ein Fehler ist. Meinst du, das ist kritisch oder ist es egal, wenn man jetzt zum Beispiel, also bei uns die Flaggen halt, wie immer, wenn wir jetzt Asien haben zum Beispiel, dass wir dann auch mit Asien Linktext in die Größe 10, 15, 20, 30, 30, 40 ist das egal? Das ist eigentlich egal. Ich glaube, die meisten SEO-Tools melden das an, einfach weil sie dann nicht 100% sicher sind, welcher Enkeltext für diesen Link gilt, aber aus unserer Sicht ist es eigentlich egal. Wie ist das bei URLs mit Unterstrich und Bindestrich? Wir benutzen ja seit Jahren Unterstrich und immer wieder les ich, man soll Bindestrich, dann steht dann, ist wohl nicht mehr interessant, aber die Funktion, um zu ändern, wurde ja auch wieder Racking kosten. Ja, wir haben das vor einiger Zeit mal wieder nachgefragt beim Team und in der Regel sind Unterstrich und Bindestrich allen für sich fast gleich mit einem Bindestrich, es ist ein bisschen einfacher für uns die einzelnen Wörter zu erkennen, aber wie du gesagt hast, wenn man jetzt die URLs verändert, dann hat man natürlich eine größere Webseite und dann hat man erstmal mehr Probleme, weil alles wieder ein bisschen ins Wankengerät, bis sich unsere Systeme da wieder neu eingerichtet haben. Das heißt, wenn man jetzt mit einer neuen Webseite anfangen würde, würde ich vielleicht eher Richtung Bindestrich gehen, wenn man bisher mit Unterstrich gearbeitet hat, dann würde ich das einfach beibehalten, bis man dann eh irgendwann eine größere Umstrukturierung macht. Die habe ich ja gerade hinter mir. Dann müsste ich jetzt 301 Umleitungen machen auf Unterstrich auf Bindestrich. Ich würde mir die Arbeit sparen, weil das wird garantiert viel länger brauchen, bis das alles verarbeitet ist. Bei uns ist das jetzt noch ein Mord. Das heißt, das würde nicht viel Arbeit sein. Ja, aber für unsere Systeme braucht das viel Zeit, weil was da an und für sich passiert intern ist, dass wir sehen, dass die Webseiten neu strukturiert ist und wir müssen dann die gesamte Webseiten neu untersuchen und neu verstehen. Und das ist dann wirklich eine größere Veränderung. Wenn man die URLs immer gleich behalten hat und dann die Inhalte verändert hat, dann können wir quasi die Signale auf den einzelnen URLs beidehalten. Wenn die URLs sich alle verändern, dann ist das für uns eine sehr große Veränderung. Auch wenn das nur Bindestrich Unterstrichwechsel ist oder Punkt HTML und HTML weg, solche Veränderungen sind für uns sehr große Veränderungen und die brauchen wirklich recht lange, bis sie sauber verarbeitet sind. Okay, weil dann wüsste ich vielleicht, warum es bei uns liegt, weil wir ja sehr viele Prozent 20 URLs früher haben, die wir ja auch alle auf Unterstrich umgestellt haben und davon waren es ja fast 50.000 oder sowas und die sind ja alle dann neu zu bewerten. Genau, also auch wenn man Weiteleitungen hat, also Weiteleitungen sollte man auf jeden Fall in so einem Fall haben, aber auch mit Weiteleitungen braucht es einfach sehr lange, bis wir das wirklich sauber kennen können. Cool. Ich muss heute ein bisschen früher Schluss machen, aber vielleicht nur als letztes noch zwischen euch, wir haben, ich glaube, in zwei oder zweieinhalb Wochen haben wir ein Google Dance in Zürich. Das ist ein kleiner, ich weiß nicht, Search-Event, wo ihr, wenn jemand in der Region Zürich ist oder in der Schweiz allgemein und vorbei kommen möchte, seid ihr gerne dazu eingeladen. Wir haben eine Registrierung Seite, wo man sich registrieren muss und würde ich mal vorbeischauen, wenn ihr Zeit habt zu kommen. Ich bin sicher da, jemand vom Search-Consult-Team ist da, wir haben unter Umständen jemand vom Assistant-Team, den vielleicht kurz etwas sagen können und sich auch viel Zeit für Fragen und Antworten. Okay, dann machen wir vielleicht hier Schluss. Wenn weitere Fragen kommen, seid ihr gerne eingeladen, die auch im Webmeister-Hilfeforum zu stellen und ich richte auf jeden Fall die nächsten Hangouts wahrscheinlich gegen Ende Woche, also das heißt Morgen wieder ein. Das heißt, wenn es noch etwas gibt, was wir besprechen möchten, einfach dort eintragen. Okay, bis, bis dann. Vielen Dank fürs Kommen, vielen Dank für die vielen Fragen und anregende Informationen. Auch was Neues dazu gelernt und vielleicht sehen wir uns dann einander mal wieder. Tschüss allerseits. Ciao. Tschüss. Ciao.