 Okay, herzlich willkommen zum heutigen Google Webmaster Essentials Sprechstunden Hangout. Mein Name ist Johannes Müller, ich bin Webmaster Trends Analyst hier bei Google in der Schweiz. Und Teil von dem, was wir machen, sind solche Hangouts, wo sich Webmaster Publisher entsprechend treffen können und wo wir uns die Fragen mal anhören können und Antworten geben können. Wie immer möchte ich es gerne so machen, dass wenn ihr am Anfang schon Fragen habt, mit dem ihr gerade anfangen wollt, dann könnt ihr gerne loslegen. Ja, ich hatte ja schon eine Frage gepostet, also... Okay, dann... Es geht um ein Problem mit Google Maps, was ich eigentlich für einen Wack halte. Man kann das gerne mal live nachvollziehen. Wenn man in Google Maps nach Hostel in Frankfurt sucht, gibt es nur ungefähr acht absurde Ergebnisse, wir sind nicht darunter mit unserer Seite, Five Elements. Wenn man jetzt diese Query irgendwie verfeinert, indem man also zum Beispiel Mindestrating aussucht, dann verkleinert sich nicht die Anzahl der Ergebnisse, sondern wie vergrößert sich, dann sind wir auf einmal dabei. Und selbst wenn man dieses Kriterium danach wieder löscht, dann ist mir trotzdem gelistet. Das heißt, die erste Ausgabe ohne irgendwelche Einschränkungen, die ist irgendwie zu sehr verringert. Und wir sind eben selbst nicht mit dabei, deswegen stört es uns. Was können wir tun, was haben wir falsch gemacht? Da kann ich leider nicht viel sagen, weil ich kenne mich mit der Maps-Seite, mit den Local Rankings nicht wirklich aus. Was ich da machen würde, ist im Maps-Hilfe-Forum, das wir posten. Diejenigen vom Maps-Team auch von anschauen können und überlegen können, was könnte das sein. Ist es vielleicht etwas, was man einstellen kann auf eurer Seite, oder ist es etwas auf unserer Seite, wo wir eigentlich die Ergebnisse falsch zusammenstellen. Aber im Maps-Forum sollte das eigentlich schon machbar sein. Gibt es dann ein ähnliches Forum, wie hier, mit Hangouts, oder gibt es nur auf dem Schriftwege? Ich glaube, die haben das nicht so per Hangout. Schade. Okay, danke. Ja, bitte. Darf ich vielleicht weitermachen? Mein Rechner fängt gerade hier, um den Lüfter hochzufahren. Okay, play close. Ja, danke. Ja, also meine Frage bezieht sich im Endeffekt auf Google, den Google-Index für die Defli-Partner-Seiten zur Verfügung gestellt wird. Und zwar beispielsweise Tier Online und WebDE. Die greifen auch auf diesen Google-CSE, auf diese Custom-Search zu. Und da habe ich das Problem, dass unsere Webseiten dort nicht im Index sind. Wir gehen es tatsächlich nicht direkt um die Position, sondern um den Index da. Also, dass die Seite sozusagen gar nicht damit drin ist. Was können wir da tun, damit die Seite dort wieder auch offenbar ist. Und zwar Tier Online, WebDE beispielsweise. Weiß ich auch nicht auf Anhieb. Ich habe die Frage vorhin mal gesehen und habe das CSE-Team weitergegeben, aber habe bis jetzt noch nichts zurückgehört. Grundsätzlich ist es so, dass gar keine Seiten von diesen Websites erscheinen oder dass einfach die Homepage nicht erscheint. Also, die sind grundsätzlich nicht da. Also, sie erscheinen einfach gar nicht. Witzigerweise, und das fand ich jetzt doch ein bisschen komisch, waren irgendwelche PDF-Dateien tatsächlich da sichtbar, aber keine Webseiten. Okay. Ganz komisch. Und meine Vermutung ging jetzt noch da in die Richtung Google Places, weil wir dort uns damals also Einzugsgebiet festgelegt hatten, als wo, in welchem Bereich wir sozusagen da ausliefern, dass das irgendwie vielleicht damit zusammenhängt, weil unsere Vermutung war halt, dass Tier Online und WebDE einen sozusagen nicht lokalisierten Index oder so zur Verfügung gestellt bekommen, dass das irgendwie noch eine Rolle spielt. Aber da bin ich mir halt nicht sicher. Kann ich mir eigentlich nicht vorstellen, aber ich weiß jetzt nicht, wie CSE das genau handhabt da. Ich sehe ja auch, das sind DE-Websites, von denen her sollten wir eigentlich auch merken können, dass das für die Deutschland-Websites sind. Das sollten die eigentlich auch normal in CSE und auch in den lokalen Ergebnissen erscheinen. Soll ich da einfach beim nächsten Hangout nochmal, oder wie? Ja, ich frage am besten nochmal nach, ich frage intern nochmal nach, ob sie da irgendwie vielleicht ein Tipp haben, was man machen könnte. Dass man das mal anschauen könnte. Vielleicht ist es auch so, dass es einfach bei Tier Online oder WebDE irgendwie auf ihrer Seite gefiltert wird, aber das sollten wir vom CSE-Team... Ich habe ganz halt noch meine eigene CSE selber angelegt, also ich für mich persönlich, und da ist das gleiche Phänomen, wie bei Tier Online und WebDE, also ich habe es direkt gemacht und geschaut, dass da nicht irgendwelche Filter sonst irgendwas drin sind und es ist das gleiche Problem. Okay, dann wird das wahrscheinlich etwas auf unserer Seite sein. Dann schaue ich mal nach, ob ich da mehrere aushängenden kann. Okay, also wenn ich da nicht zu Eurobase nochmal nachfragen, dann hoff ich halt, dass ich da noch mehr bekommen. Genau. Super, ja, dann danke schön. Okay, gut. Weitere Fragen. Ja, hallo John, grüß dich. Ich habe eine Frage von meinem Kunde, der hat eine Menge Seiten, die zu einem bestimmten Keyword, immer nur mit der Landingpage ranken, die mitbewerber, auch wenn sie lokale Landingpages anbieten, fast immer mit den Hauptseiten ranken und dies sogar auch zu Wörtern, die zwar dem Wortstamm herpassend, aber halt weder in den Links noch auf der Seite selber vorkommen. Ich habe zwar meine auch Vermutungen dahingehend, aber ich wollte dich mal nach deiner Meinung fragen dazu. Also tauchen quasi die falschen Seiten in den Suchergebnissen auch von der eigenen Website? Ne, die mitbewerberseiten sind einfach, da kommt immer die Stammseite ganz oben und bei uns kommen dann halt lediglich die Landingpages. Ich denke mir halt, weil dann denkt sich Google halt, dass wird der qualitativ bessere Content zu diesem Thema, in dieser Lokalität sein, aber halt grundsätzlich genommen, dann würde ich ja davon ausgehen, dass es dann auch besser ranken wird als der Hauptmitbewerber zum Beispiel, der dann halt mit der, nicht mit der Landingpage, sondern halt mit der Stammseite ranken zu dem Thema. Ja, vom Ranking her ist das natürlich schwierig zu sagen, weil wir verwenden da so viele verschiedene Faktoren, da lässt sich das nicht einfach quasi zurückverfolgen und sagen, dass es jetzt diese Sache, die da ausschlaggebend ist. Auch bezüglich der Homepage oder einer Unterseite, das sind Sachen, die vom Ranking her durchaus machbar wären. Dann würde ich jetzt nicht sagen, dass da irgendwie etwas falsch ist oder dass man das anders machen müsste. Ich vermute, das ist, ja, das haben unsere Ranking Algorithmen einfach so quasi herausgearbeitet. Was man natürlich machen könnte, je nachdem, was für Seiten das sind, auf der eigenen Website. Also ich denke, am ehesten konzentriert man sich natürlich auf die eigene Website, weil das kann man ja selber ändern. Die Seiten der Mitbewerber könnte ja nicht groß ändern. Was ich da vielleicht einfach überlegen würde, ist, ob diese Unterseiten so weit sind machen, ob das jetzt gute Seiten sind, ob man die vielleicht intern besser verlinken kann, dass wir quasi auch sehen, dass sie wirklich relevanter sind, intern innerhalb der Websites, so dass wir dann auch sagen können, gut für dieses Thema sind das wirklich die Topseiten, die wir anbieten können. Die können wir vielleicht auch im Ranking ein bisschen besser zeigen. Ja, das geht halt, weil die Mitbewerber, die haben halt auch lokale Seiten in dem Sinne und auch entsprechende Landing Pages, die halt dann zum Beispiel runtergebrochen auf die wirklich lokale Ebene und nicht nur Region, halt zwar auch existent sind, aber halt, wo man dennoch halt die Hauptdomain dann immer ranken sieht anstatt den anderen. Ich habe das echt durch und durch analysiert und ich komme da eigentlich nicht auf den grünen Zweig. Ja, ich könnte mir auch vorstellen, dass das unter Umständen in einem solchen Fall das Besucher dann trotzdem eher auf eure Seiten kommen, weil die einfach relevanter ist und von dem her ist das vielleicht gar nicht so schlimm, wenn bei ihnen die Homepage gezeigt werden, bei euch wirklich die Detailseite mit Informationen zu diesem Thema. Aber ich denke, ich würde mich jetzt nicht die Mitbewerber konzentrieren, weil wie gesagt, die könnte ja nicht verändern, sondern eher einfach auf der eigenen Website überlegen, was kann man machen, damit diese Seiten entweder relevanter werden, dass quasi intern besser verlinkt werden oder dass zumindest die Information, die dargestellt wird, soweit auch relevanter ist, dass wenn Benutzer auf diese Seiten kommen, dass sie wirklich auch ein ganz klares Call to Action haben und dann auch genau wissen, wie man da vorwärts machen kann, dass einfach vom Conversion Rate her, dass dann auf eure Seite zumindest auch besser läuft. Okay, dann danke ich dir erst mal. Ja, bitte. Okay, ich gehe vielleicht mal ein paar von den Fragen durch, die auch eingereicht worden sind und dann können wir da schauen, wie wir da vorwärts machen. Eine Frage von Stefan. Könntexte, die am unteren Seitenende platziert sind, negative Auswirkungen auf die SEO Performance haben, wenn ja unter welchen Umständen? Meiner Meinung nach sollte das eigentlich kein Problem sein. Wenn das jetzt normale Texte sind, die am unteren Ende der Seite platziert sind, dann ist das überhaupt keine Sache, dann sind das einfach Texte auf der Seite. Was wir manchmal einfach sehen, ist, dass Websites quasi am unteren Teil der Seite einen langen Fließtext noch dazu bringen mit allen möglichen Keywords, halbes Roman noch dazu beschrieben und dann sieht das auf unserer Seite dann schnell mal aus, wie Keywords da finden. Das heißt, wir erkennen dann schon, dass diese Texte auf der Seite sind. Wir erkennen vielleicht, dass das jetzt weniger relevante Informationen sind auf dieser Seite und denken wir uns vielleicht, ja, vielleicht ist diese Seite doch nicht so geeignet für dieses Thema, weil sie so viel anderer Informationen auch noch dabei haben. Aber ich hoffe, ich aufpassen würde. Ich muss allerdings sagen, ich sehe das immer weniger in letzter Zeit. Also es ist nicht mehr so, dass Websites einfach immer so noch diesen großen Stapeltext unter den Seiten anhängen, weil unser System erkennen eigentlich den Sinn der Seiten. Jeweils relativ gut. Eine Frage von Etzel. Was passiert, wenn meine AMP-Pages Backlinks bekommen? Ja, da die AMP-Pages über Google URLs erreichbar sind, würde mein Domain von den Backlinks überhaupt profitieren. So weit ich weiß, sollte das trotzdem funktionieren. Auf den AMP-Seiten ist ja jeweils ein Well-Canonico zu den normalen HTML-Seiten, also der normalen Web-Version und so können wir quasi diese Informationen von den Links jeweils weiterreichen auf die normalen HTML-Seiten. Die einzige Ausnahme, die ich da, bin ich jetzt nicht ganz sicher, wie das da gehandelt ist, wenn die Seiten quasi, die gecached Version quasi verlinkt wird. Das heißt, wenn wir AMP-Seiten finden, nehmen wir die in unser AMP-Cache und zeigen das über den AMP-Cache in den Suchergebnissen. Das heißt, jemand sieht dann quasi die Seite direkt vom AMP-Cache geladen, weil sie da ständig geladen werden kann. Meiner Meinung nach ist es aber so, dass sich das AMP-Cache per Robots Text blockiert haben, sodass der eigentlich nicht separat gekraut wird. Und wenn jemand natürlich auf die AMP-Cache-Version verlinkt und die per Robots Text blockiert ist, dann können wir da eigentlich nichts weitergeben. Was allerdings jetzt ein bisschen einfacher geworden ist, ist, dass wenn wir Seiten über den AMP-Cache zeigen, ist jetzt jeweils ein Links-Symbol oben im AMP-Bührer dabei, der direkt auf die normale Version der Seite verlinkt, möchte dann finden, mit man sehr schnell den normalen Link und dahin zu verlinken. Von dem her sollte das eigentlich weniger oft vorkommen, dass wirklich auf die AMP-Cache-Version verlinkt wird. Warum funktioniert die Website nicht richtig in PageSpeed Insights? Und da wird, glaube ich, verlinkt auf eine Seite. Ich muss das mal kurz anschauen. Ich habe das vorhin kurz kontrolliert. Und was ich gesehen habe, ist, dass da irgendeine Art IP-Blockade da vorhanden ist, welche verschiedene Redirects macht. Und was dann bei uns passiert, ist, wir sehen diese unterschiedlichen Redirects, die hier und hergehen. Und wahrscheinlich ist das irgendeine Sicherheitsfunktion, die auf dem Server eingebaut worden ist, da vielleicht Bots oder irgendwelche DDoS-Attacken irgendwie abzufangen, sodass sie keine Probleme anrichten können auf der Website. Aber das hält in diesem Fall uns auch davon ab, die Seite sauber zu testen. Weil wenn wir die Seite versuchen, aufzurufen, finden wir ein Redirect auf diese anderen Seiten und dann von dort aus wieder ein Redirect zurück. Und dann denkt man ja, das ist eigentlich ein Redirect, der hin und her geht, wieder auf die gleiche URLs. Also wird das ein endlos Redirect sein, dann nicht weiterverfolgen können. Das heißt, was ich da machen würde, ist vielleicht auf eurer Seite mal überlegen, wo findet diese Blockade stark. Lässt sich irgendwie einrichten, dass zumindest Google davon ausgeschlossen wird, kann man vielleicht diese IP Blockade sauber einrichten, sodass allgemein Suchmaschinen nicht davon betroffen sind. Oder ist es vielleicht so, dass nur das PageSpeed Insights Tool betroffen ist, aber die normale Websuche nicht betroffen ist, dann wäre es vielleicht auch weniger problematisch. Aber das ist wirklich etwas auf eurem Server irgendwo und wahrscheinlich etwas gut gemeintes, was vielleicht weniger Probleme sonst verursacht. Aber gerade für diese Test Tools wird das dann natürlich auch betroffen. Obwohl unsere Seite den Test of SSL Labs bestanden hat, haben wir eine folgende Meldung über Search Console erhalten. CDN vendor issued an invalid SSL TLS Certificate und Certificate Name doesn't include Domain Name. Beim Browser haben wir ebenfalls keine Probleme festgestellt. Kann Google mit Alternate Names und Certificates nicht umgehen und werden wir deshalb auf SEO sich keine Vorteile gegenüber unsicheren Zeiten haben. Ich habe etwas Ähnliches bei vielleicht zwei anderen Websites auch mal gesehen in letzter Zeit und da bin ich noch nicht ganz sicher was das genau sein könnte, ob das etwas ist, was wirklich auf der Webseite ist oder was eher auf unserer Seite ist, einfach beim Testen. Auf jeden Fall ist es so, dass wir beim Test Durchlauf haben gesehen, dass wir quasi ein Certificat gesehen haben, welches nicht genau auf den Server passt. Ich vermute, dass wenn das mit SSL Labs sauber klappt und wenn das ein Browser in der Regel sauber klappt, dann ist das kein Problem, sondern eher ein Problem auf unserer Seite, wie wir diese Certificate interpretiert haben. Auf jeden Fall ist es so, dass wenn wir die Seite mit HTTPS indexieren, das heißt in den Suchergebnissen, wenn die mit HTTPS erscheint, dann hat man einen kleinen Vorteil für die HTTPS Seite. Mein Kunde hat eine Menge Seiten, die zu einem bestimmten Keyword immer nur mit der lokalen Landingpage ranken. Ich glaube, das haben wir vorhin schon mal angeschaut. Was ich da vielleicht auch machen würde, ist auch vielleicht meinem Hilferforum Nachfragen und mal die Suchanfrage und die URLs, die du da siehst auch im Hilferforum mal posten, sodass andere das vielleicht auch mal anschauen können und dir gegebenfalls noch Tipps dazu geben können. Manchmal kommt das eine oder andere noch dabei heraus. Wenn ich in Search Console feststelle, dass die Click-Thru-Rate nicht sehr gut ist und ich die Metatags darauf im Ende aber wie lange dauert es etwa bis Google die neuen Tags in Suchergebnissen zeigt, das ist unterschiedlich. Einerseits kommen da zwei Hauptfaktoren zusammen. Einerseits müssen wir diese Seiten neu crawlen und neu bearbeiten. Das ist etwas, was bei uns regelmäßig und automatisch passiert. Man kann das ein bisschen verschnellern für einzelne Seiten, wenn man in Search Console über Fetch as Google geht und dann sagt, ich möchte das zum Indexieren weitergeben, das geht das in der Regel ein bisschen schneller. Aber normalerweise wenn man beliebige Seiten auf einer Website anpasst Metatag, Description oder Titel anpasst, dann kann das zwischen vielleicht mal ein paar Tagen und ein paar Wochen dauern bis die wirklich neu bearbeitet sind. Das heißt, in der Regel die wichtigeren Seiten crawlen wie ein bisschen häufiger. Zum Beispiel die Homepage, die Hauptkategorie in einer Webseite crawlen wir dann vielleicht alle paar Tage und die Detailseiten, die in der Regel sich weniger oft verändern, die crawlen wir entsprechend weniger häufig. Das kann durchaus sein, dass das vielleicht auch Monate geht bis wir die neu crawlen. Das heißt, wenn ich irgendwo tief in meiner Website ein Description anpasse oder ein Titel anpasse, dann dauert das erst einmal eine gewisse Zeit, bis wir das überhaupt merken, bis wir das überhaupt gecrawlt haben und neu bearbeitet haben. Danach kann es immer noch eine gewisse Zeit gehen, bis wir quasi verstanden haben, wie sich diese Seite verändert hat und wie wir die Titel und die Descriptions entsprechend verändern müssen auf diesen Seiten in den Suchergebnissen. Wir passen ja die Beschreibung und die Titel jeweils auch den Suchanfragen an. Das heißt, wenn ich nach etwas gezielten Suche in der Webseite und ich weiß, dass es jetzt vielleicht nicht im Meta Description dabei, dann nehmen wir auch Teil aus Meinhalte zu und zeigen die entsprechend. Und das ist etwas, was, sag ich mal, nach dem Indexieren kann das vielleicht noch ein paar Tage, vielleicht eine Woche etwa geben, bis das wirklich auch gemacht worden ist. Das heißt, zusammengefasst, wenn ich jetzt eine Seite anpasse und die Wert täglich gecrawlt, dann geht es einerseits ein paar Tage, bis wir das gecrawlt haben und indexiert haben und dann vielleicht mal bis zu einer Woche etwa, bis wir das in Suchergebnissen entsprechend angepasst haben. Führt der Bord mittlerweile Lazy Load für Images aus, denn wenn wir verschiedene Skripten Webmaster Tools testen, dann wird in der Preview Ansicht render als Google alle Images gerendert. Dies war vor ein paar Wochen noch nicht so. Schwierig zu sagen, da müsste man vielleicht ein paar Beispiel URLs anschauen und da könnten wir das ein bisschen genauer sagen. Wichtig ist vielleicht so zu sagen, dass Googlebot klickt natürlich nicht auf diverse Teile einer Seite und scrollt nicht unbedingt jetzt beliebig lang nach unten. Das heißt, wenn man Image Lazy Loading so verwendet, dass quasi zu einer bestimmten Scroll Position erst mal gelandt werden muss oder bestimmte Ausbewegungen abgefangen werden und das dann erst die Bilder geladen werden, dann kann es das nicht merken. Das ist vielleicht eine Variante da. Wenn hingegen die Standard-Bilder auf der Seite per Lazy Loading geladen werden, aber das gleich beim Aufladen der Seite passiert, dann ist das in der Regel weniger problematisch. Dann sehen wir diese Bilder ein bisschen schneller. Auf jeden Fall mit der Funktion in Search Console, mit Fetch and Render kann man sehr gut kontrollieren wie Googlebot das effektiv sieht. Denn da wird das wirklich mit dem gleichen System quasi angeschaut, wie wir das für das Indexing auch verwenden. Das heißt, wenn es jetzt dort sichtbar ist, dann sollte das eigentlich okay sein. Hallo John. Ich habe die Frage gestellt. Also beim Testen ist mir halt aufgefallen, dass der Bot wirklich bis komplett nach unten scrollt, bis zum Dokument endet und die verschiedensten Lazy-Lotscripts sind halt alle so geschrieben, dass dann natürlich immer gesagt wird, alle Images die da drüber liegen, die sollen alle geladen werden. Und jetzt ist da natürlich das Problem, dass dann natürlich die Payflow natürlich nach oben geht. Und ist das jetzt Ranking-Technik natürlich deswegen wiederum nachteil, weil der User ja in der Regel immer oben erst startet und er wird für ihn gar nicht erst geladen, sondern er ist wirklich beim Scrollen geladen. Das sollte kein Problem sein. Sollte er es nicht. Also zumindest im Moment ist es auf jeden Fall kein Problem. Ich denke auch in Zukunft, wenn wir das anders machen mit der Ladezeit in den Suchergebnissen, sollte das dann auch kein Problem sein. Also im Moment ist es so, dass wir ja versuchen, was der Benutzer effektiv sieht und was quasi vom Dauer her da effektiv gebraucht wird und dass wir da nicht die Googlebot-Crawls als Messfaktor nehmen für die Geschwindigkeit. Von dem her sinkt das eigentlich ganz getrennte Sachen. Wie das in Zukunft aussehen wird ist schwierig zu sagen. Ich vermute, da wird das auch unproblematisch sein. Gut, also brauchen wir aktuell nichts ändern. Ja. Also wenn die Bilder so indexiert werden sollen und wenn das soweit klappt, dann denke ich, ist das eine gute Sache? Das ist uns eigentlich relativ egal, ob die Bilder indexiert werden oder nicht. Aber wenn da halt irgendwie 500 Produkte angezeigt werden, geht es halt darum, dass da nicht 500 Produkte für den Board sofort geladen werden. Weil dann sind wir hier irgendwie bei 15, 20 Sek. Ladezeit. Was natürlich nicht passiert, wenn die Bilder nachgeladen werden. Das ist einfach die Problematik, die da gerade steht. Zumindest von der Zeit her ist das für uns kein Problem. Okay. Was ich da vielleicht machen würde, ist, dass wenn vom Crawling her die Server belastend zu groß wird, ist das mal wirklich einfach mit den Cash-Headers auch arbeitet, sodass ganz klar gesagt wird, diese Bilder können jetzt, ich weiß nicht, eine Woche gecashed werden, aber wenn es sich da aufrufen, neue Abfragen müssen. Okay, gut, danke. Okay. Eine Frage von Benedikt zu Interstitials. Intrusive Papa Penalty war es beabsichtigt, Seiten mit Geolocation Layer abzustrafen und dann ein Link zu einem Twitter-Seite. Weiß ich jetzt nicht, was da kommt. Aber grundsätzlich ist es so, dass wenn ein Pop-Up kommt, wo man weitere Informationen eingeben muss, dann ist das effektiv etwas, was wir damit abfangen möchten. Das heißt, wenn es rechtliche Gründe gibt für ein solches Pop-Up, zum Beispiel eine Altersabfrage, dann ist es natürlich etwas, womit wir umgehen müssen können. Oder wenn zum Beispiel ein Cookie-Dialog dazwischenkommt, dann ist es etwas, wenn eine Abfrage kommt, gibt eure E-Mail-Adresse ein oder eure Posteitzahl, dann ist es effektiv etwas, was wir mit dieser Änderung in den Suchergebnissen abfangen möchten. Und von dem her denke ich, macht das durchaus Sinn, dass wir da auch auf so etwas reagieren vom Algorithmus her. Was man da vielleicht machen könnte, wenn man so etwas machen möchte, um das zu sehen, dass man eher mit einem Burner arbeitet und das entsprechend einfach oberhalb oder unterhalb auf der Seite platziert, sodass die Hauptinhalte trotzdem noch sichtbar sind, dass da kein Interstitial dazwischen ist, sondern dass das eher quasi einfach eine Möglichkeit ist, die Informationen, die dargestellt werden, bis hin zu verfeinern. Wir hätten mit Ausblick zur internen Verlinkung ausreichen, in dem wichtige Links erst per Click eingeblendet werden. Derzeit ist ja hier die klassische Navigation besser. Grundsätzlich könnte das jetzt schon machen. Wenn ihr ein Menü habt, welches erst dann sichtbar wird, wenn jemand draufklickt, ist das aus unserer Sicht okay. Wichtig ist einfach, dass die einzelnen Menüpunkte erst per Click geladen werden. Das heißt, wenn das z.B. mit HTML und CSS quasi einfach sichtbar gemacht wird und unsichtbar gemacht wird, dann ist das aus unserer Sicht überhaupt kein Problem. Wir finden ja dann die interne Verlinkung, wir finden die Anchor Text, dann können dementsprechend weiterverfolgen in der Halter-Webzeit. Wenn das hingegen so ist, dass wenn ich auf den Menü-Pump oben klicke dann werden wir entsprechend gar nicht erst merken. Weil Googlebot weiß nicht, wo man überall drücken kann und dementsprechend sind dann die Menüpunkte für Googlebot unsichtbar, gar nicht auffindbar. Wir wissen dann auch nicht, wie wir die Webseite grauen können. In der Regel wird das aber nicht so gemacht. In der Regel ist es ja trotzdem so, dass das schon vorgeladen wird, nur schon aus Usability, aber auch auf dem Server macht man die Menüpunkte separat noch mal holen. Wo ist der Unterschied, wenn ich für das Structured Data Markup Rich Snippets die Inhalte gesondert per JSON oder Microdata in Quelcode einbinde oder in Webmaster Tools die Funktion Data Highlighter verwende? Grundsätzlich ist es aus unserer Sicht im Endeffekt ziemlich leicht. Das heißt, wir verwenden beide diese Arten, um die Structured Data mit den Seiten zu verknüpfen und die quasi für das interne Indexing weiterzuverarbeiten. Wichtig ist, vielleicht sind da verschiedene Sachen, sag ich mal, wenn man selber die Inhalte markiert, dann kann man natürlich genauer angeben, was genau markiert werden soll und dann ist man auch sicher, dass der Markup wirklich sauber auch verwendet wird. Wir müssen ja... Welches Datum ist jetzt das richtige Datum? Welches Datum kann ich da verwenden? Was ist jetzt wirklich der Titel und was nicht? Die andere Sache, die dazu kommt, ist, dass in Data Highlighter nicht alle möglichen Markup-Varianten unterstützt werden. Das heißt, wenn ich etwas Neueres verwenden möchte, was jetzt erst neu vielleicht in Structured Data verwendet wird von Google-Seite, kann es durchaus sein, dass man sich anbietet. Und von dem her sind das quasi die beiden Varianten, die ich da sehen würde. In der Regel würde ich das so machen, dass man mit dem Data Highlighter vielleicht anfängt und sich überlegt, wie kann ich Informationen von meiner Seite abfragen. Und dann im nächsten Schritt, wenn man damit zufrieden ist, dass man diesen Markup dann direkt auch in den Seiten einbaut, so dass man sicher ist, dass es wirklich immer so verwendet wird. Ich habe eine Frage gestellt. Dazu eine Frage. Was wird denn bevorzugt Jason-Format oder Micro-Format? Geht beides. Geht beides. Also gibt es da keine Richtung? Nein. Es ist nicht so, dass wir sagen würden, das eine ist besser oder das andere ist besser. Ich glaube, inzwischen ist es auch so, dass all die verschiedenen Markup-Varianten funktionieren für beides dieser Formaten. Das ist am besten für euch. Dann habe ich noch eine andere Frage bezüglich internationaler Ausrichtungen. Wenn ich jetzt quasi domainname.com slash Latin America quasi eine Unterseite für komplett Latin America oder für die Männerländer gebündelt habe, d.h. Middle East und Northern Africa, dann könnte ich theoretisch hingehen in internationaler Ausrichtungen die Domain oder die UL-Ein geben mit dem Unterverzeichnis des Landfreundens. Da vermisse ich nur in diesem Lockdown eine Sammeliste für die Männerländer oder für die Latin America. Wie mache ich das dann? Ja, das geht nicht so einfach. D.h. für Geotargeting muss man immer auf ein einzelnes Land das ausrichten. D.h. was man machen könnte ist entweder man sagt, Google kriegt das sowieso einigermaßen hin zumindest von der Sprache her dass man einfach sagt, ich mache gar kein Geotargeting für jetzt eine Untergruppe für einen größeren Anzahl von Ländern oder dass man mit dem hreflang markup arbeitet und mit hreflang kann man mehrere Länder angehen. D.h. diese Seite ist für Deutschland, Österreich und Schweiz und das ist die Seite für England für Australien und Amerika dass man das so untereinander verknimmt. Und ansonsten kann ich nicht einfach eine URL mehrmals als Property hinzufügen und dann jeweils immer unterfüllen. Ich vermute, das wird nicht gehen aber ich bin jetzt nicht sicher zumindest ist das nicht nicht gemeint so, dass man das so machen kann. Ich denke, man kann in Search Console die auch nicht separat mehrmals angeben und dann werden jeweils auch weitergeben, wenn man jetzt unterschiedliche Konten verwendet z.B. Und inwiefern spielt dann Google Places oder My Business eine Rolle? Ich hätte jetzt eine Unterseite Slash US für Amerika hätte dann Google Places für Amerika spielt das auch eine Rolle, wenn ich die beiden verknüpft habe? Ich meine auf der Websuche Seite spielt das keine Rolle ob man ein Google Places Eintrag hat oder nicht der Google Places Eintrag ist eher dann für die lokalen Suche d.h. innerhalb von Maps und da weiß ich nicht, wie das gehandhabt wird wenn man vielleicht mehrere Standorten auf die gleiche Landing Page hat weiß ich jetzt nicht, wie wir das machen. Also auch wieder Support, warum? Ja, genau. Und sonst besteht aber generell keine Möglichkeit nochmal per Webmaster Tools die Google Places Seite zu validieren. Ich glaube nicht ich glaube, das ist ganz getrennt. Und weißt du, ob es diesen Rail Publisher Techno gibt oder nicht verknüpft Design? Der Rail Publisher Tag war ja um die Google Plus Seite mit der Website zu verknüpfen weiß nicht was Google Plus da im Moment macht ob sie das überhaupt noch verwenden auf jeden Fall ist es etwas, wenn man jetzt eine Google Plus Seite hat und die verknüpft mit der Website hat das oder problematisch ist was man entfernen müsste ob man das noch machen muss Alles klar. Vielen Dank. Bitte. Da habe ich eine Frage von Reina gestern war das gestern das Problem hier gemeldet eine Stunde später aus dem Index geflogen wenn ihr etwas gegen meine Person habt dann lasst es mich wissen sicher nichts was persönlich ist ich glaube da irgendwo war noch die Anfrage mal kurz schauen ob das hier war Ah, das war eine Frage ob der Google irgend ein Problem mit meiner Website hat ich habe das kurz vor dem Hangout nochmal angeschaut und da ist effektiv nichts wo ich sagen würde dass wir da irgendein Problem mit der Website halten ganz kurz schauen ob das auch indexiert ist nicht dass da irgendwas noch rausgefallen ist in der Zwischenzeit sieht eigentlich normal indexiert auf meiner Seite von dem her sollte da eigentlich kein Problem sein aber das andere was da gemeldet ist das quasi mit den Jahreszahlen in den Titel dass da quasi noch 2016 steht statt 2017 das muss ich mit dem Titelsteam mal hier anschauen was man da machen kann damit das ein bisschen schneller erkannt wird weil unsere Systeme versuchen natürlich die Titel festzustellen von den Seiten aber auch intern mit der internen Verlinkung versuchen zu festzustellen wo jetzt welche Titel dann bestens zusammenpassen weil man den Kontext aus der internen Verlinkung relativ gut herausholen kann und da kann es doch auch sein dass diese Systeme sagen 2016 ist ein Teil von dem Titel war jetzt ein Jahr lang ein Teil von diesem Titel also halten wir jetzt ein bisschen daran fest weil das so gut gegangen ist im letzten Jahr mit 2016 aber vielleicht gibt es so ein Trick den wir da machen können um das ein bisschen schneller zu aktualisieren in einem solchen Fall aber ich müsste das mit hier anschauen hat das eine negative Auswirkung auf das Ranking wenn ich die Newsletterabbestellung auf 404 umleite nein zumindest vom Ranking Seite her ist es nicht problematisch wenn eine Newsletterabbestellung auf 404 geht ich denke für Benutzer wird das vielleicht nicht so optimal sein aber zumindest von der Websuche her wir sehen das wahrscheinlich dann auch gar nicht wenn das jetzt ein Link ist der immer nur per E-Mail verlinkt wird dann sehen wir den ja gar nicht in der Websuche ich habe ein Problem bei der Sichtbarkeit meiner Seite seit Ende Dezember kannst du das mal anschauen leider weiß ich nicht 100% woher die starke Verluste im organischen Traffic kommt vermutlich waren es die JavaScript-Anblick innerhalb von normalen Artags der Fehler ist seit Anfang Januar behoben sofern es ein algorithmischer Penalty ist wie lang dauert das ich habe mir das kurz angeschaut das war glaube ich die Telefon-Website und da war eigentlich nicht spezielles was aufgefallen ist also keine manuellen Maßnahmen auf unserer Seite, wo wir sagen würden das ist jetzt irgendwie vom Webspam-Team irgendwie abgefangen sondern das sind eigentlich normale algorithmische Rankings wie wir sie eigentlich sonst machen würden ich könnte mir vorstellen dass von der Qualität der Website da vielleicht ein paar Zweifels sind auf unserer Seite aber insgesamt ist es nicht so dass manuell etwas zurückhält sondern das ist eigentlich ganz normal die normalen algorithmische Rankings die da stattfinden von dem her würde ich vielleicht weniger auf die technischen Elemente fokussieren in einem solchen Fall sondern wirklich überlegen was kann man machen damit die Website insgesamt von der Qualität her wirklich einen Schritt weiter nach oben geht dann noch eine Frage in Englisch bezüglich Google Analytics-API using R da würde ich die Analytics-Forum vielleicht mal nachfragen da kann sie vielleicht erhelfen ich habe meine Probleme mit der internen Verlinkung wenn man einen Beitrag von Themenrelevanten Unterseiten verlängten muss dann der Inco-Text immer gleich sein mal angenommen, ich verlinke einmal mit Webdesign und aus einem anderen Beitrag mit Webdesign-Agentur Frankfurt auf die selbe URL von zwei Unterseiten ist so eine Verlinkung oder macht es immer den gleichen Buch irgendwo ist da Echo aus unserer Sicht her ist es so dass man wirklich beliebigen Enkel verwenden kann ich würde da einfach natürlich verlinken auf diese Seite und nicht einfach stuhr immer die gleichen Texte verwenden es ist ja auch normal dass innerhalb von einer Website mit einem anderen Text verlinkt wird und einmal mit dem Text verlinkt wird uns hilft der Enkel-Text ein bisschen zu erkennen was der Kontext ist von diesen verlinkten Seiten ebenso natürlich der ganze Text warum dieser Enkel es herum ist und von dem her wenn das ein bisschen variiert von Fall zu Fall ist das ganz okay wenn man immer das Gleiche verwendet weil das halt so im Menü eingebunden ist dann geht das also unserer Sicht auch unbedingt etwas wo ich da jetzt unnatürlich die Texte auf den Seiten anpassen würde nur damit man mit dem gleichen Enkel-Text verlinken kann wird eine Veränderung des Titels mittels JavaScript zum Beispiel bei der Single-Page Application von Crawlern & Middlet und in die Suche eingebunden es wäre nicht von Vorteil wenn bei der Suche nach einem Betrieb der geänderten Text angezeigt würde ja was wir da machen gerade bei Single-Page Application ist es ja so, dass man eine HTML-Seite hat und die wird dann jeweils angepasst per JavaScript mit den eigentlichen Inhalten dieser Seite d.h. Titel und Beschreibung können angepasst werden die ganzen Inhalte die dargestellt werden werden angepasst und wenn wir eine solche Seite Crawlern und indexieren wollen müssen wir ja JavaScript ausführen und sehen wir die veränderten Elementen auf der Seite d.h. wenn der Titel angepasst wird per JavaScript nehmen wir den neuen Titel, der am Ende quasi so sichtbar ist wenn die Beschreibung angepasst wird wenn well-canonical gesetzt wird oder robots-Metathag gesetzt wird dann nehmen wir all diese Sachen zusammen und verwenden natürlich die endgültige Version wie sie im Browser dargestellt wird und versuchen das für die Indexierung zu verwenden und von dem her kann man durchaus mit einem Single-Page-Application arbeiten wichtig ist einfach gerade beim Single-Page-Application ist das man saubere URLs verwendet die wie normale URLs aussehen d.h. man nicht mit diesen Fundzeichen arbeiten also nicht mit Fragment-URLs sondern es man wirklich mit klaren sauberen URLs arbeitet die auch sauber, separat crawl und indexieren können ich stelle immer wieder mal fest dass Google die Metathag selbst erzeugt und die von uns eingetragenen ignoriert ich weiß, dass Google manchmal denkt die Tags seien nicht gut genug und zieht daher Selbst-Tags und zeigt diesen Insuchergebnissen an leider wird das immer schlimmer und da stört er uns kurz gesagt grundsätzlich ist es so dass per Metathag das ausschließen kann dass Google die Beschreibung anpasst in den Suchergebnissen wir machen das zum großen Teil auch passend oder versuchen das zu machen passend zum Suchanfrage d.h. wenn wir erkennen können dass jemand nach etwas sucht was vielleicht nicht optimal im Meta Description abgedeckt ist dann versuchen wir eine eigene Beschreibung entsprechend zusammenzustellen zusammen mit den Meta Description aber auch vielleicht mit Inhalten die sonst auf dieser Seite sehnt was bei uns auch manchmal passiert ist es wenn wir erkennen können dass Titel oder Meta Description eher in Richtung Keywords dazugehen dann versuchen unsere Algorithmen das entsprechend auch quasi abzufangen und eher eine leichter leserliche Variante in den Suchergebnissen zu zeigen manchmal kann das natürlich auch sein dass unsere Algorithmen das falsch hinkriegen dass wir sagen dass es jetzt eine gute Beschreibung oder ein guter Titel für diese Seite aber ihr wisst dass das nicht der Fall ist und solche Fälle sind für uns immer praktisch weil wir die an das Team auch entsprechend weitergeben können je eindeutiger das natürlich ist dass das wirklich falsch ist umso eher kann man das mit dem Team dann auch gut besprechen von dem her sind so Beispiele wie jetzt hier in der Frage sind eigentlich relativ praktisch für uns wenn ihr weitere solche Beispiele habt wo bei einer Suchanfrage die Titel oder die Beschreibung wirklich schlecht sind dann wäre ich froh wenn wenn ihr die uns mal zuschicken könnt dann kann ich das mit dem Team anschauen dann von Stefan eine Frage zur Akkordeonfunktion um durch langen Text quasi abzukürzen dass man da vom Text dann entsprechend unsichtbar macht und erst nach dem Klick wieder sichtbar macht ist das problematisch oder ist es okay aus unserer Sicht ist es so dass zumindest im Moment mit dem Desktop der Index den wir haben erwarten wir dass die wichtigen Inhalte einer Seite effektiv sichtbar sind auf der Seite wenn die geladen wird das heißt wenn gewisse Inhaltelemente unsichtbar gemacht werden entweder mit so einer Art Akkordeon der sich dann quasi ausbreitet oder mit Tabs oder mit anderen UI Varianten dann nehmen wir an dass diese unsichtbaren Elemente vielleicht nicht so kritisch sind für diese Seite und dass wir die dann in der Suche vielleicht auch ein bisschen abwerten können die sichtbaren Sachen sind jetzt die Hauptinhalte und der Rest den können wir zwar, den können wir dann auch zeigen in den Suchergebnissen bezieht dann auch Sucht aber den nehmen wir vielleicht dann nicht für den Snippet oder den nehmen wir für andere Sachen Inhalte Suche dann nicht so dazu von dem her kann man das durchaus machen wenn man sicher ist dass jetzt die Texte die abgeschnitten sind wirklich nicht Hauptinhalte sind die kritisch sind für diese Seite mit dem Mobile Index ändert sich das ein bisschen weil gerade auf Mobile hat man natürlich viel weniger Platz zur Verfügung und da müssen wir mit solchen Sachen ein bisschen besser zurechtkommen und da wird es dann wahrscheinlich so sein dass wir diese unsichtbaren Elemente auch normal dazu zählen einfach weil wir wissen dass das auf Mobile viel schwieriger ist die wirklichen Inhalte immer auf Anhieb direkt sichtbar zu haben Darf ich da eine Zwischenfrage stellen? Ja klar Und zwar wie Hand habt ihr dann responsive Webseiten oder war das quasi implizit deine Anregung dafür dass man dann immer eine separate Mobile-Page zur Verfügung stellt? Ich würde vielleicht nicht auf Anhieb Ich würde nicht sagen dass man nicht mehr responsive Seiten arbeiten sollte und gerade auch im mobilen Bereich wissen wir ja dass das nicht immer möglich ist, dass man wirklich alle Inhalte auf Anhieb sichtbar hat und von dem her sehe ich da jetzt kein Problem ich denke responsive ist sicher eines der besseren Varianten wenn man mobile Seiten erstellt, weil das dann wirklich auf verschiedenen Geräten automatisch geht man hat die gleichen URL man hat dann nicht diese Probleme dass mal diese Seite indexiert werden mal diese Seite indexiert ist viel einfacher und von dem her würde ich auf jeden Fall empfehlen responsive Webseiten zu machen und gerade bezüglich dass sichtbar und unsichtbar machen wie gesagt auf mobile ist das viel weniger ein Problem als auf desktop Ja genau dann wird das ja dadurch auf desktop, weil momentan existiert dieser Bereich doch noch ausschlaggebend zu großen Teilen und dann würdest du ja quasi sagen damit dass man an sich für Leute die Möglichkeit haben eine Mobile-Zeit separat zur Verfügung zu stellen dass das die korrekte Strategie ist wenn sie solche Hidden Elements hätten ich denke dass wir das durchaus auch per responsive machen weil es ist ja so dass wenn wir den desktop index so indexieren dann auf der desktop Variante ist ja in der Regel sind ja die vollen Inhalte voran dann ist es wenn nicht so, dass da die Inhalte versteckt werden sondern eher auf der mobilen Variante werden die Inhalte ja dann ausgeblendet bei Okay Thank you Ja bitte Okay, da sehe ich noch eine Frage Wie kann ich das? In der Regel ist es so, dass wenn wir interne Verlinkungen sehen auf einer Seite die gibt es nicht keine Follow quasi blockieren dann ist es so, dass die die Inhalte nicht keine Follow dann versuchen wir die zu Cron wir Cron die nicht immer automatisch es ist durchaus möglich, dass wir eine Seite Cron und sehen, dass es sehr viele interne Verlinkungen dabei ist wo wir aber sagen gut, wir haben jetzt eine begrenzte Kapazität wir wissen jetzt nicht ob wir jetzt alle Seiten von dieser Website wirklich indexieren wollen dann folgen wir den auch entsprechend allen nicht also es ist nicht so, dass wir automatisch allen Links nachgehen und quasi den Website bis zum endgültigen Ende immer durch Cron von dem her ist es mal so, dass wir sicher nicht immer automatisch alles Cron wenn ein Link mit einem No Follow sehen ist, ist es so, dass wir kein Patreon weitergeben bei diesem Link es bedeutet aber nicht, dass wir diesen Link nie Cron werden vielleicht finden wir einen anderen Link da auf dieser Seite verlinkt oder ein Cron wenn die Seite es kann auch sein, dass wir sagen wir geben zwar kein Patreon weiter auf diese Seite aber wir sind vielleicht trotzdem mal neugierig um zu schauen, dass ob da irgendetwas ist was wir irgendwie indexieren sollten um das bei uns in den Suchergebnissen auch darstellen zu können da würde ich gerne nochmal ein bisschen genauer nachfragen okay und zwar das ging jetzt um eine Seite der Wahlen Presseartikel aufgelistet eigentlich nur verlinkt, nur die Überschriften wie die Presseartikel hießen und mir ist aufgefallen, dass diese Seiten mit den Presseartikeln obwohl die wirklich tollen Content haben nicht gerankt haben jetzt habe ich das Apollo gesetzt und habe dann nämlich gemerkt, dass die Rankings bei den Seiten angestiegen sind und habe mir jetzt überlegt, gut Google nimmt das schon als relevanten Content da war und denke jetzt auch dran unter den Artikeln dann wieder auf die einzelnen Themenseiten innerhalb der Website zu gehen und ich glaube dass das schon mehr Themenrelevanz ins Gesamtschaft ist das so korrekt waren die vorher auf No Follow oder? Nein, die waren nicht auf No Follow gesetzt, aber die Seite ist halt gerade vor sechs Wochen gelounscht worden und da habe ich halt geguckt über Webmaster-Konsone sind wo er jetzt indexiert aber die haben halt noch nicht wirklich gerankt, also Indexierung heißt ja auch nicht automatisch Ranken und das ist ja das was wir immer versuchen Ja grundsätzlich ist es so dass der Tag Follow und Index zum Beispiel eigentlich keine Bedeutung hat auf unserer Seite das heißt wir versuchen eigentlich nur die Tags zu erkennen, die quasi negativ gemeint sind dass wir jetzt kein PageRank weitergeben sollten oder dass wir die nicht indexieren sollen und gerade Follow und Index, wenn das angegeben ist ist aus unserer Sicht eh der Default-Zustand und wenn man jetzt bei einem Link noch angeht gleich Follow, dann denkt man gut das ist eh der Default-Zustand, also können wir das ignorieren das heißt wahrscheinlich ist es da jetzt eher Zufall gewesen dass sich das so jetzt verbessert hat Ich habe noch Link-Titels hinzugefügt das könnte auch den Auschlag gegeben haben Das kann sich auch sein Ja Von Anton noch eine kurze Frage im Chat der URL-Fehler Antwortcode 503 was bedeutet das 503 ist ein Temporwareer Fehler der in der Regel uns sagt dass im Moment können wir keine Inhalte vom Server kriegen vielleicht können wir dann später nochmal probieren die Inhalte abzufragen Fehlercoding macht vor allem Dancing, wenn man weiß dass das Server im Moment vielleicht überlastet ist oder wenn man jetzt gerade ein Umbau macht auf dem Server und wenn man da vielleicht einfach sagt gut im Moment ist das Server nicht erreicht aber nachher wird das aber wieder alles ganz normal zugänglich sein Ich denke das bezieht sich auch auf die andere Frage die da eingereicht worden ist unsere Website wird im Moment nicht mehr gekrawt Ich würde das vielleicht im Hilferforum mal angeben auch mit der URL von der Website so dass man das mal genauer anschauen kann und überlegen kann wo wird das jetzt blockiert weil das klingt effektiv so als ob der Server irgendwie ein Fehlercode zurückgeht und das wird deswegen mit dem Call quasi zurückgegangen sind oder denken gut der Server verträgt das im Moment nicht dann da noch eine Frage von Sascha seit kurzer Zeit geben wir bei auf einer Artikelseitenanstelle eines 200 mit Hinweis auf das verkaufte Produkt ein 410 Status Code aus diese Rückwerken für alle Artikelseiten und jetzt haben wir tonnenweise 410 Fehler in Search Console ist das ein Problem aus unserer Sicht ist das kein Problem 404 410 Fehler sind normaler Teil vom Internet wir crawlen sehr viele Seiten die früher mal existiert haben und jetzt nicht mehr existieren das ist ganz okay also muss man das sicher nicht spezielle Maßnahmen treffen dass Google da keine 404er Fehler sieht auf einer Website wir haben noch 2 Minuten Zeit aber vielleicht hat einer von euch noch eine letzte Frage die ihr einreichen wollt dann können wir das kurz anschauen nicht spezielles dann schaue ich mal ob ich hier noch ein bisschen mehr heraus holen kann manche von diesen Fragen sind relativ lang dann ist das ein bisschen schwierig die abzukürzen mal schauen wir haben eine Dotcom die eine globale Website ist alle anderen Länder ein eigenes Unterverzeichnis also Stich US mit identischen Inhalten in derselben Sprache zur Verfügung wie kann ich in Webmaster Tools Content verhindern beziehungsweise wie sollte der Canonical Tag sein in einem solchen Fall würde ich auf jeden Fall mit hreflang arbeiten da kann man dann gezielt sagen das ist zwar die englische Version für USA und das ist die englische Version für UK zum Beispiel vielleicht eine Version für Australien oder eine globale englische Version das kann man sehr gut mit hreflang angeben das ist dann einfach pro Seite also nicht für die gesamte Website oder ein Unterverzeichnis sondern effektiv für die einzelne Seite wird dieses Produkt hier und dieses Produkt da zum Beispiel mal schauen das haben wir da noch wir wollen quasi unsere Website aufteilen wir entziehen den alten Domain Inhalte und leiten diese entsprechend per 301 auf ein neuer Website weiter welche Probleme können damit da aufteilen grundsätzlich ist es so dass wenn man eine Website aufteilen oder wenn man eine Website zusammenführt dann ist das immer ein bisschen schwierig aus unserer Sicht weil wir anfühlen sich diese 2 Websites dann neu beurteilen müssen und das kann dann durchaus zur Folge haben dass es für eine gewisse Zeit durchaus rechte Schwankungen in den Suchergebnissen gibt bis wir wirklich wissen wie sollen wir die 2 unterschiedlichen Websites jetzt neu beurteilen welche Inhalte gehören wohin was ist der Kontext von den einzelnen Inhalten wie haben sich die Seiten verändert welche Seiten sind weitergegangen auf einen neuen Domain welche sind vielleicht zusammengeführt worden und das ist durchaus etwas wo ich sagen würde da muss man mit mehreren Wochen vielleicht auf Monaten rechnen bis sich das wirklich auf einen stabilen Untergrund dann wieder zurückfügt und von dem her würde ich sagen wenn das wirklich für euch wichtig ist dann müsst ihr das halt machen vom Zeitpunkt her würde ich einfach schauen dass ihr einen Moment vielleicht findet wo ihr nicht auf die Besucher von der Suche angewiesen seid das heißt vielleicht nicht gerade ein Zeitrahmen wo viele Leute über die Suche zu euch aus Kunden kommen sondern wo ihr vielleicht ein bisschen erflauter habt wo ihr solche Umstellungen machen könnt oder einen Zeitpunkt wählen wo ihr dann vielleicht alternative Methoden habt um auch traffic für die Website zu organisieren dass ihr vielleicht sagt dann machen wir eh eine große Werbekampagne also können wir das selber gleichzeitig machen die Besucher kommen dann trotzdem zu unserer Website weil sie dann über die Werbekampagne vielleicht kommen aber auf jeden Fall wenn man jetzt nicht nur ein Umzug von der gesamten Website von einem Domain zum anderen macht sondern ein Domain aufteilt auf zwei Websites oder zwei Websites zusammenführt und eine Website daraus macht dann ist es etwas was einfach ein bisschen schwieriger ist für unsere Systeme sauber zu verarbeiten und das braucht eine gewisse Zeit ok jetzt sind noch ein paar Fragen übrig was ich vielleicht machen würde in solchen Fall wenn eure Frage nicht dran gekommen ist dass ihr vielleicht mal im Hilfeforum das postet dann kann sicher dass jemand anders auch mal anschauen und überlegen ob man da eine Antwort findet ansonsten werde ich das auch so machen dass wir die nächsten Hangouts wieder aufstellen und da könnt ihr da die Fragen wieder einreichen und können wir schauen ob wir zu den Fragen dann das nächste Mal kommen ok mit dem möchte ich mich bei euch dann erstmal bedanken, danke fürs kommen danke für die vielen Fragen und vielleicht sehen wir uns in eins wieder Herzlichen Dank auch zurück Danke, Tschüss Tschüss