 Okay, herzlich willkommen beim heutigen Webmaster Essentials Sprechstunden-Hangout. Mein Name ist Johannes Müller. Ich bin Webmaster Chance Analyst hier bei Google in der Schweiz. Und ein Teil von dem, was wir machen, sind solche Webmaster-Hangouts für Webmaster und Publisher, alles rund um die Websuche hauptsächlich. Wie immer sind da schon einige Fragen eingereicht worden. Wir können die an und für sich durchgehen. Aber wenn einer von euch möchte, seid ihr auch gerne eingeladen, schon mal die ersten Fragen mit den ersten Fragen loszulegen. Wenn nicht, dann können wir das auch. Okay, wagt seiner. Ich habe die Frage im Chat gestellt. Ich würde mich interessieren, wie Google-freundlich sind Baukastensysteme, wie WIX oder andere? An und für sich sollte das relativ problemlos gehen. Die meisten größeren Baukastensysteme sind eigentlich aufgebaut auf einer Basis, die relativ gut funktioniert für die Suche. In der Regel sind da eher die Unterschiede bezüglich der Art von der Bedienung, wie einfach das ist, da Websites zusammenzustellen und ein bisschen auch mit den Möglichkeiten, die man hat. Das heißt, wenn man irgendwie fortgeschrittene Elemente verwenden möchte in der Suche, dann ist es manchmal ein bisschen schwierig mit allzu vereinfachten Baukastensystemen. Aber für normale Websites sollte das problemlos funktionieren. Vielen Dank. Okay, sonst fangen wir mal an mit den Fragen, die eingereicht worden sind. Wenn ihr zwischen euch weitere Fragen oder Kommentare dazu habt, einfach nur loslegen, kann man das auch machen. Okay, eine Frage zum hreflang tr-at. Kannst du uns das empfehlen, wenn wir Personen bei Google ansprechen wollen, die in Österreich sind und deren Computer auf Türkisch eingestellt sind? Funktioniert das auch auf einer AT-Domain? Ja, funktioniert auf jeden Fall. Also mit hreflang ist ja vorne die Sprache und hinten quasi die Länderversion von dieser Sprache. Das heißt, man könnte problemlos türkische Benutzer in Österreich so ansprechen. Wahrscheinlich wäre es einfacher, wenn man nur die Sprachvariante nimmt, in dem Sinne, dass man dann die verschiedenen Varianten dann nicht noch durchgehen muss. Das heißt, dass man nicht noch türkisch für Besucher aus Deutschland für Besucher aus der Schweiz oder aus anderen Ländern zusammenstellen müsste. Sondern dass man einfach sagt, gut, das ist jetzt die türkische Version von unserer Homepage und das kann man bei allen dann zeigen, die in dieser Sprache entsprechend suchen. Okay. Super, danke. Eine kleine ergänzende Nachfrage hätte ich jetzt in die Kondomin. Und möchte, habe ich hier eben verschiedene Länderweiter, geht es vielleicht um Währungen oder gesetzliche Bestimmungen etc., dann wäre das schon eine Möglichkeit, eben zu sagen RT, TR, damit man eben Personen wie türkische Computer in Österreich oder wo auch immer ansprechen würde. Genau, genau. Also man kann mit hreflang kann man auf jeden Fall mit jeder Domain-Variante arbeiten, also auch auf einer RT-Seite. Geotargeting, da müsste man das entsprechend entweder mit einer TR-Domain arbeiten, speziell für das Land oder mit einer generischen Domain wie Punkt.com und dann ein Verzeichnis oder ein Subdomain entsprechend für Geotargeting einzurichten. Geotargeting ist dann relevant, wenn man sieht, dass Benutzer in diesem Land eher nach lokalen Inhalten suchen und wenn man wirklich da etwas zu bieten hat. Wenn das jetzt zum Beispiel eine allgemeine online Dienst ist, dann ist das vielleicht nie unbedingt etwas, wo man Geotargeting noch dazu braucht, weil dann suchen sie einfach allgemein nach dieser Dienstleistung und nicht speziell mit dem Hintergedanken, dass es jetzt etwas lokales sein muss. Okay, vielen Dank. Super. Ich habe sehr viele Seiten, die im Moment in Search Console mit crawled und currently not index sind. Mein Website ist circa vier Monate alt, weil der Crawler ist November über die Seite gegangen. Warum sind sie noch nicht indexiert? Wir indexieren grundsätzlich nicht alle Seiten. Das ist eigentlich normal. Das heißt, es kann durchaus sein, dass wir viele URLs mal gesehen haben auf einer Webseite und das wird sich einfach nicht indexieren. Entweder, dass wir sie gar nicht erst crawlen. Wenn wir noch nicht wissen, ob es sich lohnt, die wirklich zu crawlen oder wir crawlen sie kommen einfach im Moment noch nicht dazu, die auch effektiv zu indexieren. Das heißt, grundsätzlich ist das kein Problem. Gerade auf einer neuen Website kann das auch so sein. Ist das eher normal, weil wir müssen ja erst mal verstehen, wo wir diese Website zeigen sollten in Suchergebnissen und welche Inhalten dafür relevant wären. Im Laufe der Zeit sollte sich das einigermaßen einpendeln. Was ich machen würde in so einem Fall ist, die URLs auch mal anzuschauen, die da erwähnt werden. Manchmal ist es so, dass wir vielleicht ein duplikart von diesen URLs sonst wo schon gefunden haben und die schon indexiert haben. Dann ist es eigentlich nicht weiter kritisch. Wenn man sieht, dass es sehr häufig so passiert, könnte man sich auch vielleicht ein bisschen überlegen, wo kommen diese URLs her, die Google da gefunden hat, die nicht indexiert werden. Muss ich da vielleicht etwas machen, damit Google die gar nicht erst findet? Das sind das Produktevarianten mit einer Session ID oder mit einer anderen Idee, die das Ganze so machen, dass man viele Varianten von diesen URLs findet, aber dann eigentlich nur eine Version für die Indexierung braucht. Wenn man das vereinfachen kann, dann müssen wir weniger crawlen. Dann gibt es weniger dieser Meldungen in Search Console und dann können wir uns ein bisschen besser auf die URLs beschränken, die man wirklich indexiert haben möchte. Aber grundsätzlich ist es nicht unbedingt ein Zeichen, dass das etwas kritisch kaputt ist oder dass das anders ablaufen müsste. Mir ist nicht klar, wie backlinks bewertet werden, wenn diese wiederkehrend auf allen Seiten erscheinen. Zum Beispiel wenn man in einem Twitter ein Link hat, wie bewertet das Google? Ist das vielleicht problematisch oder nicht? Grundsätzlich ist das total normal. Das ist etwas, was sehr häufig passiert auf dem Internet, dass man da vielleicht einen Link im Futter hat oder einen Sidebar, das einfach wiederkehrend auf einer ganzen Webseite vorhanden ist. Wir würden diese in der Regel in Search Console auch zeigen. Vielleicht zeigen wir nicht alle, sondern wir suchen einen relevanten Teil von diesen URLs aus und zeigen die in Search Console. Aber grundsätzlich finden wir solche Links. Wir können die bearbeiten. Wir nehmen die für unser normales Crawling Index und Ranking dazu und können damit eigentlich problemlos umgehen. Also es ist nicht so, dass ihr da irgendetwas Spezielles machen müsst, dass es eigentlich ein normaler Teil vom Web ist. Wir haben in den letzten Tagen unheimliche hreflang Probleme. Google hat den deutschen und österreichischen Shop mit dem schweizerischen Shop kanonisiert. Alle Shops haben den gleichen Content. Das lässt sich leider nicht ändern. Funktioniert hreflang, wenn ich RT, CH auf No Index setze und DE im Index belasse. Sven im Forum hat geschrieben, dass die Canonikos auf Hin und Her wechseln können. Aktuell sind alle Homepages nach RT kanonisiert. Die Produkte wiederum nach CH kanonisiert. Das ist ein Schweizer Frankenpreise in Deutschland. Das klingt ein bisschen verwehrend und komisch. Wahrscheinlich müsste ich da mal die URLs mit dem Team direkt anschauen. Mal schauen, was da schiefläuft. Ich weiß, du hast mit dem Thema schon eine Weile gekämpft, dass wir da manchmal die falschen Versionen herausgezogen haben. Und das klingt fast so, als ob man da vielleicht auf unserer Seite ein bisschen mehr ansetzen müsste, damit das weniger bei dir auch klickefremd. Also ich schau mir das mal kurz an. Wenn du magst, mit mir ein E-Mail schicken, mit Beispielen oder ein Link zum Forum Thread, das ich da auch nachschauen kann, dann wäre das vielleicht auch praktisch. In den Suchergebnähen erscheint in den Sightlings neben Themen, die auf unsere deutschen Hauptdomain lenken, auch ein Sightlink, der auf unsere englischsprachige Subdomain führt. Obwohl sowohl Inhalt von der Hauptdomain als auch vom Subdomain. Ist das grundsätzlich ein Problem? Oder was kann man da machen? Grundsätzlich ist es so, dass Sightlings eigentlich normale Suchergebnisse sind, die wir einfach zusammenfassen und denken, die gehören irgendwie zusammen. Und da kann es durchaus sein, dass die auch von anderen Subdomains kommen. Manchmal kann das sogar sein, dass die von anderen Domains kommen. Wenn wir erkennen können, dass die zusammengehören, dass es ein bisschen einfacher für die Besucher ist. Von dem her ist es grundsätzlich nicht etwas, wo ich sagen würde, wir machen das falsch. Bezüglich der unterschiedlichen Sprachen, was man da machen kann, ist mit hreflang zu arbeiten, damit wir das besser erkennen können. Ich habe gesehen, ihr habt hreflang angerichtet, aber für DE-DE und EN-US, nur für die beiden Varianten. Das heißt, für alle anderen Varianten, die wir hätten, wenn zum Beispiel jemand aus Österreich oder aus der Schweiz sucht, dann würde diese hreflang Verbindung eigentlich nicht zutreffen. Und dann könnte es durchaus sein, dass wir das entsprechend zeigen in den Suchergebnissen. Was ich da machen würde, ist ein bisschen den hreflang breiter ansetzen. Das heißt, das ist die deutsche Version insgesamt. Und das ist die englischsprachige Version insgesamt, und dass man die beiden so verknüpft. Das heißt, weniger nur für diese Sprach- und Landvarianten, sondern wirklich sagen kann, das ist die Sprachvariante, das ist die andere Sprachvariante. Dann können wir das eher ein bisschen auch so entsprechend verknüpfen. Und dann sollte das auch ein bisschen besser klappen. Ich habe vorhin kurz gesucht hier, zumindest in der Schweiz sehe ich die englische Version nicht. Was auch ein bisschen vielleicht kritisch ist in diesem speziellen Fall, ist, dass die Suchernfrage, die du da verwendet hast, the American Dream US MISA Service ist ja eigentlich auf Englisch. Das heißt, unsere Systeme sind da wahrscheinlich ein bisschen verwirrt und wissen nicht genau, sucht da jemand auf Englisch oder sucht da jemand auf Deutsch. Und dementsprechend kann es schon auch sein, dass unsere Systeme dann sagen, vielleicht meint der Besuch, benutzt er jetzt eine englische Version, sollten auch die englische Version dann zeigen. Das vielleicht etwas da auch ein bisschen das Ganze kompliziert. Was auch diesbezüglich ein bisschen kritischer ist oder vielleicht ein bisschen verwirrender ist, auf unserer Seite ist, wir versuchen die Sprachvariante zu verifizieren auf den Seiten. Das heißt, wir versuchen festzustellen, ist das wirklich jetzt eine deutsche Version oder ist die als deutsche Version markiert, aber eigentlich ist das eine englische Version. Und wenn da sehr viele englische Inhalte auf diesen Seiten wären, auf der deutschen Variante, dann könnte es sein, dass unsere Systeme sagen, ja, es sieht aus, als ob der Wettmeister da vielleicht ein Fehler gemacht hat und als ob das jetzt nicht effektiv die deutsche Version dieser Seite ist, sondern vielleicht eine englische Version oder vielleicht ist es so gemischt, dass wir nicht hundertprozentig sagen können, was die Hauptversion da ist. Wenn ich den Titel anschaue, könnte ich mir vorstellen, dass so etwas passiert. Ich weiß jetzt allerdings nicht, wie die Inhalte gezielt aussehen da. Wenn die Inhalte sonst wirklich alle auf Deutsch sind, dann ist das weniger ein Problem. Dann eine Followerfrage zum hreflang, kann Google per Preis-Specification Structured data verschiedene Währungen in der Suche ausspielen. Im Moment erscheinen ja die Schweizer Frankenpreise in Deutschland, könnte ich alle Produkte mit Euro und Schweizer Franken auszeichnen. Wäre das eine Möglichkeit? Meines Wissens nehmen wir nur ein Preis, den wir finden auf diesen Seiten und zeigen den. Das heißt, wenn man mehrere Preise verwendet, könnte ich mir vorstellen, dass diese Structured data ist momentan ungültig und dass wir den gar nicht verwenden auf diesen gezielten Seiten. Man kann das relativ einfach testen mit dem Structured Data Testing Tool, indem man die verschiedenen Varianten mal ausprobiert und schaut, funktioniert das, wer das als Fehler erkannt, oder ist das soweit okay von unseren Systemen. Grundsätzlich verwendet das Structured Data Testing Tool die gleichen Tests wie unsere Systeme intern. Das heißt, wenn es im Structured Data Testing Tool gut aussieht, dann sollte das auch in den Suchergebnissen gut aussehen. Ich benutze viele Kürzel, wie z.B. ZH, für Zürich. Kann Google diese interpretieren? Ja. Meistens. Man kann das sehr gut selber auch ausprobieren, indem man in der Suche einfach nach diesen Kürzel mal sucht was da als Synonym quasi erkannt wird. Wenn ich z.B. nach ZH suche, dann sehe ich viele Zürich-Einträge. Wenn ich nach anderen Abkürzungen suche, dann sehe ich da auch viele andere Einträge. Ich könnte mir vorstellen, dass es vielleicht nicht für alle Kantone geht, weil vielleicht gibt es auch eine Überlappung zwischen Kürzel, die für andere Länder auch relevant sind oder in anderen Sprachen oder für andere Begriffe stehen oder dann irgendwie überlappt. Aber zumindest bei ZH, für Zürich scheint das zu klappen. Meine Frage bezieht sich auf die URL-Parameter in Search Console. Crawl Google AJAX Scripts, wenn ein Parameter der AJAX-URLs mit keine URLs Crawl konfiguriert ist in Search Console. Oder gilt diese Einstellung nur für HTML-Seiten, die in der Suche angezeigt werden können. Die AJAX-Scripts werden per Onload genutzt werden. Grundsätzlich gelten diese Parameter in Search Console für das Crawl und indexieren von Seiten für die Websuche direkt. Das heißt, das würde in diesem Fall nur zutreffen, wenn wir das Gefühl hätten, dass diese AJAX-Scripts auch separat indexiert werden müssten und nicht quasi als Teil einer bestehenden Seite. In diesem Fall wäre das überhaupt kein Problem. Wir können die Seiten normal Crawl. Beim Rendern rufen wir diese AJAX-Scripts auf. Egal ob die per dieser Einstellung der URL-Parameter sonst für die normale Suche blockiert werden. Das ist ähnlich wie zum Beispiel mit einer Robots-Text-Datei, wenn ich die auch mit diesen Parametern irgendwie sperren würde, dann würden wir trotzdem die Robots-Text-Datei oder mit einem CSS oder einem Bild dann würden wir diese Bilder, wenn die innerhalb einer Seite eingebunden sind, würden wir die trotzdem entsprechend aufrufen, um diese Seite aufzubauen. Eine Frage zur Darstellung von Microdata in der organischen Suche. Jedes Produkt besitzt bei uns ein Canonical Page das Produkt gibt es zusätzlich in verschiedenen Varianten, die mit entsprechenden URL-Parameter abrufbar sind. Preis und Availability kann zwischen den Varianten variieren. Wenn wir nun auf der Canonical-Product-Page den Microdata jeweils alle Varianten als Offer verwenden, welche Information wird für die organischen Suche-Ergebnissen verwendet. Grundsätzlich, was ich da machen würde, ist die Structure Data zum Hauptprodukt dieser Seite entsprechend auszurichten. Das heißt, wenn man da verschiedene Varianten hat, würde ich versuchen, eine Variante als quasi die Standardvariante zu nehmen und den entsprechenden Structure Data für diese Variante entsprechend auszurichten. Das heißt, wenn zum Beispiel verschiedene Farben da sind, dann würde ich einfach und wenn man die Seite aufmacht, wird ja die Seite irgendein Standardvariante schon mal sichtbar sein und auf das entsprechend den Structure Data auszurichten. Wenn die einzelnen Produkte so sind, dass sie grundsätzlich unterschiedlich wären, dann würde ich mir überlegen, vielleicht auch separate URLs zu machen für die einzelnen Varianten, wenn die wirklich sehr unterschiedlich sind und eigentlich auch ganz andere Structure Data-Varianten dabei haben. Zum Beispiel, wenn bei einem Produkt irgendeine Farbvariante besonders beliebt ist und gezielt nach dieser Variante gesucht wird und das vielleicht auch eine Variante ist, die nur ein limitierter Auswahl da ist, dann könnte ich mir vorstellen, dass man das gezielt auf separate auf eine Seite nimmt und dass man dann da mit Structure Data das gezielt auf diese Variante entsprechend anpasst. Wir möchten möglichst aller Schema.org auszeichnen für Movie TV Series, TV Episode TV Season und Live TV auf die entsprechenden URLs einbinden. Diese wurden bei euch auf der Seite im Bereich Watch Actions umgezogen um laut den Angaben, für die laut an den Angaben eine Partnerschaft bestehen muss. Werden diese Auszeichnung Properties auch in Web-Bereich gespielt, wenn man kein Partner ist. Beispielsweise hat das Markup dann ein Effekt, falls die Partnerschaft abgelehnt werden sollte. Meines Wissens werden die nicht verwendet, wenn die Website nicht explizit für diese Varianten auch freigeschaltet ist. Das heißt, es ist überhaupt kein Problem, dass ihr diesen Markup verwendet. Es hat auf jeden Fall keinen Nachteil, aber bis das freigeschaltet ist für diese Website, werden die nicht dargestellt. Normalerweise passiert das so, dass wir das in dieser Art machen für Bereiche, wo wir noch nicht 100%ig sicher sind, wie sich das entwickeln wird, wo wir da vielleicht erst ein paar Testläufe machen möchten und dann später versuchen wir das entsprechend auszubreiten und sagen, gut, wir können für die Datenqualität Sorgen mit unseren Algorithmen, wir können das sauber erkennen, wir können das sauber einreihen. Es funktioniert auch so weit. Jetzt können wir das quasi für alle Websites freischalten. Und ein bisschen spielt da auch eine Rolle, wie weit wir diese Information erstmal auf dem Web auch wirklich finden. Das heißt, wenn sie niemand eingebunden hat, dann kann es sein, dass unsere PMs dann auch sagen, gut, es verwendet im Moment sonst niemand anderes, also müssen wir das gar nicht groß freischalten. Aber wenn ihr das schon eingebaut habt, dann ist das natürlich auch ein kleiner Anreiz für uns, dass wir sagen, gut, das sieht eigentlich so weit gut aus. Wieso schalten wir das nicht jetzt auch frei? Das heißt, ich würde das so weit einbinden da. Ich würde da auch mit dem Kontaktformular mit uns auf einen Kontakt aufnehmen und das Team darauf hinweisen, dass ihr das jetzt eingebunden habt, damit sie da auch vielleicht ein bisschen Anreiz haben. Entweder eure Website dafür frei zu schalten oder das allgemein ein bisschen freier Zugänglich zu machen. Dann habe ich da ganz kurz noch eine Frage zu. Also die vorherige Frage kam jetzt nicht von mir, aber wenn ich jetzt unter Schema.org gehe und dann zum Beispiel bei Product Nachschauer, wie viele Webseiten dieses Markup für Produkte eingebunden haben, steht dort mehr als eine Million. Das heißt, was wäre denn die kritische Masse? Das gibt's nicht. Wir haben da eigentlich nicht unbedingt eine kritische Masse, sondern wir sehen, dass er in Bezug auf die Anzahl Suchergebnisseiten, die wir ausspielen haben. Das heißt, wenn wir sehen, dass zum Beispiel ein Artmarkup wirklich einen Einfluss auf die Suchergebnisseiten hätte, so dass wir das wirklich auch feststellen könnten, dann ist das für uns eigentlich eher relevant. Das heißt, es kann zum Beispiel sein, dass ein Artmarkup auf Millionen von Internetseiten standen ist, aber dass es so gut wie nie, oder dass diese Seiten so gut wie nie ausgespielt werden in den Suchergebnissen, dann ist es für uns weniger relevant. Wenn wir hingegen sehen, dass das wirklich auch einen sichtbaren Eindruck hätte in der Suche, dann ist das schon eher etwas, wo wir sagen, ja, müssen wir vielleicht eher mal überlegen, wie wir das verwenden können. Und noch eine ganz kurze Frage, wenn ich jetzt mehrere Markups verbinde angenommen, ich habe das Markup Medical Webpage und dann gibt es ja dort die Property Provider und dann könnte ich ja sagen, add type Organisation, dann habe ich ja quasi beide zusammengemappt, macht das ein Unterschied, weil wenn ich jetzt beim Structured Data Markup Testing Tool reingehe, ist da wie ein Art Accordion, dann habe ich das, wenn ich das repariert habe, habe ich einmal das Markup Medical Webpage, dann darunter zweite Accordion mit Organisation, wenn ich das jetzt zusammenmappe, habe ich das in einem, macht das ein Unterschied für Google? Wir sehen, dass sie zusammenhängen, aber anfühle sich, wenn wir diese beiden Markups finden, geht das schon. Alles klar, danke. Okay, dann eine Frage zu einer Website, trotz Umstellung auf Responsive Design und Zusammenfassung von DIN Content auf einige Unterseiten, gehen die Rankings immer weiter in die Keller, fahren die Startseite, ranken überhaupt nicht, wogegen die Unterseiten wenigstens noch ein paar mal, offenbar gibt es da negative Signale für Google, kannst du die etwas eingrenzen, zum Beispiel ob er aus dem Content kommen, oder er schlechte Links, oder er beides, was könnte das sein? Ich habe das ein bisschen hier angeschaut und grundsätzlich ist es nicht so, dass ich da irgendetwas gezieltes sehe, wo ich sage das musst du ändern, was ich höchstens sehe ist, dass unsere Algorithmen von der Qualität der Website insgesamt nicht hundertprozentig überzeugt sind. Das heißt, mit der Qualität könnte ich mir schon vorstellen, dass man da ein bisschen etwas machen könnte. Ich denke, es ist allerdings auch ein bisschen ein kritischer Bereich in dem, dass es eher sage ich mal eine informative Website über ein Thema das fast so Richtung Medizin geht und da könnte ich mir vorstellen, dass unsere Algorithmen da vielleicht ein bisschen noch kritischer auf die Qualität achten würden. Was ich da mal machen würde, ist auch zum Beispiel unsere Quality Rater Guidelines mal genauer durchzulesen zu überlegen, wo gibt es da vielleicht Elemente, die relevant wären, für diese Website selber. Ist es okay, dass wir Partner den kompletten Content geben, jedoch eigene Farben- und Meta- Angaben und dann No-Follow-Sets wegen dupliger Content. Wir mussten vorstellen, dass mit unter Seiten dennoch von Google indexiert werden. Wie kann man das am besten machen? Grundsätzlich kann man das schon machen, dass man so mit Partnern zusammenarbeitet mit No-Follow, No-Index, geht das allen für sich auch, dann werden diese Inhalte allen für sich nicht indexiert. Was ich in diesem speziellen Fall gesehen habe, ist, dass dieses Subdomain per Robots Text auch blockiert wird. Das heißt, wenn es per Robots Text blockiert wird, sehen wir natürlich nicht, dass der No-Index-No-Follow da ist, wir sehen da auch nicht, ob der irgendwie canonical wäre, sondern wir sehen höchstens, dass das irgendwie verlinkt wird im Internet und dass das vielleicht irgendwie relevant sein könnte für Benutzer. Und dementsprechend kann es sein, dass wir diese URLs indexieren, dass wir dann Titel aus links zum Beispiel finden, dass wir aber trotzdem keine Beschreibung haben, keine Informationen über die eigentlichen Inhalte. Das heißt, wenn man das so machen möchte, würde ich das so machen, dass wir die auch crawlen können, dass wir den No-Index-No-Follow sehen können. Und dann ist das eigentlich weniger problematisch, dann würden die auch nicht infiziert werden, dann wären sie trotzdem noch zugänglich wie eine Art Werbung, die ihr vielleicht innerhalb von eurer Zeit hätten. Mit dem No-Follow stellt ihr auch sicher, dass da keine Links quasi weitergegeben werden für dieses Werbeverhältnis, das man da hat. Und das wäre an und für sich dann auch okay. Bezüglich Kombination von No-Index und canonical, ich würde mich dafür eins von den beiden entscheiden und dann entweder auf No-Index setzen oder mit dem canonical arbeiten und hängen ein bisschen davon ab, wie die Inhalte da sind, ob das wirklich die gleichen equivalenten Inhalte sind, wie ihr sonst vor auf der Website habt oder ob das an und für sich separate Inhalte sind, die auch wirklich separat vielleicht als Inhalt dastehen sollten, die dann eher auf No-Index gesetzt werden. Ah, da kommen noch ein paar. Super. Okay. Zum Google WordPress-Plugin kannst du uns schon etwas erzählen über die laufenden Tests und wann das Plage mit uns allen zugänglich sein wird. Leider sind wir nicht in der Testgruppe gelandet. Ich weiß nicht genau, was da die Zeiträume sind für die Tests. Ich glaube, sie hatten vor jetzt Anfang Jahr die Tests mit den Tests anzufangen. Das heißt, vielleicht besteht da noch eine Chance, dass du auch dazu kommst in den Test-Tester. Grundsätzlich ist bei uns die Idee da, dass wir da die verschiedenen Elemente ein bisschen einfacher zugänglich machen können, so dass jeder, der WordPress verwendet, dann auch ein bisschen schneller den Weg zu Search Console findet und vielleicht eine Übersicht von den Daten hat auch mit Analytics, dass das sauber verknüpft ist. Wenn du das eh schon alles verknüpft hast, dann bist dir an für sich schon ein Schritt weiter als der WordPress Benutzer, der sich noch nicht so stark um die Suche informiert hat. Wie erkennt ihr Entitäten und was ist das Kriterium für die Aufnahme im Knowledge Graph? Welche Quellen zieht Google zur Verifizierung heran? Gute Frage. Ich glaube, darauf haben wir keine spezielle Antwort. In dem Sinn, dass wir da verschiedene Algorithmen haben, die versuchen, zu festzustellen und dann nehmen wir verschiedene Kriterien zusammen, um das Ganze ein bisschen zusammenzufassen und auseinander zu ziehen und zu erkennen, welche Sachen sind wirklich eigenständige Entitäten, welche sind dann nur Varianten oder weniger eigenständige Entitäten und wie wir das zusammennehmen können. Aber so weit wie ich das gesehen habe, ist es etwas, woran wir arbeiten, um das Ganze ein bisschen auszubreiten. Das heißt, ich könnte mir schon vorstellen, dass es irgendwie ein bisschen einfacher wäre, dass man da auch ein Knowledge Graph dann gezeigt wird. Aber was da genau die Pläne sind, weiß ich jetzt nicht. Eine Frage zum Site Operator. Wir haben einen Fall, dass bei einer Site Abfrage einen Subdomain auch die indexierten WBW-Seiten angezeigt werden. Wir würden aber gerne nur die WBW-Seiten der Subdomain sehen. Weiß ich nicht, woran das liegen könnte. Wenn du mir ein Beispiel zuschicken könntest, dann kann ich das mal anschauen oder im Chat rein posten könntest, dann kann ich mal schauen, was da genau passiert. Was manchmal passiert, ist, dass wir einzelne URLs quasi erkennen, dass sie in einer Variante indexieren. Wir wissen aber auch, dass sie mit anderen URL-Varianten an und für sich auch aufrufbar sind. Dann kann es zum Beispiel sein, dass bei einer Site Abfrage wir auch diese alternativen URLs darstellen. Das passiert sehr häufig, wenn ich einen Site-Umzug mache, wenn ich einen Redirect von einem Domain zum anderen Domain mache und ich mache dann nach einem halben Jahr ein Siteabfrage für den alten Domain, dann kann es ganz gut sein, dass wir da noch URLs zeigen, die eigentlich nicht mehr so indexiert sind. Am einfachsten kann man das kontrollieren, indem man da diese URLs mit dem URL-Inspection-Tool in Search Console anschaut und dann da schaut, ob da etwas quasi als Canonical angegeben ist. Etwas anderes als das, was man da jetzt gesehen hat und das mal gerade rauszukopieren, auszuprobieren, vielleicht sehe ich da etwas, scheint es zu klappen, ja. Okay. Dann hoffentlich hat sich das eingependelt, aber wie gesagt, ich würde, wenn du das nochmal siehst, würde ich URLs in URL-Inspection-Tool anschauen und ob die wirklich mit diesem WWW indexiert sind oder ob sie vielleicht noch mit dem Subdomain indexiert sind. Okay. Schauen, ob da noch mehr gekommen ist. Ah, super. Ich arbeite bei meiner Seite Terme-Termen. Die Ferienparks sind auch durchs gesamte Netzwerkshinteran deine Tipps umzusetzen. Dabei habe ich noch zwei, drei Detail-Fragen. Ich würde es schädlich sein, wenn die entsprechenden Keywords in der Teilnahme-Header in der H1 und H2-Überschrift vorkommen. Danach erscheinen sie noch in Text und wenn auch in sinnvollen Umfang. Auch könnte das Google einfach zu viel sein. Grundsätzlich ist es okay, einzelne Keywords ein paar Mal zu haben auf der Seite. Das ist weniger problematisch. Bei Keyword-Stuffing die Fälle, die ich gesehen habe, gehen eher in die Richtung, dass wir dann einfach die Wörter hunderte Male auf der gleichen Seite finden. Und wenn das eine Frage ist vom Dateinamen-Header H1, H2 und vielleicht ein Anfallmal im Text auch, dann sehe ich das weniger problematisch an. Dann ist es ja auch in vielen Fällen total natürlich so zu machen. Wenn es hingegen hunderte Male vorkommt auf der Seite, dann geht das schon eher in Richtung Keyword-Stuffing. Wichtig dabei ist, dass man auch Sachen anschaut, wie zum Beispiel Alt Text bei Bildern. Auch das zählt ja eigentlich zu den Texten innerhalb der Seite. Und da habe ich auch schon Fälle gesehen, dass man die gleichen Keywords einfach wirklich hunderte von Mal auf einer Seite verwendet zum großen Teil auch als Alt Text bei den einzelnen Bildern. Wie steht Google generell zu Verzeichnissen? Ich habe ja viele Verzeichnisse nach Bundesland wie auch bei den Termen bei denen ich Name, Anschrift, Telefonnummer, Webseite aufliste und zum Teil auch was für eine Art Terme es sind. Es sind solche Verzeichnisse für Google eher schlechte Qualität oder überflüssig wenn sie aus Sicht von Google keinen Mehrwert bieten. Natürlich finde ich bei Google zum Beispiel Termen in einzelnen Ländern aber natürlich nicht so eine Übersicht. Grundsätzlich sind solche Verzeichnisse schon machbar. Ich würde einfach wirklich dafür sorgen, dass man genügend Mehrwert auch wirklich bietet. Das heißt, dass man nicht einfach eine Zusammenfassung von Informationen auflistet, die eh schon hunderte Mal im Internet vorhanden sind, sondern dass man da möglichst ein bisschen mehr noch dazu bringt. Das kann zum Beispiel sein, dass man das nach Arten gruppiert, dass man bei diesen Auflistungen weitere Informationen dazu zieht, vielleicht andere Informationen was man zum Beispiel im Telefonbuch schon mal direkt finden würde. Einfach möglichst das Ganze so gestalten, dass man wirklich auch einen klaren Mehrwert bietet. Das heißt, wenn jemand nach ein von diesen Botschaften sucht, dass man sagen kann, diese Seite hat wirklich Informationen, die wir sonst nicht haben, die sonst nicht im Internet verfügbar ist und die müssten wir wirklich so auch darstellen in den Suchergebnissen. Und wenn man sich auf, sag ich mal, nur die Informationen beschränkt, die im Telefonbuch sind, dann ist das ein bisschen schwieriger für uns, dann sehen wir das an und denken ja, diese Informationen haben wir eigentlich eh schon, die Zugänglich auf der Website, das ist die Adresse, die Telefonnummer, die Website, das ist nicht wahnsinnig viel mehr. Dann kann ich mir schon vorstellen, dass unsere Algorithmen sagen, eine Qualität her, ist es nicht unbedingt das Beste. Das ist gerade ein Thema, was wir relativ häufig sehen, gerade auch bei erfülligen Zeits, also nicht unbedingt nur bei Adressen oder, sag ich mal, Firmenwebsites, wie hier so ein Verzeichnis, dass man einfach irgendein Feed nimmt von einfach zugänglichen Informationen, die man irgendwie zusammengesammelt hat über die Jahre und daraus automatisiert eine Website erstellt, dann geht das sehr schnell in Richtung, dass man da wirklich so den Content eher hat und Informationen, die nicht wahnsinnig viel mehr bringen, als was alle anderen eh schon haben. Wir haben verschiedenen Urinals, die gemäß Search Console nicht in der SideMap enthalten sind. Die URL ist aber in der SideMap enthalten. Das Problem taucht bei verschiedenen URLs auf. Weiß ich nicht, müsste ich mal genau nachschauen, was da passiert. Was wichtig ist, gerade mit den SideMap URLs, ist, dass das Ganze wirklich 1 zu 1 übereinstimmen muss. Das heißt, es ist nicht nur, dass die Inhalte schlussendlich gleich sind, sondern dass wirklich auch die URLs 1 zu 1 übereinstimmen. Das heißt, auch die großen Kleinschreibung mit einem Schrägstrich am Ende oder nicht. Was auch immer, was man da verwendet mit Parametern, mit dem Fragezeichen z.B., all diese Sachen sollten wirklich 1 zu 1 übereinstimmen. Dann ist das etwas, was wir dann entsprechend in Search Console als in der SideMap Datei bringen können. Wichtig ist auch, dass diese SideMap Dateien in Search Console eingereicht werden. Das heißt, dass man nicht nur per robots.txt die SideMap Datei einreicht, sondern dass man das wirklich auch klar in Search Console macht, damit wir wissen, dass das etwas ist, was du als Benutzer in Search Console verwendet haben möchtest. Wir können natürlich die SideMap Dateien in verschiedenen Varianten schon verarbeiten. Das heißt, es hilft uns auch, wenn es anders eingereicht wird. Aber im UI in Search Console versuchen wir uns auf das zu beschränken, was wirklich gezielt in Search Console eingereicht worden ist. Einfach eher aus Übersichtlichkeitsgründen, dass man sich da nicht zu viel ablenken lässt mit anderen Sachen, die vielleicht nicht so relevant sind im Moment. Wir haben in Search Console einige Abdeckungsfehler, gesendete Urals aus noindex gekennzeichnet. Urals sind mittlerweile seit einigen Wochen auf indexfollow umgestellt und in der SideMap Datei enthalten. Wurden jedoch nach der Umstellung nicht mehr gekraut. Woran kann das liegen? Einerseits ist es mit der SideMap Datei eine gute Idee. Das würde ich auf jeden Fall machen. Es ist auch, dass man in der SideMap Datei eine Änderungsdatum dazu nimmt, dass man sagt, diese URL wurde dann und dann verändert. Das heißt, nicht dass unbedingt die Inhalte verändert worden sind, sondern dass man auch die Metatags diese Veränderung dort entsprechend bekannt gibt. Und dann können wir eher dahin gehen und diese URLs neu crawlen. Die eine Schwierigkeit da ist allerdings, wenn wir sehen, dass eine URL seit längerer Zeit auf noindex ist, dann crawlen wir diese in der Regel natürlicherweise nicht so häufig wie eine URL, die wir indexieren können. Das heißt, wahrscheinlich ist das eher einfach eine Frage der Zeit, bis sich das alles wieder einpendet und es geht ein bisschen länger als sonst, weil das halt eine URL ist, die wir nicht so häufig gesehen haben oder die wir nicht so häufig indexieren konnten. Okay. Dann da ist glaube ich im Chat noch eine Variante, wo etwas schief geht. Okay. Ich schaue mir mal die Beispiele da an. Schauen, was da hervorkommt. Was ich da jetzt sehe von der URL her, scheint dass es sich darum zu handeln, dass das eine mobile Version ist, vielleicht ist da irgendetwas verwirrend für uns, aber ich schaue das mal genauer an, was da läuft. Okay. Schauen, ob da noch weitere Fragen gekommen sind. Ich habe noch ganz kurz eine, bezüglich SSL-Zertifikanten. Okay. Es gibt jetzt die kostenlose Version von Let's Encrypt und dann versus GeoTrust, wo ist der Benefit seitens, ich sag mal, eines Unternehmens. Warum sollte man jetzt eher einen Zertifikat kaufen, wenn ich auch die Möglichkeit habe, als Unternehmen diese kostenlos zu bekommen. Also wir reden eher über, ich sag mal, 20.000 Zertifikate. Das heißt, das Ganze dann mal kumuliert, ergibt dann schon eine gute Hausnummer. Gibt es dafür Google quasi den Unterschied? Welche Zertifikate ich nehme? Für uns nicht. Für uns ist eigentlich alles das Gleiche. Wenn das gültige Zertifikate sind, die im Browser erkannt werden, dann ist das alles, alles das Gleiche. Also Let's Encrypt ist problemlos machbar. Mit Let's Encrypt ist es einfach so, dass man da eher eine Infrastruktur erstellen müsste auf der eigenen Seite, dass das regelmäßig auch aktualisiert wird, diese Zertifikate. Aber wenn man das machen kann, dann funktioniert das eigentlich gut. Meines Wissens verwenden wir auch Let's Encrypt-Zertifikate wenn die App Engine ist oder je nachdem wie das da eingerichtet ist bei App Engine. Gut zu wissen. Wenn ich jetzt quasi einen alten Webmaster Tools aus Search Console Account habe und ich meine Webseite zu einem neuen Account ziehe, ich sage es mal über Freigabe, indem ich die neue Immeradressin zufüge und ich dann in der alten Account lösche, muss ich dann die Property neu hinzufügen oder ich sage mal, das snippet neu Das müsste man neu machen. Also wenn das alte Account nicht mehr verfügbar ist oder nicht mehr gültig ist aus Google Sicht, dann ist diese Freigabe auch nicht mehr da. Danke dir. Okay. Schauen, ob da noch weitere Fragen sind. Wenn von euch noch irgendwas ist, könnt ihr gerne loslegen. Ansonsten können wir auch ein bisschen früher fertig machen, das geht auch. Dann machen wir das vielleicht so. Dann ich richte auf jeden Fall nochmal die nächsten Hangouts ein, am Freitag ist noch einmal ein auf Englisch. Wahrscheinlich auch wieder in 2 Wochen tagt, dass wir da normal wieder loslegen. Vielen Dank für die vielen Fragen und für die Kommentare zwischen euch. Ich schaue mir noch das mit diesem Subdomain und der Side Up Frage ein bisschen genauer an. Mal schauen, was da passiert. Ob da irgendetwas auf unserer Seite vielleicht anders gemacht werden müsste oder nicht. Und wegen dem hreflang von der anderen Website müsst ihr vielleicht auch ein paar Informationen von dir haben, dann kann ich das hier ein bisschen genauer anschauen. Ansonsten würde ich mich freuen, wenn ich euch wiedersehen könnte, vielleicht in 2 Wochen und dann sehen wir uns dann wieder. Tschüss alleseits. Tschüss.