 Moin moin liebe Freunde der Suchmaschinenoptimierung. Heute wollen wir uns dem Hauptauslöser von Suchmaschinenoptimierungsversagensangst widmen und zwar zunächst einmal was ist eigentlich los, wenn wir JavaScript getriebene Webseiten haben und was ist damit eigentlich gemeint. Gemeint sind bei sowas Webseiten, bei denen JavaScript eine wesentliche Rolle in der Erzeugung oder der Darstellung der Inhalte spielt, beispielsweise bei einen Seiten Webseiten, mit Klientenseiten wie er gegebenen JavaScript. Hier ein Beispiel, bei dem JavaScript genau eine solche Rolle spielt. Das geladene HTML enthält hierbei eigentlich keinen Inhalt, sondern dient nur als Fundament, um die nötigen JavaScript-Dateien überhaupt nachzuladen, welche dann wiederum bei der Ausführung den eigentlichen Inhalt nachladen. Der Inhalt wird dann mittels JavaScript in den Dombaum der Seite eingefügt und schließlich auf der Webseite angezeigt. Schauen wir uns einmal ein paar Beispiele an, was bei der Suchmaschinenoptimierung solcher JavaScript getriebenen Webseiten so alles schiefgehen kann. Fangen wir mit der Robots-TXT an. Wenn JavaScript den Inhalt über eine API lädt, darf weder die JavaScript-Datei selbst noch die API per Robots-TXT blockiert werden. Wenn die Seite gerendert wird, hält sich der Googlebot dabei genauso an die Robots-TXT wie beim Crawln. Wenn Googlebot die API oder die JavaScript-Datei nicht abrufen kann, dann kann dieses JavaScript nicht korrekt ausgeführt werden und dann sieht der Googlebot die Inhalte auf der Seite eben nicht. Eine leere Seite hat dann natürlich Probleme bei der Indexierung oder beim Ranking. Als nächstes schauen wir uns einmal die sogenannten Weichen 404 Fehler an. Solche Fehler entstehen, wenn die Google-Suche nicht erkennt, dass eine Seite eigentlich eine Fehler-Seite ist, auch wenn der HTTP-Status etwas ganz anderes behauptet. Sie sehen in den Suchergebnissen sehr unerfreulich aus. Solche Situationen entstehen bei JavaScript getriebenen Webseiten schneller, weil die Entscheidung, ob eine Seite eine Fehler-Seite ist oder nicht, erst nach der Antwort des Servers vom JavaScript feststeht. Es gibt zum Glück zwei mögliche Lösungen. Erstens, entweder kann die Seite eine Umleitung auslösen, bei der das Ziel einen angemissenen HTTP-Status übermittelt. Oder zweitens, ein No-Index-Robots-Meter-Tag mit No-Index als Inhalt kann in die Seite eingefügt werden, um die Seite aus dem Google-Index herauszuhalten. Als Abschluss schauen wir uns die Robots-Meter-Tags genauer an, denn auch diese können unter Umständen zu Problemen führen. Mit einem entsprechenden HTTP-Header oder wie hier im Beispiel gezeigt, einem HTML-Meter-Tag kann eine Seite von der Indexierung ausgeschlossen werden. Das ist grundsätzlich ein geeignetes Vorgehen, um Seiten aus dem Google-Index herauszuhalten, etwa weil es sich um Fehler-Seiten oder um Produktsuchen handelt, die man einfach nicht im Index haben möchte. Wenn wir uns aber einmal anschauen, wie die Google-Suche Seiten überhaupt verarbeitet, dann sehen wir, dass JavaScript beim Rändern ausgeführt wird. Und dass das HTML aber vorher schon einmal verarbeitet werden kann. Wer also im HTML schon ein No-Index hat, der wird die Ausführung des JavaScripts überspringen. Das heißt, wenn JavaScript das No-Index entfernen würde, könnte die Google-Suche dies nicht sehen und würde die Seite aus dem Index entfernen, obwohl das vom Programmierer nicht so vorgesehen war. So, was nehmen wir also aus diesem Video mit? Zunächst einmal, die Google-Suche kann auch JavaScript getriebene Webseiten verarbeiten, indizieren und ranken. Man sollte aber darauf achten, dass alles so funktioniert, wie man erwartet. Werkzeuge gibt es dafür mehrere. Zum Beispiel den Mobile-Friendly-Test, die Search Console und den Rich-Results-Test. Vielen lieben Dank für eure Zeit. Ich hoffe, es war auch etwas für euch dabei und wünsche euch allen einen wunderschönen Tag. Bis bald und jetzt abschalten!