Du sollst nicht JS und CSS sperren! – Google ändert technische Richtlinien für Webmaster

27. Oktober 2014 | Von in SEO

Pierre Far, Webmaster Trends Analyst von Google, hat heute Vormittag eine Änderung in den technischen Richtlinien für Webmaster bekannt gegeben, die nochmal verstärkt die ohnehin bekannte Richtung von Googles künftiger Indexierung vorgibt … Das Indexierungssystem wird wesentlich mehr Wert auf eine userorientierte Website legen als zu Zeiten, wo der Googlebot dem Lynx-Browser ähnelte.

… (Übersetzung der Ankündigung: http://googlewebmastercentral-de.blogspot.de/2014/10/aktualisierung-der-technischen-richtlinien.html).

Verglichen wird das aktuelle Indexierungssystem eher mit modernen Webbrowsern – mit deren technischen Möglichkeiten. Es ist also klar: Google möchte Websites stärker wie ein echter User betrachten … und hat zumindest teilweise die Mittel dazu, denn ansonsten hätte man sich sicher nicht entschlossen, das neue System zu launchen.

Einer der Kernsätze der Ankündigung lautet:

„Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt-Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen.“

In seinem Google+-Post dazu wird Pierre Far noch deutlicher:

„Let me be super clear about what this means: By blocking crawling of CSS and JS, you’re actively harming the indexing of your pages. It’s the easiest SEO you can do today. And don’t forget your mobile site either!“

Was bedeutet das?

Die Zeiten, in denen der Googlebot die Darstellung der Website inkl. ausgeführter Javascripts und CSS-Daten ignoriert, dürften sowieso schon lange vorbei sein. Inwieweit beim Ignorieren der Aussage von Pierre Far tatsächlich das Ranking leiden würde, weiß natürlich zum jetzigen Zeitpunkt noch niemand. Fakt ist: Google zieht mit dieser Ankündigung an einigen Hebeln gleichzeitig und übt Druck auf Webmaster aus. Das Lockmittel „besseres Ranking“ dürfte dabei ordentlich helfen.

Insbesondere die Prinzipien der „progressiven Verbesserung“ werden explizit angesprochen. Gemeint ist damit alles, was die Darstellung der gleichen Website auf unterschiedlichen Geräteklassen optimiert, inkl. Barrierefreiheit, mobile Nutzung, der Darstellung in Javascript-losen Browsern etc. Dabei muss berücksichtigt werden, dass es Google nicht darum geht, alle Darstellungsformen gleichzuziehen (beispielsweise durch Verzicht auf Javascript), sondern „nur“, sie für die verschiedenen Geräteklassen zu optimieren. Ein Prinzip, dem viele Webmaster leider (noch) nicht folgen (können) – die Gründe sind mannigfaltig.

Zur Auswertung bei der Indexierung durch Googlebot gehört künftig auch, dass CSS und Javascript genauer betrachtet werden. Bedeutet: Die Inhalte, Optik und Anordnung der Elemente einer Website werden nochmal stärker ausgewertet als bislang. Wer entsprechende Inhalte sperrt (zum Beispiel durch robots.txt) und die entsprechende Auswertung dementsprechend verhindert, hat langfristig das Nachsehen.

Loooooaaaading ….

Neben den „sichtbaren“ Dingen, geht es Google erneut um eine Forcierung der Ladezeiten-Thematik. Ein Teilaspekt ist dabei sicher der des „effizienteren Indexierens“ – wie es Google im Blogpost nennt. Ein anderer nach wie vor, dass Benutzer schnelle Seiten bevorzugen. Beides zusammen führt seit längerer Zeit schon dazu, dass Google die Webmaster auf schnellere Seite einschwört. Jetzt allerdings – wenn auch indirekt und zwischen den Zeilen – nochmal im Kontext von besseren Rankings.

Apropos Geschwindigkeit: Durch die mögliche Erhöhung der Last durch den Googlebot (ruft dann zusätzlich CSS und Javascript und Co. ab) sollten vor allem Besitzer großer Seiten prüfen, inwiefern die Server der höheren Last gewachsen sind und ggf. performanter gestalten.

Nein? Doch! Ohhhh …!

abruf-googlebotUm nun genau zu sehen, ob der Googlebot mit der eigenen Website klarkommt, wurde bereits vor einiger Zeit die Funktion „Abruf wie durch Googlebot“ in den Webmaster Tools aufgebohrt und u. a. um das Rendering ergänzt (s. Abbildung). Webmaster haben die Möglichkeit, sich auf diesem Wege anzuschauen, wie der Googlebot die Seite „sieht“ und ob Elemente vom Crawling ausgesperrt werden, die unter Umständen für die Darstellung der Seite wichtig sein können.

Seiteninhaber sollten dementsprechend weiter am Ball bleiben und ihre Website auf die neuen Anforderungen hin überprüfen. Natürlich gilt hierbei: Bitte nichts überstürzen! Google wird nicht morgen ein Update ausrollen, das die Rankings diesbezüglich umkrempeln wird. Aber es sollte aus mehreren Gründen nicht untergehen.

  1. Die Seitentechnik wird nochmal auf den Prüfstand gestellt (Stichwort: Stillstand ist Rückschritt).
  2. Viele Veränderungen, die nötig sind, um den Googlebot zufriedenzustellen, helfen oftmals auch Benutzern weiter (s. Verkürzung der Ladezeiten, Darstellung in unterschiedlichen Browsern, Javascript-Probleme, Sperrung von Inhalten usw.)
  3. Und nicht zuletzt: Man hat die Möglichkeit, sich bei Google auf Dauer populärer zu machen

In diesem Sinne …

Unser nächstes Webinar am 25. Januar 2019: 10 SEO-Mythen: Was stimmt, was stimmt nicht?

Das weiß doch jeder: Duplicate Content führt zu Abstrafungen. Blogs sind gut für SEO. Soziale Signale sind wichtig für organische Rankings. Oder etwa doch nicht? In diesem Webinar gibt es einen differenzierten Blick auf viele bekannte Mythen, denn im manchen Mythos steckt natürlich trotzdem ein bisschen Wahrheit.

Jetzt kostenlos anmelden:
10 SEO-Mythen: Was stimmt, was stimmt nicht?

Alle kommenden Webinare:
Bloofusion-Webinare im Überblick

The following two tabs change content below.

Maik Bruns

Maik Bruns war bis 2017 Berater für SEO und Webanalyse in der Online-Marketing-Agentur Bloofusion. Als Online-Marketing-Enthusiast schrieb er zu diesen Themen im Bloofusion-Blog (damals: Die Internetkapitäne), im SEO-, SEA- und E-Commerce-Magazin suchradar und natürlich bei Twitter und Google+.

Maik Bruns ist unter anderem in den folgenden sozialen Netzwerken zu finden:

3 Kommentare zu “Du sollst nicht JS und CSS sperren! – Google ändert technische Richtlinien für Webmaster”

  1. Matze

    Hallo Maik! Vielen Dank für den guten Artikel. Das Thema wird ja grad – wie so oft bei neuen Announcements durch Google – in vielen Blogs behandelt. Dein Artikel hat mir (weil er differenziert und sachlich ist) besonders gut gefallen.

    Ich denke aber, dass beide von dir im Artikel genannten Zitate einen gewissen Interpretationsspielraum zulassen. Für die Qualität der Google-Suchergebnisse wird doch letztlich das Ergebnis des Renderings einer Website (so wie es sich auch durch die GWMT nachempfinden lässt) im Vordergrund stehen. Eine Pauschalabsage an das Blocken von z. B. JS-Dateien ist da doch nicht hilfreich – und lässt sich für mich auch nicht zweifelsfrei aus den Zitaten herauslesen.

    Man nehme mal das Thema Siloing, bei dem sich trotzdem nutzerfreundliche Dropdowns (z. B. durch JS) realisieren lassen, ohne damit die eindeutige Themenverteilung auf einer Website (für Google) zu unterlaufen. Wenn in so einem Falle im Rendering in GWMT ein Dropdown/Megamenu nicht gezeigt werden kann, aber ansonsten alternative (präzisere) Verlinkungen für die Navigation existieren, die sowohl für Google gut sind als auch durch Nutzer gut bedienbar sind, kann ich mir nicht vorstellen, dass in so einem Falle die betreffende Website schlechter rankt – eher im Gegenteil. Es wird hier ja nur einer von mehreren Navigationswegen für Google geblockt, um Onsite-Links zu minimieren und das thematische Clustering herauszuarbeiten. Ich kann mir nicht vorstellen, dass Google dies – ein gutes Ergebnis des Renderings der Website vorausgesetzt – als manipulativ/Cloaking ansehen könnte.

    Deine Meinung hierzu würde mich interessieren.

    lg, Matze

  2. Maik Bruns

    Hallo Matze,

    ich finde schon, dass man glasklar erkennen kann, was Google möchte: „Let me be super clear about what this means: By blocking crawling of CSS and JS, you’re actively harming the indexing of your pages.“ ist für mich ganz eindeutig. Natürlich weiß Google, dass man nicht auf alle verwendeten Skripte oder CSS-Daten Einfluss hat. Beispiel: Ich habe in den letzten Tagen schon öfter die Frage beantworten müssen, was denn mit Skripten ist, die auf fremden Domains liegen. Selbstverständlich bestehen da nur wenige Möglichkeiten der Einflussnahme und darum geht es auch nicht immer. Aber insbesondere interne Elemente sind beeinflussbar.

    Es geht Google – wie du ja selber schreibst – primär um eine Sache: Die Suchmaschine möchte genau die gleichen inhaltlichen und optischen Informationen erhalten wie ein Benutzer. Kurzum: Möchte wie ein Standard-Benutzer behandelt werden. Wenn du von Siloing sprichst und damit meinst, dass beispielsweise die Dropdown-Navigation, die der User sieht, vor Google versteckt wird, dann unterschätzt du Google vermutlich. Insbesondere Navigationselemente sind in den allermeisten Fällen vollkommen klar erkennbar und auch algorithmisch/semantisch einzuordnen – und werden auch als solche bewertet. Ich persönlich glaube nicht (mehr), dass man mit dem „Verstecken“ der Navigation einen signifikanten Vorteil herausschlagen kann. Denn wenn die Hauptnavigation für den Benutzer gut aufgebaut und sinnvoll ist, gibt es meines Erachtens keinen Grund, sie vor der Suchmaschine zu verstecken.

    Ein Siloing kann natürlich trotzdem stattfinden, indem die interne Verlinkung auf anderem Wege als über die Hauptnavigation verbessert wird, etwa gezielte Links aus dem Content auf andere Inhalte innerhalb eines Silos oder eine Subnavigation links oder rechts usw.

    Also: Wenn Elemente vor Google versteckt werden bzw. nicht abrufbar gestaltet werden, weiß die Suchmaschine nicht, was sich dahinter verbirgt. Wenn ich „Suchmaschine“ wäre, würde ich der Sache dementsprechend erstmal misstrauisch gegenüber stehen. Und dementsprechend verstehe ich auch den Sinn und Zweck solcher Maßnahmen nicht. Nur um ein Siloing-Korsett so eng wie möglich zu schnüren, werden unter Umständen Nachteile in Kauf genommen. Es ist ohnehin eine akademische Frage, denn weder du noch ich können aktuell schon beurteilen, inwieweit sich tatsächlich Rankingnachteile durch die Sperrung ergeben – und wir beide machen die Regeln dafür nicht. Aber wir haben die neuen Regeln zur Kenntnis zu nehmen und für uns/unsere Kunden die optimale Maßnahme daraus zu schaffen. Bei uns sieht es so aus, dass wir allen Kunden geraten haben, sich auf Dauer von Skript-Blockierung zu verabschieden. Einige Kunden haben das sogar schon umgesetzt.

    Meine Meinung: Ich würde es nicht darauf ankommen lassen. Sicherlich ist gerade keine Eile geboten beim Freischalten von Skripten und CSS. Dennoch ist der Weg vorgezeichnet: Google. Will. Sehen. Und wenn die Maschine der Ansicht ist, dass man ihr das verweigert, könnte es mit dem Ranking nach unten gehen.

  3. Matze

    Hey Maik! Danke für deine schnelle und umfangreiche Antwort. Ich denke, man muss das Thema einfach im Auge behalten und schauen, wie sich die Rankings und der organische Traffic entwickeln, um dann bei Bedarf Kurs-Korrekturen in Form von Rück-/Umbau einer Navigation vorzunehmen. Im konkreten Falle eines für Google sichtbaren/unsichtbaren Dropdowns ist dies ja auch schnell gemacht. Ich persönlich habe eher die Erfahrung gemacht, dass Google nicht wirklich gut mit einer für Nutzer verständlichen, aber großen Hauptnavi umgehen kann bzw. sich beobachtbare Verbesserungen ergeben, wenn man diese eindämmt. Bei neuen Website-Projekten würde ich derzeit eine technische Lösung anstreben, die sich im Bedarfsfall ohne große Kosten und zeitnah ändern lässt, einstweilen aber noch auf die bisher beobachtbaren Vorteile eines rigiden Siloings setzt. Auf jeden Fall ein spannendes Thema, welches beobachtet werden muss und man zukünftig um Anpassungen sicher nicht herum kommt.

    Ich schließe mich deinem letzten Absatz an, nur mit dem Unterschied, dass ich es einstweilig noch drauf ankommen lassen würde, wenn der Aufwand für den Rückbau kleiner ist als der Gewinn in der Gegenwart.

Kommentieren