25.02.2015

Heutzutage kommt kaum eine Seite ohne JavaScript und CSS aus. Fast alle Seiten nutzen komplexe JavaScript-Funktionen, um die Darstellung und Usability einer Webseite zu verbessern. Da Webseitenbetreiber diese Inhalte nicht für Google & Co. auffindbar machen wollen, werden diese meist über die robots.txt gesperrt.

In der Vergangenheit hat man vor allem Links oder SEO-Texte mittels JavaScript in die Webseite eingebaut. Dies hatte den Vorteil, dass man zum Beispiel jede Seite in der Navigation verlinken konnte, ohne dabei nicht relevante Seiten zu stärken bzw. relevante Seiten zu schwächen (siehe Aufteilung von Linkpower auf verlinkte Seiten). Die irrelevanten Seiten wurden mittels JavaScript verlinkt oder per Ajax nachgeladen, wodurch der Link zwar optisch für den Nutzer vorhanden war, jedoch nicht im Quellcode vorkam. Somit konnte die Linkpower der linkgebenden Seite weiterhin optimal verteilt werden (siehe Grundprinzipien bei interner Verlinkung).

Ebenso wollte man Suchmaschinen SEO-Text zu Verfügung stellen, damit sie die betreffende Website besser verstehen konnten. Da die Texte in den meisten Fällen jedoch sehr keywordlastig waren und keinen Mehrwert für den Nutzer boten, wurden diese Texte zum Beispiel mittel CSS (Cascading Style Sheets) für den Nutzer ausgeblendet. Somit war der Text zwar im Quellcode vorhanden, der Nutzer wurde jedoch von diesem nicht belästigt.

CSS-Anweisung für das Ausblenden des Bereichs #seo-text:

#seo-text: display:none;

Um diese Aktivitäten vor Google zu verstecken, wurden solche JavaScript- oder CSS-Dateien mittels robots.txt für den Google-Crawler gesperrt. Somit konnte der Google-Bot die Skripte nicht crawlen und interpretieren.

Robots.txt-Anweisung für das Aussperren des Google-Bots:

User-agent: Googlebot
Disallow: /scripte/

Google liest JavaScript & CSS aus

Seit dem 27. Oktober 2014 liest und versteht Google nun auch JavaScript und CSS-Dateien. Webmaster werden in den „Webmastertool Richtlinien“ explizit darauf hingewiesen, dass dem Googlebot der Zugriff auf JavaScript, CSS oder Bilder nicht verwehrt werden soll. Wird dem Googlebot der Zugriff verweigert, kann dies zu schlechteren Rankings führen!

Warum kann das zur Abstrafung führen?

Der Grund hierfür ist simpel: Möchte Google alles wissen? Nein, Google versucht eine Webseite aus Sicht eines Nutzers zu sehen und simuliert den Browseraufruf für verschiedene Endgeräte. Hier wird unter anderem auch der Seitenaufruf mittels Smartphone oder Tablet simuliert. Sind JavaScript- oder CSS-Dateien für den Googlebot gesperrt, kann dieser die Seiten für mobile Endgeräte nicht richtig interpretieren (Rendering von mobilen Webseiten). Dies führt zu einer Benachrichtigung von Google und im schlimmsten Fall zu Rankingverlusten oder einer Abstrafung.

Empfohlene Maßnahmen

Um keine Google-Abstrafung und somit Rankingverluste zu riskieren, sollten folgende Punkte beachtet werden:

  • Prüfung in den Google-Webmastertools mit der Funktion „Abruf wie durch Google“, ob der Googlebot JavaScript-, CSS- und Bilddateien crawlen kann.
  • Prüfung, ob die robots.txt für den Googlebot nicht gesperrt ist.
  • Überprüfung in den Google-Webmastertools, ob die Seite für mobile Geräte optimiert ist.

Fazit

Bei der Bewertung einer Webseite kommen zahlreiche Rankingfaktoren zum Einsatz. Google stellt dabei die User Experience in den Vordergrund. Damit Google die Seite korrekt lesen und bewerten kann, ist es daher wichtig, die einzelnen Dateien und Skripte für die korrekte Darstellung für den Googlebot nicht zu sperren.

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.