08.03.2016

Seit Januar 2016 sind die neuen Google Webmasterrichtlinien online einsehbar. Die Webmaster Guidelines zeigen auf, was der Suchmaschinenbetreiber nicht gerne sieht und was somit zu Rankingverlusten oder gar Abstrafungen von Seiten führen kann. Wer sich hingegen an den Guidelines orientiert, erleichtert es Google, eine Website zu „verstehen“ – die Grundlage für gute Rankings im jeweiligen Themenbereich.


 

Flugzeug mit Google Schriftzug

Der Suchmaschinengigant Google hat die Webmaster Guidelines überarbeitet

Seitenstruktur in Sitemap hinterlegen

Seiten müssen für den Google Bot erreichbar sein. Das ist wichtig für die vollständige Indexierung von Webprojekten und bei manchen Content Management Systemen (CMS) oft nicht der Fall. Hier sollen Webmaster nun verstärkt darauf achten, dass Seiten erreichbar sind und eine sinnvolle Struktur vorliegt, die am besten in einer XML-Sitemap dokumentiert ist:

 

Offer a site map to your users with links that point to the important parts of your site. If the site map has an extremely large number of links, you may want to break the site map into multiple pages.

Relevante Inhalte sollten standardmäßig sichtbar sein

Außerdem gibt Google erstmals offiziell an, dass versteckter Inhalt beispielsweise in Klappmenüs oder anderen nicht auf Anhieb erkennbaren Teilen der Seite als weniger relevant eingestuft wird. Die wichtigsten Inhalte sollten immer standardmäßig sichtbar sein:

Make your site’s important content visible by default. Google is able to crawl HTML content hidden inside navigational elements such as tabs or expanding sections, however we consider this content less accessible to users, and believe that you should make your most important information visible in the default page view.

Zum besseren Auslesen: robots.txt und Sreenreader freundliches Layout

Neu ist auf eine eindeutige Aufforderung die robots.txt Datei zu nutzen, um das „Crawl Budget“ zu steuern. Google hatte den Begriff früher gemieden, legt jetzt aber offen, dass die Anzahl der Seiten, die Google auf einer Webseite maximal crawlt, begrenzt ist. Webmaster sollten sich überlegen, ob sie nicht bestimmte Seiten über die robots.txt ausschließen wollen.

Use the robots.txt file on your web server to manage your crawling budget by preventing crawling of infinite spaces such as search result pages.

Ebenfalls neu ist die Eindeutigkeit mit der sich Google gegen die Behinderung von Screenreadern einsetzt. Die Programme, die Text in Sprache umwandeln und viel von Menschen mit Sehbehinderungen genutzt werde, wurden bisher eher stiefmütterlich von Google behandelt. In diesen Bereich fällt auch die eindeutige Aufforderung das „alt“ und „title“ Attribut konsequent insbesondere bei Bildern einzusetzen.

Google Empfehlungen ausgehenden Links und Werbelinks

Dass Google etwas gegen Seiten hat, die anscheinend nur eingerichtet wurden, um andere zu Seiten zu verlinken, ist schon seit langem bekannt. Erstmals hat Google jetzt die Zahl ausgehender Links beziffert: Es sollten nicht mehr als einige tausend (a few thousand at most) sein. Immer noch genug Raum für Linksschleudern. Google macht allerdings deutlicher als in den Versionen zuvor, dass Werbelinks klar mit „nofollow“ gekennzeichnet werden sollen. Bezahlte Links, insbesondere das „hidden Advertorial“, bei dem ein Unternehmen dafür bezahlt, mit einem nur bedingt als Werbung erkennbaren Artikel einen Link zu platzieren, ist also weiterhin ein Dorn in Googles Auge:

Make a reasonable effort to ensure that advertisement links on your pages do not affect search engine rankings. For example, use robots.txt or rel=”nofollow” to prevent advertisement links from being followed by a crawler.

 

HTTPS und Ladezeiten als Rankingfaktoren?

Zum Schluss noch einige Änderungen, die zumindest im Trend schon vorhersehbar waren: Google spricht eine klare Empfehlung für HTTPS Verbindungen aus und setzt auf kürzere Ladezeiten. Auch hier gilt: Inwieweit diese Empfehlungen tatsächliche Rankingfaktoren sind, verrät der Suchmaschinengigant nicht.

Fazit: Neue Webmaster Guidelines ohne Überraschungen, aber mit konkreterer Webmaster-Unterstützung

Im Großen und Ganzen bieten die Neuerungen der Webmaster Guidelines wenig Überraschungen. Der Trend zum schnelleren Crawlen, leichteren Lesbarkeit und der Kampf gegen unnatürlichen Linkaufbau ist die konsequente Fortführung des Kampfes um Qualität in einem sich immer weiter ausbreitenden Internet. Es ist schön zu sehen, dass sich Google nicht auf dem immensen Marktanteil ausruht. Es bleibt zu hoffen, dass das auch in Zukunft so bleibt.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.