28.09.2017

[Hinweis: Dieser Artikel wurde 2014 veröffentlicht und im September 2017 überarbeitet und aktualisiert.]

Nicht alle Seiten eines Onlineshops sollten in den Index von Suchmaschinen gelangen. Hierzu zählen vor allem die Ergebnisseiten der shop-internen Suchfunktion. Andernfalls entstehen Probleme durch doppelte Inhalte (duplicate content). Zudem wird wertvolle Linkpower („Linkjuice“) vergeudet. Im Meta-tag „robots“ lassen sich diese Probleme mit Hilfe der Einstellungen „NoIndex“ und „NoFollow“ vermeiden.

NoIndex verhindert Duplicate-Content bei Suchergebnisseiten

Nutzt ein Kunde die Suchfunktion eines Onlineshops, werden die Ergebnisse unter einer neuen URL ausgegeben.

Beispiele:

Suchanfrage „t-shirt blau“ erzeugt die URL: „www.onlineshop.de/?q=t-shirt+blau
Suchanfrage „blaues t-shirt“ erzeugt die URL: „www.onlineshop.de/?q=blaues+t-shirt

Problem: Es entstehen zwei verschiedene URLs, die jedoch exakt den gleichen Inhalt bzw. die gleichen Produkte ausgeben, nämlich blaue T-Shirts. Das bedeutet, dass jede Suchergebnisseite über mehrere URLs aufrufbar ist. Google wertet diese Seiten als doppelten Inhalt, den man unbedingt vermeiden sollte, um keine Rankingverluste zu erleiden.

Suchergebnisseiten der Shopsuche - 2 unterschiedliche URLs liefern denselben identischen Inhalt

Unter zwei verschiedenen URLs wird identischer Inhalt ausgegeben und kann schlimmstenfalls als duplicate content zum Problem werden.

 

Lösung: Alle URLs, die aus Suchanfragen hervorgehen, sollten auf „NoIndex“ gesetzt werden.

NoIndex verhindert unrelevante Suchergebnisse

Praktisch jede Suche innerhalb eines Onlineshops erzeugt eine URL, in der die eingegebenen Suchbegriffe enthalten sind. Dadurch besteht die Gefahr, dass URLs erzeugt werden, zu der keine oder nur unpassende (sprich unrelevanten) Inhalte bzw. Produkte im Shop vorhanden sind.

Beispiel: Das geschieht zum Beispiel dann, wenn im Suchfeld eine Kombination aus vorhandenen Artikeln und nicht vorhandenen Artikeleigenschaften eingeben wird. (z.B. sonnenbrille schlumpfblau).

Problem: Wenn in diesem Fall eine Ergebnisseite mit verschiedenen andersfarbigen Sonnenbrillen – aber eben ohne schlumpfblaue Sonnenbrillen  – ausgespielt wird, kann eine Indexierung dieser Seite von Nachteil sein. Google wird das Ergebnis ggf. als nicht relevant einstufen, was sich wiederum bei entsprechender Zahl solcher nicht-treffender Seiten negativ auf die Relevanzbewertung der gesamten Domain auswirken und in der Folge zu Rankingverlusten führen kann.

Lösung: Alle URLs, die aus Suchanfragen hervorgehen, sollten auf „NoIndex“ gesetzt werden.

NoFollow gegen verschenktes Crawlingbudget

Der Befehl „NoIndex“ verhindert nicht, dass URLs gecrawlt werden. Auch wenn man wie oben beschrieben die Suchergebnisseiten von der Indexierung ausschließt, werden Bereiche der Webseite eventuell mehrfach gecrawlt.

Problem: Wenn der Suchmaschinen-Crawler die eigene Domain besucht, hat er für das Crawling nur eine bestimmte Menge an URLs zur Verfügung. Dieses sogenannte Crawlingbudget sollte natürlich sinnvoll genutzt werden, damit möglichst viele Bereiche und wichtige Unterseiten erfasst werden.

Lösung: Damit dieses Kontingent nicht unnötig für unwichtige Seitenbereiche verbraucht wird, die der Crawler eigentlich schon kennt, sollten Suchergebnisseiten zusätzlich auf „NoFollow“ gesetzt werden.

Anmerkung zur gängigen Praxis: Laut einem Twitter Post von Gary Illyes  ist dies zwar erst ab einer hohen Anzahl von URLs hilfreich, wir empfehlen es allerdings aus langjähriger Erfahrung trotzdem. Zum einen, damit der Crawler sein Budget nicht für irrelevante Anfragen verbraucht und zum anderen, um Systemressourcen zu sparen.

Interner NoFollow – wird dadurch Linkpower vergeudet?

Bei der internen Verwendung des „NoFollow“ Befehls wird dem Crawler gesagt, den verlinkten Seiten nicht weiter zu folgen. An dieser Stelle geht alle vorhandene Linkpower verloren. Im Fall der Ergebnisseiten der Shopsuche könnte man diese Linkpower normalerweise mit dem Canonical-Tag weiterleiten.

Problem: Die gleichzeitige Verwendung der Befehle „NoIndex“ / „NoFollow“ und des Canonical Tag führt beim Crawler zu Fehlern. In einem Google Webmaster Hangout vom 11. August 2017 auf Youtube kam man zu dem Schluss, dass das Canonical-Tag an dieser Stelle fehl am Platz ist. Um Falschinterpretationen seitens des Crawlers zu vermeiden, wird es in diesen Fällen einfach ignoriert. Die Weiterleitung der Linkpower funktioniert hier also nicht.

NoIndex NoFollow und Canonical Tag gleichzeitig führen zu Fehlinterpretation - Gary Illyes Google Webmaster Hangout 11. August 2017

Google Webmaster Hangout 11. August 2017 notes – deepcrawl.com

Lösung: Idealerweise sollten Suchergebnisseiten des Shops weder intern noch extern verlinkt sein, sodass wichtige Seitenkraft und Relevanz gar nicht erst an unwichtige Seiten geleitet wird. Um das zu erreichen kann man die Shopsuche per Javascript „maskieren“ oder per Ajax nachladen lassen (PRG Pattern). Wenn keine Linkpower an die Suchergebnisseiten fließt, ist das Canonical-Tag an dieser Stelle überflüssig. „NoIndex“ bzw. „NoFollow“ können problemlos eingesetzt werden.

Fazit: Crawling richtig steuern

Um das optimale Crawlen eines Onlineshops durch die Suchmaschinen zu gewährleisten, ist es sinnvoll, Suchseiten mit dem Befehl „NoIndex“ zu deindexieren. So gelangen nur die wirklich wichtigen URLs in den Google Index. Zudem sollte die Shopsuche mit dem Befehl „NoFollow“ versehen werden. Damit keine Linkpower dabei verloren gehen kann, sollte man die Shopsuche „maskieren“.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

6 Kommentare zu "Warum sollte die Shopsuche auf Noindex / NoFollow gestellt werden?"
  • Sollte der Title des Beitrags dann nicht anders gewählt werden?
    Warum Suchergebnisseiten auf NoIndex wäre ja vom Verständnis falsch, da sind mit noindex keine Suchergebnisse für Google liefern – besser den Titel aus der URL oder H1 😉

    • Hi Ronny,
      danke für den Hinweis. Wir haben den Title noch einmal angepasst, hoffe, es ist jetzt treffender aus Lesersicht.

      VG

  • Danke für den Beitrag! Was wäre denn, wenn man von den Suchseiten nur einen teil indexieren lässt. Also man definiert ein fixes Set aus Suchbegriffen, die man nicht mit einer Rubrik bzw. Kategorie abbildet, weil Sie zu long-tail-lastig sind. Beispielsweise eine Seite für den Suchbegriff „Langlaufski“ weil man nur eine Kategorie für „Ski“ hat. Somit lässt man nicht alle Suchbegriffe indexieren und erhält keinen dublicate content. Über die Suche kann man dann aber dennoch einige gute zusätzliche Rankings erzielen.

    • Hallo Bernd,

      vielen Dank für deinen Kommentar. Zu deiner Frage: Das wäre ähnlich wie in dem Fall, dass Filter in der Suche deine Kategorien ersetzen. Hast du beispielsweise für ein bestimmtes Keywordset weder eine Kategorie noch eine Landing Page, macht eine Teilindexierung von URLs aus der Shopsuche (eben z.B. die Suche nach „Langlaufski“) durchaus Sinn. Ich würde mich dabei aber nur auf einige wenige URLs beschränken, da sonst wieder die Anzahl der indexierten Seiten signifikant ansteigt. Das setzt auch voraus, dass URLs mit Session- oder Produkt-IDs ausgeschlossen werden und nur die Filter-Parameter für Produkt, Farbe usw. enthalten. Besser wäre natürlich eine eigene Seite mit sprechender URL und individuellen Inhalten.

      Viele Grüße, Katrin

      • Besten Dank für die ausführliche Antwort. Nehmen wir an, man hat 100 Kategorien und 10.000 Suchseiten, die indexiert werden. Wäre das in Deinen Augen noch eine angemessense Anzahl bzw. Relation? Oder wirkt das schon in Deinen Augen schon spammy?

        • Hallo Bernd,

          das würde ich abhängig machen von der Anzahl deiner Produkte und Unterkategorien.
          Die (Such-)Seiten, die zusätzlich im Index erscheinen, würde ich geringer halten als die Anzahl an Kategorie- und Produktseiten (sonst geht der Linkjuice wieder in die falsche Richtung.). Bei sehr langen Longtail-Anfragen ist eine rankende Produktseite wahrscheinlich besser für die Suchanfrage geeignet als eine Suchseite mit vielen verschiedenen, aber wenig passenden Produktlisten. Das Verhalten deiner Kunden gibt aber sicher auch einen Hinweis darauf, ob das funktionieren würde.
          Wenn dein Shop schon mit einem Produkt oder einer Suchseite gut zu einer Anfrage rankt, die du ohne vorhandene Kategorie bedienen kannst, würde ich daran nichts ändern. Das hängt meiner Meinung nach aber von einzelnen Suchanfragen ab und ob man ausführlichere Begriffe mit einer bereits bestehenden Kategorie abfangen kann.
          Ich hoffe, ich konnte dir ein wenig helfen.

          Viele Grüße, Katrin