Paginierung + SEO: Die Checkliste (Canonical-Tag, Robots-Meta-Tag …)

10. Dezember 2018 | Von in SEO

Die Paginierung von Seiten ist in Bezug auf SEO nicht gerade einfach. Sicherlich: Viele Shop- und Content-Management-Systeme haben Mechanismen für die Paginierung, aber SEO-tauglich sind diese nicht immer – mit der Folge, dass evtl. Seiten gar nicht erst indexiert werden.

Warum ist Paginierung überhaupt wichtig?

Manchmal gibt es zu viele Elemente, um auf eine einzige Übersichtsseite zu passen:

  • Produkte auf Kategorienseiten
  • Nachrichten auf Themenseiten

Genau für diesen Zweck gibt es Paginierung. Übersichtsseiten werden in einzelne sogenannte Komponentenseiten aufgeteilt, die dann auf eine bestimmte Anzahl an Elementen verlinken.

Ein Beispiel: Ein Shop hat sechs Produkte. Pro Seitewerden aber nur drei Produkte angezeigt, sodass es zwei Komponentenseiten gibt: Die erste verlinkt auf die Produkte 1-3, die zweite auf 4-6:

 

Paginierung ist wichtig für Crawler. Wenn man mal davon ausgeht, dass an keiner anderer Stelle des Shops auf die Produkte 4-6 verlinkt wird, dann ist die zweite Komponentenseite die einzige Möglichkeit für Google, die Produktseiten über interne Links zu finden. Falls die zweite Komponentenseite für Suchmaschinen gesperrt ist, kann Google dann auch die Produkte 4-6 nicht finden, crawlen und indexieren. Das gilt natürlich nur dann, wenn die Produktseiten 4-6 nicht anderweitig intern verlinkt werden (z. B. über “Ähnliche Produkte” auf Seiten 1-3).

 

Wie wird Paginierung häufig umgesetzt?

In der Vergangenheit wurde Paginierung häufig so umgesetzt, dass alle Komponentenseiten per Canonical Tag auf die erste Komponentenseite verweisen. Außerdem wurden alle Komponentenseiten – von der ersten abgesehen – per Robots-Meta-Tag „noindex“ von der Indexierung ausgeschlossen. Ein „follow“ sollte aber sicherstellen, dass die verlinkten Seiten trotzdem vom Crawler erfasst und dann indexiert werden.

 

Das wurde gemacht, damit in den Suchergebnissen auch wirklich nur die erste Komponentenseite erscheinen konnte (also im Beispiel /kategorie und nicht /kategorie?page=2).

 

Und warum ist das kritisch?

Es gibt hier zwei Probleme. Das erste besteht darin, dass man an Google Mixed Signals schickt. Die Seite /kategorie hat ja ein Robots-Meta-Tag „index“, was bedeutet: Diese Seite soll in den Index. Und dann gibt es die Seite /kategorie?page=2, die per Canonical Tag auf /kategorie verweist und gleichzeitig auf „noindex“ steht. Daraus könnte Google schlussfolgern: /kategorie?page=2 und /kategorie sind „identisch“ und stehen auf „noindex“. Für die Seite /kategorie gibt es also sowohl ein index- als auch ein noindex-Signal, was dazu führen kann, dass diese Seite aus dem Index entfernt wird – auch wenn das faktisch extremst selten passiert.

Dann gibt es aber noch ein größeres Problem. Google hat sich dahingehend geäußert, dass eine Seite, die auf „noindex, follow“ steht, nach einiger Zeit in „noindex, nofollow“ umgemünzt wird:

“But if we see the noindex there for longer than we think this this page really doesn’t want to be used in search so we will remove it completely. And then we won’t follow the links anyway. So in noindex and follow is essentially kind of the same as a noindex, nofollow. There’s no really big difference there in the long run.”

Und dann passiert genau das, was nicht passieren soll: Den Links auf den Komponentenseiten wird nicht mehr gefolgt, was zur Folge hat, dass dort verlinkte Detailseiten auch nicht gefunden werden.

In der Praxis ist das nicht immer schlimm, weil Detailseiten evtl. auch auf anderem Wege gefunden werden (Querverlinkungen von Detailseiten, XML-Sitemaps …). Aber: Es fehlt halt der sichere Weg, dass Google auf jeden Fall an alle Detailseiten herankommt. Und deswegen empfehlen wir klar, Paginierung anders umzusetzen.

 

Unsere Empfehlung: Die Checkliste für Komponentenseiten (Canonical-Tag, Robots-Meta-Tag, …)

  • Jede Komponentenseite sollte per Canonical Tag auf sich selber zeigen.
  • Auf jeder Komponentenseite gibt es das Robots-Meta-Tag „index, follow“.
  • Um Duplicate Content zu vermeiden, sollte ein evtl. (SEO-)Text nur auf der ersten Komponentenseite stehen.
  • Alle Komponentenseiten haben typischerweise dieselben Seitentitel und Meta Descriptions. Das wird von vielen Crawlern und auch von der Google Search Console zu Meldungen führen. Man kann das unterbinden, wenn an Seitentitel und Meta Description automatisiert „(Seite N)“ angehängt wird (natürlich nur für N>1).

In früheren Versionen dieser Checkliste habe ich auch die rel-prev-next-Tags erwähnt. Am 21. März 2019 hat John Mueller von Google erklärt, dass Google diese eigentlich schon seit langer Zeit nicht mehr nutzt. Für Google sind diese also derzeit faktisch nicht mehr relevant. Wer diese implementiert hat, kann sie natürlich auch weiterhin unverändert lassen, da sie auch keinen Schaden anrichten (und z. B. von Bing noch genutzt werden). Einen Nutzen haben sie aber leider auch nicht. In der folgenden Grafik sind diese Tags noch enthalten; auch Tools wie der Screaming Frog SEO Spider werten die Tags derzeit noch aus.

Im konkreten Fall sähe die Implementierung aller Tags so aus:

 

Was noch?

Ein Problem gibt es darüber hinaus noch: Wenn es viele Komponentenseiten gibt, muss Google diese ja auch über interne Verlinkungen finden. Und die Klicktiefe darf nicht zu hoch sein, da Seiten sonst gar nicht mehr gecrawlt und indexiert werden.

Ein Beispiel: Es gibt 100 Komponentenseiten (also bis /kategorie?page=100). Jede Komponentenseite verlinkt jeweils nur auf den Vorgänger und auf den Nachfolger. Komponentenseite /kategorie?page=33 würde also auf /kategorie?page=32 und /kategorie?page=34 verlinken. Ein solches Setup würde dazu führen, dass Google 100 „Klicks“ braucht, um auch die 100. Komponentenseite zu finden.

Nun muss man wissen, dass Google Seiten mit einer zweistelligen Klicktiefe in der Regel nicht crawlt und dann auch nicht indexiert. Google würde also einen Großteil der Komponentenseiten nicht crawlen und folglich die dort verlinkten Produkte nicht finden. Um das Problem zu lösen, gibt es zwei verschiedene Ansätze.

Der harte Ansatz: Eine Komponentenseite verlinkt auf alle Komponentenseiten. Bei 100 Komponentenseiten gäbe es also unter der Produktliste genau 100 Links von 1 bis 100, die auf die jeweiligen Komponentenseiten zeigen. Das funktioniert zwar, ist aber optisch sicherlich kein Zugewinn und auch in Bezug auf SEO problematisch, wenn es deutlich mehr als 100 Seiten gibt. Wer sich aber sicher ist, dass er maximal eine niedrige zweistellige Anzahl an Komponentenseiten hat, kann diesen Ansatz gut nutzen.

In diesem Beispiel erkennt man schon, dass es deutlich mehr Komponentenseiten auch wirklich nicht sein sollten:

 

Der intelligente Ansatz: In der Praxis finden sich unterschiedliche Methoden. So kann man z. B. auf die ersten fünf, die mittleren fünf und die letzten 5 Komponentenseiten verlinken, also z. B. „1 2 3 4 5 … 48 49 50 51 52 … 96 97 98 99 100“. Das sorgt dann – wenn das auf allen Komponentenseiten ähnlich umgesetzt wird – dafür, dass Google schon mit einer niedrigen zweistelligen Anzahl an alle Komponentenseiten herankommt.

Ein Beispiel für eine intelligente Umsetzung findet sich z. B. bei diesem Forum:

Fazit

Paginierung ist – gerade für Shops und Portale – ein wichtiger Mechanismus, den man technisch korrekt umsetzen muss, um Crawling und Indexierung aller Inhalte sicherzustellen. Hier sollte man die korrekte Implementierung von Canonical Tag und Robots-Meta-Tags nutzen, um die richtigen Signale an Google zu schicken.

Nächste Events

SMX Advanced Europe: Sind Sie dabei?

Auch auf der neuen SMX Advanced Europe ist Bloofusion natürlich vertreten. Unser Head of SEA Martin Röttgerding hält einen spannenden Vortrag mit dem Titel “Customized Ads = Greater Ads“. Haben Sie noch kein Ticket? Hier geht’s zur Anmeldung…

The following two tabs change content below.

Markus Hövener

Markus Hövener ist Gründer und Head of SEO der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor (International SEO), Autor vieler Artikel und Studien rund um SEO und SEA und Chefredakteur des Magazins suchradar.

In seiner Freizeit hat Markus vier Kinder, spielt gerne Klavier (vor allem Jazz) und hört auf langen Autofahrten „Die Drei Fragezeichen“.

8 Kommentare zu “Paginierung + SEO: Die Checkliste (Canonical-Tag, Robots-Meta-Tag …)”

  1. meister.de Redaktion

    Hallo Markus,
    vielen Dank für diese ausführliche Anleitung zu Paginationsseiten. Besoners gut beschrieben ist die Checkliste mit den Handslungsempfehlungen.
    Auch auf meister.de haben wir bei Paginationsseiten zuletzt die follow-Auszeichnung geändert und die Seite 2 und folgende von follow, index auf nofollow, index geändert. Grundsätzlich hat dies einen Anstieg der Google Position und der Klickrate gebracht. Viele SEO Experten empfehlen auch dies.
    Habt ihr hier positive Erfahrungen mit der Umstellung von noindex, follow auf index, follow bei Paginationsseiten ab Seite 2 gemacht?
    Gruß Swantje

  2. Markus Hövener

    Positive Erfahrung wäre zu viel gesagt. Es ist immer unglaublich schwierig, solche Änderungen und dessen Auswirkungen exakt zuzuordnen, wenn zeitgleich auch noch andere Sachen geändert werden 🙁 Deswegen kann ich da keine belastbaren Erfahrungen beisteuern…

  3. Marcus

    Hallo Markus, sehr interessanter Artikel, vielen Dank dafür. Ich habe eine Fragen zum Canonical-Tag.
    Folgender Use Case: Ich befinde mich auf der zweiten Komponentenseite und der Canonical-Tag zeigt auf sich selbst -> /kategorie?page2
    Jetzt ändere ich die Sortierung auf “Name absteigend” und Artikel pro Seite auf “128” um. Dann kommen in der URL dieser Page zwei neue Parameter (Sort, Items) hinzu.
    Müssen diese Parameter dann auch in den Canonical-Tag generiert werden?
    Also so z.B.: /kategorie?page2&sort=desc&items=128
    Gibt es für diesen Fall eine Empfehlung?

  4. Markus Hövener

    Das ist immer ein bisschen eine Einzelfallentscheidung, weil es vom konkreten Umfang abhängt.
    Als Standard-Empfehlung würde ich aber die Sortier-Parameter per robots.txt sperren, also z. B.
    Disallow: /*sort=

    Das sind ja in der Regel keine wertvollen Seiten + es gibt sehr schnell sehr viele davon, sodass man auch noch viel Crawl-Budget verschwendet.

  5. Tobias

    Hallo Markus,

    super Artikel. Eine Frage habe ich dazu.
    Wir haben aufgrund der Produktvielfalt paginierten Seiten jenseits > 500. Zum Einsatz kommt daher eine log. Paginierung. Allerdings sind die Crawlpfade immer noch weit im zweistelligen Bereich. Wäre es ratsam, einfach die pag. Seiten auf ca. 20 (wichtigsten Produkte)zu begrenzen?
    Dann würde die Crawltiefe reduziert werden, aber im Gegenzug viele verweiste Seiten entstehen. Canonical ist tech. nicht möglich.
    Wäre dies eine Maßnahme oder eher die Wahl zwischen Pest und Cholera?

    Viele Grüße

    Tobi

  6. Markus Hövener

    Da habe ich keine einfache Antwort.

    Also: Wichtig ist mir ja, dass der Crawler über die Komponentenseiten mit niedriger Klicktiefe an alle Produktdetailseiten herankommt.

    Wenn es also den Fall gibt, dass eine Kategorie 500 Komponentenseiten hat, der Crawler aber über andere Kategorien gut an die Produktdetailseiten herankommt, wäre mir das egal.

    Wenn es diesen alternativen Pfad nicht gibt und der Crawler nur über die 500 Komponentenseiten den Weg findet, müsste man über eine andere Art nachdenken, die Komponentenseiten zu verlinken. Da gibt es auch Lösungen, die dann aber nicht logarithmisch sind.

  7. Tobias

    Hallo Markus,
    danke für deine Antwort. Der Weg wäre halt noch über die Sitemaps als alternative Weg.
    Bei der Festlegung auf max. 20 Seiten würde der Crawler jedenfalls die wichtigsten Produktseiten crawlen. So würde ich jetzt jedenfalls denken. Was denkst du?

    Danke dir.
    Viele Grüße

    Tobi

  8. Markus Hövener

    Kann man machen. Bin immer ein Freund von perfekten Lösungen 🙂

    Sitemaps helfen, auch Querverlinkungen von Produkten können hilfreich sein.

Kommentieren