Google-Suche und site-Kommando liefern zum Teil unterschiedliche Seiten: Kann man daraus was machen?
Wir haben ein neues Tool entwickelt, das automatisiert auf Websites unserer Kunden nach bestimmten Potenzialen sucht. Dafür führen wir zwei Google-Suchen aus:
- Eine normale Suche (also “keyword”), um das Ranking unseres Kunden festzustellen
- Eine site-Suche (also “keyword site:www.kunde.de”), um zu prüfen, was für diesen Suchbegriff eigentlich die beste interne Seite ist
Dabei zeigt sich, dass beide Suchen in ca. 84% der Fälle dasselbe Ergebnis liefern. In ca. 16% der Fälle passiert dann aber das folgende: (Anmerkung: www.golf.de ist kein Kunde unserer Agentur; den habe ich nur als Test genommen)
Suche ohne site-Kommando:
Suche mit site-Kommando:
Ursachen
Grundsätzlich glaube ich, dass es daran liegt, dass beide Suche etwas anders funktionieren. In 85% der Fälle stimmen beide Suchen ja auch überein, so dass man schon davon ausgehen muss, dass die Suche mti dem site-Kommando andere Schwerpunkte setzt.
Ich glaube, dass das site-Kommando eher auf On-Page-Faktoren und interne Verlinkung setzt, während in die normale Suche ja auch die externe Verlinkung einfließt.
Ein Beispiel:
Die Suche nach “gut lärchenhof” liefert:
- Ohne site-Kommando die Seite http://www.golf.de/mercedes-benz-championship/
- Mit site-Kommando die Seite http://www.golf.de/golfguide/clubs/club_index/4509/golf-club-gut-laerchenhof-ev
Wenn man sich die Seiten mal anschaut, merkt man, dass hinsichtlich der On-Page-Faktoren die zweite Seite auch deutlich besser geeignet ist. Sie ist die wirklich bessere Seite für die Suchanfrage. Dennoch wird sie in den normalen Suchergebnissen nicht ausgeliefert, weil eben noch andere Faktoren diese Entscheidung überlagern können.
(Near) Duplicate Content
Interessant ist auch, dass beide Suchen eigentlich recht gut dafür geeignet sind, (Near) Duplicate Content zu entdecken. Bei vielen der Ergebnisse ist es so, dass hier unterschiedliche Resultate kommen, z. B. für die Suchanfrage “marc aurel spa”:
- Ohne site-Kommando: http://www.golf.de/golfguide/clubs/club_index/8959/marc-aurel-spa–golf-resort
- Mit site-Kommando: http://www.golf.de/golffuehrer/clubs/club_detail.cfm?clubnr=8959
Für uns könnte sich das also als probates Mittel erweisen, um automatisiert auf großen Websites Quellen von Duplicate Content herauszufinden.
Multiple Pages
Die Auswertung kann aber auch darauf hindeuten, dass man für einen Suchbegriffe mehrere Seiten hat, die man vielleicht besser zusammenziehen sollte. Wenn man über ein Canonical-Tag mehrere sehr ähnliche Seiten innerhalb der Site vereint, kann man vielleicht daraus für Google eine Seite machen, die durch die summierte Verlinkung bessere Rankings erzielt.
Also:
Es wäre sinnvoll, ein Tool zu basteln, das das Folgende macht:
- Das Tool holt sich z. B. über die SISTRIX-API alle Suchbegriffe einer Site
- Danach werden beide Suchen ausgeführt (mit und ohne site-Kommanda)
- Wenn es eine Abweichung gibt, kann das auf ein DC-Problem hindeuten – dann sollte das Tool uns das melden
Die ersten Testläufe davon habe ich hier schon vorliegen, weil man die Daten aus dem anderen Tool gut dafür verwenden kann. Auch wenn man sich das natürlich immer noch manuell anschauen muss, bekommt man so zumindest ein paar gute Ideen – Sachen, die man bei einer manuellen Durchsicht vielleicht nicht sehen würde.
Markus Hövener
Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster und Autor vieler Artikel und Studien rund um SEO.
Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.
Neueste Artikel von Markus Hövener (alle ansehen)
- Recap zur SMX München: Die wichtigsten Take-Aways [Search Camp 314] - 19. März 2024
- Sichtbarkeit und/oder Traffic gehen nach unten: Woran kann’s liegen? [Search Camp 313] - 12. März 2024
- Wie wichtig ist es, allen SEO-News zu folgen? [Search Camp 312] - 5. März 2024
- Das Online-Marketing-Playbook für Shops - 28. Februar 2024
- SEO-Monatsrückblick Februar 2024: Suchvolumina, neues Shop-Markup + mehr [Search Camp 311] - 27. Februar 2024
Mai 24th, 2011 at 15:06
Finde ich sehr interessant. Entgegen der Vermutung vor allem. Ist mir bisher aber auch noch nie aufgefallen, Deckung war immer 100%, jedoch nur bei manuellen Abfragen und daher statistisch irrelevant.
Gibt es Muster, also zB Longtail speziell? Wäre meine Vermutung
Mai 24th, 2011 at 15:07
Leider nein, passiert sowohl bei Long Tail als auch Short Head…
Mai 25th, 2011 at 07:10
Hey Markus, interessanter Ansatz. Bedeutet das für Dich also auch, dass wenn die Site-Abfrage ohne Keyword nicht die Startseite als erstes oder unter den ersten Ergebnissen zeigt, dass dann ein Onpage- oder Onsite-Problem vorliegen muss? Oder ist das ein Sonderfall und deshalb können hier zusätzlich externe Faktoren massiven Einfluss nehmen? LG, Marcus
Mai 25th, 2011 at 11:16
Interessanter Gedanke, der aber, glaube ich, nichts bringt. Das läuft auf die Frage hinaus, wie wichtig man die Verzeichnistiefe als Rankingfaktor einschätzt.
Die Site-Abfrage ist (zumindest nach meiner Beobachtung) nach Verzeichnistiefe strukturiert. In aller Regel liegt die Homepage vorne, und dann folgen die Indexseiten der Ordner 1. Ordnung, dann die Unterseiten in den Ordner 1. Ordnung und so weiter.
Die Aussagen “Eine site-Suche (also “keyword site:www.kunde.de”), um zu prüfen, was für diesen Suchbegriff eigentlich die beste interne Seite ist” ist meiner Ansicht nach falsch. Ich glaube nicht, dass man aus der site-Abfrage eine Serp-relevante Relevanz ablesen kann.
Aber ich bin gespannt auf die Diskussion und ev. das Tool 🙂
Gruß, Martin
Mai 25th, 2011 at 11:18
Edit: ah, OK – kann natürlich sein, dass man mehrere Seiten in der gleichen Verzeichnistiefe hat. Dann würde es in der Tat ev. relevant.
Mai 25th, 2011 at 11:47
Das mit der Verzeichnistiefe würde ich so nicht unterschreiben. Das mag so aussehen, stimmt aber gerade bei tieferen Ebenen einfach nicht. Ich glaube eher, dass die nach interner Linkgewichtung sortiert werden. Und die stimmt natürlich bei den Top-Seiten mit der Ordnertiefe überein.
Mai 29th, 2011 at 10:00
@Marcus: Interessante Frage. Ich kenne derzeit einige Fälle, bei denen die Startseite beim site-Kommando nicht die erste, sondern die zweite Seite ist. Es gibt aber eigentlich keinen Grund dafür. Zumindest ist bei diesen Sites nichts anders als bei anderen ähnlichen Sites.
Der Traffic dieser Sites hat sich übrigens null verändert, seitdem die Startseite nicht mehr als erstes angezeigt wird. Ich kann hier nur vermuten, dass das eine Anomalie ist.
Juli 19th, 2011 at 13:12
Wollte mal ein Update geben, habe die Sache weiterhin beobachtet.
“golfclub ingolstadt”
Hier ranken aktuell eine neue URL und die alte URL aus der site-Abfrage. Bei der site-Abfrage sind die ersten drei Ergebnisse genau diese Seiten, interessanterweise zuerst die alte aus der site-Abfrage, dann die neue URL und dann die die früher normal gerankt hat.
“gut lärchenhof”
Hier ist die URL am ranken, die bei der site-Abfrage rankte, bei beiden Abfragen. Der Tag dieses Artikels war der letzte Tag an dem die hier beschriebene URl gerankt hat. Lag wohl am Link auf die URL.