Der Stand der Dinge zum Panda Update: Quality Score, Exceptions & mehr
In den letzten Tagen gab es wieder einige neue Informationen zum Farmer/Panda Update, die ich hier gerne kurz “verdauen” möchte.
Site-wide oder nicht?
Zunächst darf man nicht vergessen, dass das Panda-Update nicht unbedingt Sites als ganzes bestraft/abwertet. Am Beispiel von Business.com kann man sehen, dass diese viele Rankings verloren haben. Das bedeute aber nicht, dass die jeweilige Seite gar nicht mehr gefunden werden kann.
Beispiel:
- “leather apparel” zeigte vor dem Update gute Rankings für Business.com, aber jetzt ist die Site nicht mehr in der Top 100 dafür zu finden.
- Für “leather apparel women” ist die Site aber sehr gut zu finden (Google #3).
- Wenn man die Suche noch näher auf die Seite einschränkt – z. B. mit “leather apparel women information” – findet man die Seite auf bei Google auf #1.
Also: Wer vom Panda-Update als “schlecht” eingestuft wird, verliert sicherlich Traffic, hat im Long Tail aber nach wie vor Chancen.
Genau hier liegt ja auch eine Schwäche der SISTRIX-Auswertungen (oder der von anderen SEO-Tools): Die Sichtbarkeitswerte werden auf der Basis von bekannten Suchbegriffen gewertet – oftmals eben Zwei- oder Drei-Wort-Phrasen. Ein Großteil des Long Tails findet dort aber kein Gehör, so dass der Traffic-Abfall nicht unbedingt mit der Veränderung des Sichtbarkeitswertes zusammenfallen muss.
Doch site-wide?
Lesenswert ist in jedem Fall die Zusammenfassung der Äußerungen auf der SMX West bei Search Engine Land:
The Farmer/Panda Update: New Information From Google and The Latest from SMX West
Wer das alles liest (was ich nur empfehlen kann – danke an Vanessa Fox für die extrem gute Zusammenfassung), erfährt das Folgende:
- Wenn man auf seiner Website Seiten mit gutem und Seiten mit schlechtem Content hat, kann das auch die Rankings für die guten Seiten beeinflussen. Es gäbe dann eine Art Quality Score für die gesamte Website, die die Rankings insgesamt nach unten reißen kann.
- Wenn die gesamte Website – also auch die guten Seiten – betroffen ist, sollte man die schlechten Seiten entweder entfernen oder per Noindex/robots.txt für Suchmaschinen sperren.
- Man sollte sich nicht nur den Content an sich, sondern auch das Template anschauen. Gibt es zu viele Werbeblöcke? Gibt es zu viele Elemente, die vom Content “ablenken”?
AdSense auf dem absteigenden Ast?
Interessant am dritten Punkt ist ja, dass Google sich hier ein wenig selber in den Fuß schießen kann, denn viele der Werbeeinblendungen – vor allem auf Low-Level-Sites – stammen ja wohl von AdSense. Also wäre doch meine erste Idee, dass ich AdSense ausbaue. Es scheint hier so, dass Google bereit ist, einen Teil seiner Einnahmen für Qualität zu opfern. Die internen Diskussionen dazu würden mich wirklich interessieren.
Interessant ist hier in jedem Fall der folgende Kommentar:
Matt said that having advertising on your site does not inherently reduce its quality. However, it is possible to overdo it.
Was denn sperren?
Die Idee, Low-Quality-Seiten zu sperren, ist ja ganz gut – nur dass Google einem eben nicht mitteilt, welche Seiten welche Qualität haben. Da muss man dann schon ran – z. B. über die Google Webmaster Tools, was je nach Größe der Site aber schon eine extreme Arbeit ist.
Quality Score
Die Idee mit dem Quality Score finde ich gut, weil sie eigentlich recht passend ist. Wenn der Quality Score der Anteil der schlechten Seiten an allen Seiten ist, erklärt das, warum es manche Sites hart trifft und manche eher nicht. Wer eben nur ein paar Low-Quality-Seiten hat, verliert dafür die Rankings und verliert insgesamt ein paar Prozentchen Rankings bei den guten Seiten – aber das merkt man vielleicht gar nicht.
Weniger Crawling
Interessant ist auch noch ein weiterer Kommentar:
Matt also noted that if Google determines a site isn’t as useful to users, they may not crawl it as frequently.
Es kann also nicht anschaden, regelmäßig die Crawl-Daten in den Webmaster Tools zu überprüfen.
White Lists
Ich empfehle auch, den Artikel “Google & Bing Have Whitelists – “Exception Lists” – For Some Algorithm Signals” zu lesen. Wenn man den Informationen glaubt, haben Google und Bing durchaus die Möglichkeit, Websites von den negativen Auswirkungen von Updates zu befreien, indem sie bestimmte Signale anders gewichten.
Wer also hart vom Update getroffen wird und glaubt, dass die Einschätzung durch Google falsch ist, sollte sich durchaus an Google wenden, um so vielleicht eine Ausnahme zu erwirken.
Alles nicht so schlimm
Und zum Schluss ein Kommentar, der Mut macht:
He said that the type of low quality content targeted by the changes are more prevalent in the United States than in other countries, so the impact won’t be as strong outside the U.S.
Markus Hövener
Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster und Autor vieler Artikel und Studien rund um SEO.
Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.
Neueste Artikel von Markus Hövener (alle ansehen)
- Welche SEO-Konferenz ist die beste? [Search Camp 317] - 23. April 2024
- SEO-Trainee-Programme: Ganz einfach SEOs ausbilden? [Search Camp 316] - 16. April 2024
- SEO-Monatsrückblick März 2024: Google Updates, Search Console + mehr [Search Camp 315] - 2. April 2024
- Recap zur SMX München: Die wichtigsten Take-Aways [Search Camp 314] - 19. März 2024
- Sichtbarkeit und/oder Traffic gehen nach unten: Woran kann’s liegen? [Search Camp 313] - 12. März 2024
März 28th, 2011 at 14:31
“He said that the type of low quality content targeted by the changes are more prevalent in the United States than in other countries, so the impact won’t be as strong outside the U.S.”
.. inwiefern soll das Mut machen? Ich bin froh wenn schlechter Inhalt rausfliegt.
Grüße
Oliver
März 28th, 2011 at 14:33
Google ist – zwangsweise – nicht extrem zielsicher bei der Entscheidung, wer gut und schlecht ist. Wenn das also Deine Website – ob gerechtfertigt oder nicht – trifft, ist das natürlich ein Problem.
In den USA sind immer noch viele Schrott-Sites im Index zu finden, während zeitgleich einige gute Sites abgestraft wurden.