Search Camp Episode 43: Ranking-Faktor-Studien – Hilfreicher SEO-Input oder Old School?

23. Januar 2018 | Von in Search Camp, SEO

Es gibt viele Ranking-Faktor-Studien, die versuchen, Licht in den Google-Rankings-Dschungel zu bringen: Welche Faktoren sind wichtig für Top Rankings, welche nicht? Mit großem Aufwand werden tausende Suchergebnisse analysiert, um daraus mehr über den geheimen Algorithmus zu lernen. Aber kann man den Ergebnissen wirklich trauen? Welche Kritikpunkte gibt es an den gängigen Studien? Und warum sollte man sich einige der Studien trotzdem anschauen?

> Alle Episoden von Search Camp als RSS-Feed
> Search Camp bei iTunes
> Alle Folgen: www.searchcamp.de

 

Shownotes:

Ranking-Faktoren-Studien:

 

Transcript:

Moin moin, herzlich willkommen zu Search Camp, dem Online-Marketing Podcast. Mein Name ist Markus Hövener und mein Thema heute sind Ranking-Faktor-Studien. Es gibt ein paar davon und ich versuche heute die Frage zu klären, was kannst du damit anfangen? Sind die für dich hilfreich oder schicken die dich manchmal auch in die falsche Richtung? Ich habe mir da insgesamt 9 Punkte für angeguckt und insgesamt 4 Empfehlungen für dich zum Schluss. Lohnt sich also dranzubleiben. Also gleich in 5 Sekunden.

Und da bin ich auch schon wieder. Danke fürs Dranbleiben. Wie komme ich eigentlich zu diesem Thema? Es gab so zwei Punkte innerhalb weniger Tage. Einmal hatte mich ein bekannter Hersteller von diesen Studien um meine Mithilfe gebeten und da habe ich meinen Senf zu abgegeben, der jetzt nicht nur positiv war. Und dann gab es noch einen Post, den ich auf Facebook gesehen habe, wo Olaf Kopp sich SEMrush-Studie vorgenommen hat und auch ich sag mal sehr kritisch war und da habe ich gedacht, das Thema muss ich mir doch mal angucken. Also Ranking-Faktor-Studien. Es gibt ein paar davon, die findet ihr übrigens alle auch in den Shownotes, einmal davon die Local SEO Ranking Factors, letztes Update 2017. Dann von moz.com gibt’s die Seach Ranking Factors, letztes Update 2015. Searchmetrics bringt die regelmäßig raus, aktualisiert 2017 für die Branchen E-Commerce, Finanzen, Reise, Medien und Gesundheit. SEMrush 2017 und Backlinko 2016. So, was machen die jetzt? Was machen diese ganzen Studien? Die versuchen ganz bestimmte Eigenschaften einer Website oder von Seiten, von Inhalten, in Relation zu guten Rankings zu setzen. Also sie versuchen Eigenschaften zu finden, die alle guten Websites haben, also alle, die von in den Rankings zu finden sind, haben diese Eigenschaften und alle, die hinten zu finden sind, haben diese Eigenschaften nicht. Das ist jetzt nicht so ein Null-Eins-Wert, der dabei rauskommt, sondern so ein Korrelationswert. Viele Hersteller gibt es, die sich das Ganze angucken. Die analysieren dafür tausende Suchanfragen und berechnen dann diese Korrelationen. Keine Sorge, ich erspare mir heute den Ausflug in die Welt der Stochastik. Für alle, die das begeistert, können andere Leute vielleicht etwas besser als ich und es führt hier glaube ich auch zu nichts. Aber dazu kommen wir gleich nochmal, warum das so ist. Vielleicht ein kurzer Einschub. Es gibt ein paar Studien, die sind anders. Zum Beispiel MOZ macht das ein bisschen anders, die befragen SEOs aus der ganzen Welt, ist also eher so eine Meta-Analyse. Ist also eine ganz andere Datenbasis. Aber das, was typischerweise da draußen gemacht wird, ist das, was ich gesagt habe. Man guckt sich tausende Suchanfragen respektive die Suchergebnisse an und guckt dann nach, kann ich solche Eigenschaften finden oder so eine Korrelation zwischen einer Eigenschaft und einem guten Ranking? Eigentlich muss man sagen, ist ein super Markt, ist ein super Thema eigentlich. Es interessiert nämlich beides, es interessiert erstmal die Anbieter, also ich sag mal Tool-Hersteller vor allem, für die funktionieren diese Studien natürlich sehr gut, prima PR-Instrument. Vor allem haben die auch die ganzen Daten, die sie da auswerten können. Leser-seitig funktioniert das Ganze natürlich auch, weil viele da draußen verstehen wollen, wie dieser Algorithmus von Google jetzt eigentlich funktioniert. Also der eine liefert etwas, was der andere haben will, ist doch eigentlich perfekt. Was kann daran falsch sein? Hm, eigentlich nichts, aber ich versuche trotzdem ein bisschen zu meckern oder. Meckern ist eigentlich das falsche Wort. Ich versuche ein bisschen euch nachdenklich zu machen und euch ein bisschen aufzuklären, weil jemand, der sich nicht den ganzen Tag damit beschäftigt und diese ganzen Studien auch alle gelesen hat, vielleicht zu schnell auf die falsche Fährte geführt wird. Also insgesamt 9 Punkte. Man kann es Kritikpunkte nennen oder Aspekte, über die man mal nachdenken sollte.

Punkt Nummer 1: Können wir die jeweiligen Eigenschaften eigentlich richtig messen? Ich gebe mal ein Beispiel. Domain-Popularität, also von wie vielen verschiedenen Websites wird eine bestimmte Website verlinkt? Das ist die Domain-Pop. Und wenn man jetzt herausfinden will, ob es eine Korrelation zwischen der Domain-Pop und guten Rankings gibt, braucht man irgendwoher diese Domain-Pop einer Domain, die man findet. Und da muss man in der Regel auf eine Datenbank zurückgreifen. Da gibt’s Majestic, aHrefs, MOZ und und und. Wenn man sich jetzt zum Beispiel die Daten von Majestic nimmt, wer immer sich mit dem Tool gut auskennt, weiß, da sind viele Doubletten drin. Das heißt die Domain-Pop ist nicht so ganz aussagekräftig, weil sie eben etwas überhöht ist. Sie ist also kein sinnvolles Maß, weil Google solche Doubletten herausstreicht und noch viele andere Links überhaupt aus der Gleichung entfernt. Das heißt diesen Messwert, den ich mir da angucke, um eine Korrelation zu bestimmen, ist nicht das, womit Google rechnet. Und deswegen ist natürlich auch das Ergebnis dessen, ich sag mal nicht ganz optimal. Also selbst, wenn ich eine Korrelation herausfinden würde, dann könnte diese Korrelation immer noch falsch sein.

Das 2. Problem: Auf Englisch Causation versus Correlation, auf Deutsch Kausalität gegen Korrelation. Also die Korrelation zu errechnen, ist relativ einfach. Das ist einfach nur ein mathematisches Verfahren. Aber die Frage ist, gibt‘s auch eine Kausalität? Bestes Beispiel, also. Einige Studien finden heraus, es gibt eine starke Korrelation zwischen guten Rankings und vielen Facebook-Likes. Jetzt ist aber die Frage, was ist das? Ist das wirklich eine Korrelation oder ist das eine Kausalität? Also gibt es die Rankings wegen der Likes, gibt’s die Likes vielleicht wegen der Rankings oder gibt‘s einfach nur beides aus Versehen in Anführungsstrichen „parallel“. Also das ist in der Regel hier nicht so, das A impliziert B. Und der Lateiner, wer immer da ein bisschen drauf ist, der Lateiner sagt cum hoc ergo procta hoc. Lateinisch ist das: für mit diesem, folglich deswege. In der Wikipedia nachzulesen, bezeichnet einen Fehlschluss, bei dem das gemeinsame Auftreten von Ereignissen oder die Korrelation zwischen Merkmalen ohne genauere Prüfung als Kausalzusammenhang aufgefasst wird. Wow! Beispiel. Ereignis A wäre zum Beispiel: Im Jugendalter steigt der Schokoladenkonsum. Ereignis B ist: im Jugendalter tritt vermerkt Akne auf. Die Schlussfolgerungen daraus: Schokolade verursacht Akne bei Jugendlichen. Also klassisches Beispiel, nur zwei Sachen parallel häufig auftreten, heißt das nicht, dass das eine zu dem anderen führt. Und das ist das große Problem bei diesen Studien, weil es mit Sicherheit ein paar Sachen da drin gibt, die wirklich eine Kausalität darstellen. Und es gibt ein paar Sachen, die sind wirklich nur eine Koinzidenz, die passieren aus Versehen so, einfach wie Sachen so parallel passieren. Und keiner klärt einen darüber auf, welcher dieser Faktoren jetzt eigentlich in welche Kategorie fällt.

Thema Nummer 3: Welche Faktoren prüfen wir eigentlich? Also Google sagt zum Beispiel, sie gucken sich mehr als 200 Faktoren an. Aber die meisten Studien geben mir diese 200 Faktoren gar nicht wieder oder diese 200 plus Faktoren. Häufig guckt man sich so einfach zu prüfende Sachen an wie Seitentitel oder wie eine H1. Das mag auch sinnvoll sein, das ist auch sinnvoll, aber komplexere Dinge wie komplexere Trust-Berechnungen oder auch das Verhältnis von Domain-Pop zu IP-Pop oder sowas, das gucken sich die Studien in der Regel nicht an. Vielleicht fallen die in diese 200 plus Faktoren rein, aber zum einen wissen wir nicht genau, was diese 200 plus Faktoren sind und zum anderen, selbst wenn wir sie wüssten, könnten wir sie vielleicht auch nicht alle messen. Und deswegen gucken wir uns eben, selbst wenn diese Studie perfekt ist, gucken wir uns nur einen kleinen Ausschnitt der Realität an. Wie klein oder wie groß der Ausschnitt ist, wissen wir nicht.

Numero 4: Ich habe das mal überschrieben mit Implikationen, neudeutsch actionable. Also ist s natürlich schön, wenn ich in so einer Studie sehe, dass eine hohe Domain-Popularität zu guten Rankings führt. Super das zu wissen. Aber ich habe immer noch das Problem, Dass ich wissen muss, wo diese Links eigentlich herkommen. Also ich habe einen Erkenntnisgewinn, aber er ist vielleicht nicht actionable. Er kann trotzdem hilfreich sein, um vielleicht eine bestimmte Entscheidung zu treffen oder zu rechtfertigen. Wenn ich also zum Beispiel weiß, in den letzten 5 Jahren ist der Faktor Domain-Pop oder insgesamt Linkaufbau immer weiter nach unten gegangen. Und ein anderer Faktor, Onpage-Signale gehen tierisch nach oben, dann weiß ich einfach, wohin ich mein Geld schieben soll, nämlich nicht ins Link Building, sondern eben alles Onpage shiften. Das heißt da kann es mir vielleicht etwas helfen, aber oft kommen halt so Sachen raus, wo ich sage ja schön, dass ich das jetzt weiß. Aber oft kommen halt so Sachen raus, wo ich sage, ja schön, dass ich das jetzt weiß. Aber es ist immer noch ein sehr weiter Weg wirklich da jetzt auch wirklich hinzukommen.

Thema Nummer 5, Aspekt Nummer 5, Kritikpunkt Nummer 5. Durchschnitt über alle Suchanfragen und Branchen. Ich glaube, wir alle wissen mittlerweile, dass es den Google Algorithmus nicht mehr gibt. Je nach Branche je nach Search Intent greifen einfach andere Teile oder gewichten ganz bestimmte Faktoren anders wie auch immer das Ding funktioniert, wissen wir alle nicht. Aber nochmal, ich glaube, wir sind uns alle darin einig, dass es diesen einen Algorithmus, diesen ein Ablaufplan, if this then that und am Ende kommt eine 0,3 raus, dass es das einfach nicht mehr gibt. Was machen diese Studien jetzt aber? Sie stecken ganz ganz ganz viele tausende von Suchanfragen Richtung Google und gucken sich die Suchergebnisse an und bilden halt und das ist eigentlich immer blöd, ein Durchschnitt. Das heißt diese Daten sind vielleicht für meine eigene Branche, für meine eigene Konkurrenzsituation so gar nicht relevant, weil da greift vielleicht auf einmal ein ganz anderer Algorithmus. Searchmetrics muss man dafür loben, die gehen den Weg und teilen das in verschiedene Branchen auf, zum Beispiel Gesundheit. Ich finde, es ist nicht extremst besser, weil es auch eben dort, viele unterschiedliche Player und Thematiken gibt. Gesundheit ist natürlich ein extrem weites Feld, da gibt es auch die großen Medizinportale Es gibt Ärzte, Krankenhäuser, Alternativmedizin, Foren und und und. Also ganz viele Sachen, die sich da rumtreiben und da schere ich jetzt alles über einen Kamm. Der Kamm ist jetzt auf einmal etwas besser geworden, keine Frage, aber trotzdem schere ich noch unglaublich viel über einen Kamm. Natürlich wäre es immer das geilste, wenn ich wirklich meine 21 Wettbewerber da reinstecken könnte und könnte sagen, okay, jetzt dafür berechne mir doch mal die ganzen Korrelationen. Das geht natürlich so nicht. Ich verstehe schon, warum es nicht gemacht wird. Das aber macht das Ergebnis nicht deutlich besser.

Punkt Nummer 6 geht in eine sehr ähnliche Richtung. Ich habe es mal mit KI oder AI überschrieben. Also künstliche Intelligenz, auch da habe ich eben schon gesagt, den klassischen Algorithmus, so ein hart kodiertes Ding von oben nach unten durch, das gibt‘s einfach nicht mehr. Folgerichtig finde ich, machen dann auch so Ranking-Faktoren wirklich nur recht bedingt Sinn. Das muss einem einfach klar sein, diese Maschine lernt und lernt und lernt und wir gucken uns immer noch so statische Ranking-Faktoren an. Ich glaube, das ist einfach nicht mehr zeitgemäß. Punkt.

Thema Nummer 7, ja die Zeit. Ist nicht die Zeit, das Feuer, in dem wir verbrennen. Überhaupt keine Frage. Zeit ist immer ein Problem, selbst wenn eine Studie heute richtig erfasst wurde und heute die richtigen Kausalitäten abbildet, Google kann sich jederzeit entscheiden, die Gewichtung der Faktoren für jede Suchanfrage zu ändern. Auf einmal kommen neue Faktoren hinzu. Wie gesagt, wenn es KI ist, ist sowieso eigentlich fast alles egal, weil die KI kann jederzeit entscheiden, alles über den Haufen zu werfen. Es gibt dann nach wie vor noch Updates, auch wenn Google sich nicht mehr dazu äußert, was konkret sie da jetzt so alles dran drehen. Aber trotzdem, ich gucke mir eine Studie an und manche der Studien sind ja auch schon aus dem letzten Jahr oder aus dem Jahr davor und da muss ich wirklich sehr kritisch sein, was die Ergebnisse angeht.

Aspekt Nummer 8: Ich habe es mal übertitelt mit: Oldschool? Ich glaube, dass hinter diesen Ranking-Faktor-Studien immer noch so dieses Gaming the System steckt. Also man will verstehen, wie dieser Algorithmus funktioniert, um dann eben auch vielleicht diese Grenzen ein bisschen auszuloten, respektive vielleicht manchmal die Grenzen auch ein bisschen zu überschreiten. Ich glaube, das ist wirklich alles so ein bisschen Oldschool-Denke. Wir reden alle über Search Intent und solche Sachen, wo Google jetzt einfach deutlich weitergeht und sich wirklich meinen Content anguckt und dann Entscheidungen darauf trifft. Ich glaube dieses Ranking-Faktor-Studien, das kann einfach so nicht mehr funktionieren. Also gerade diese klassischen Sachen wie, gibt es Zwischenüberschriften oder sowas, ich glaube, das macht einfach keinen Sinn mehr solche Studien grundsätzlich zu machen. Ich komme später noch ein bisschen dazu, wann es dann doch wieder Sinn macht. Aber grundsätzlich glaube ich, ist das für mich einfach Oldschool-Denke, die einfach zu dem, was man so heute macht und worüber man redet, einfach nicht mehr so richtig passt.

Punkt Nummer 9: Wer sagt die Wahrheit? Es gibt ja zum Beispiel die SEMrush-Studie. Wie gesagt die Links findet ihr alle in den Shownotes. Die haben zum Beispiel eine große Korrelation herausgefunden mit dem Direct Traffic. Das ist erstmal ganz gut. Google sagt aber zeitgleich, dass sie diesen Faktor gar nicht berücksichtigen. Jetzt muss man immer ein bisschen unterscheiden, ist das ein direkter Ranking-Faktor oder ist es vielleicht doch etwas, mit dem Google seine Modelle irgendwie trainiert oder so? Aber glauben wir mal kurz, dass das wirklich gar nicht berücksichtigt wird. Dann ist natürlich die Frage: Wer lügt jetzt eigentlich? Ich glaube und sehe hier einfach grundsätzlich ein Problem, dass viel zu viele Menschen das Ganze nicht hinterfragen. Mein Lieblingsbeispiel ist wirklich das mit den Facebook-Likes, weil das kommt wirklich in ganz vielen Einsteigerseminaren, die ich gebe, immer wieder, dass Leute denken, ja, Google kann dieses Facebook auslesen und je mehr Likes du hast, desto besser rankst du. Kommt immer. Kannst du die Uhr nach stellen. Ich habe so ein Seminar, das mache ich zweimal im Jahr. Wirklich, ich weiß schon, jetzt kommt meine Folie, dann kommt gleich die Frage. Ich glaube, dass so manche Studien, die solche Sachen in Anführungsstrichen „behaupten“, natürlich helfen können solche Vorurteile zu zementieren. Also ich habe da mal gelesen und in der Zeitschrift XY stand, dass SEMrush herausgefunden hat, dass Facebook-Likes gut fürs Ranking sind. Da könnte natürlich, ich habe mir jetzt nicht jede Studie unter dem Aspekt nochmal angeguckt, ich glaube, es würde an manchen Stellen helfen, wenn deutlicher darauf hingewiesen würde, wie diese Daten denn jeweils zu verstehen sind. Also dieses klassische Problem mit Kausalität und Korrelation. Deswegen wie gesagt, ich sehe das sehr kritisch, auch weil Leute wie ich, die halt auch sehr viele Einsteigerseminare und viele Workshops geben, eigentlich jeden Tag an der Basis wieder merken, was da eigentlich ankommt und was da eigentlich hängenbleibt. Und viele Ranking-Faktor-Studien sind wirklich nicht hilfreich.

Meine Empfehlungen oder auch mein Fazit. Vier Punkte habe ich da.

Punkt 1: Kritisch bleiben. Ist sowieso immer ein guter Tipp. Ich weiß, ist vielleicht ein bisschen generisch, aber nicht einfach irgendwas lesen, weil das irgendjemand geschrieben hat, weil irgendjemand da irgendwelche schönen Zahlen und Charts zusammengebastelt hat. Guckt euch das an, guckt euch die Methodik an und denkt darüber nach, was das Ganze jetzt eigentlich wirklich aussagt.

Meine Empfehlung Nummer 2: Lasst euch nicht fehlleiten. Auch das habe ich extremst. Oft. Hatte ich letztens wieder ein Fall. Es gibt eine Korrelationsstudie, die hat mal hergeleitet, wie viele Wörter stehen typischerweise auf einer Seite, wenn ich auf der 1. Google-Position sein möchte oder bin, wie auch immer. Und das lesen Leute und sagen dann, wenn das 1.300 sind, dann muss ich am besten 1.500 Wörter schreiben, dann bin ich auf der sicheren Seite. Ist natürlich vollkommener Quatsch. Es geht niemals um die Anzahl der Wörter. Es geht auch hier wieder nochmal um so Sachen wie Search Intent. Es geht aber auch um Qualität. Also 1.500 Wörter sind nicht besser als 1000 Wörter. Aber manche Menschen ziehen einfach die falschen Schlüsse aus diesen Studien und deswegen lasst euch nicht fehlleiten.

Meine Empfehlung Nummer 3: Wann sind Studien eigentlich wirklich sinnvoll? Ich glaube, sie sind dann sinnvoll, wenn sie A) den Verlauf über die Zeit berücksichtigen und oder B) sich nur auf eine Teilthematik beziehen. Zum Beispiel die Local SEO Studien finde ich sehr hilfreich, weil sie das beides idealerweise miteinander kombinieren, das heißt sie gucken sich nur ein Thema an wie Local SEO. Das heißt idealerweise greift da vielleicht immer der gleiche Algorithmus oder der gleiche Algorithmus teil und dann gucken sie sich eben noch an, wie entwickelt sich das Ganze eigentlich über die Zeit, sodass ich wirklich sehen kann, es gibt ganz bestimmte Faktoren, die werden wichtiger und es gibt ganz bestimmte Faktoren, die werden unwichtiger. So, dass ich eben meine Entscheidungen daraus ableiten kann.

Deswegen meine Empfehlung Nummer 4: Fragt euch, was ihr eigentlich, wenn ihr so eine Studie gelesen habt? Was macht ihr damit? Ideal immer, die eigene Strategie dann abgleichen. Also zum Beispiel, wenn ihr feststellt, seit Jahren geht das Thema Links, respektive Linkaufbau, immer weiter nach unten in den Ranking-Faktor-Analysen und die Onpage-Dinger gehen immer weiter nach oben, dann wisst ihr, wo ihr euer Geld, respektive eure Zeit, reinstecken müsst. Deswegen auch hier nochmal, nicht einfach nur irgendwas angucken und sagen, oh ja, hier ist jetzt ein Chart, sondern überlegt euch, wie wichtig ist das für euch? Ist das überhaupt wie gesagt erstmal alles valide, was da steht? Wenn ihr das festgestellt habt, dann überlegt euch, wie könnt ihr eure Strategie damit abgleichen? Und das passiert in meinen Augen noch viel zu selten, weil diese 1.500 Wörter Text auf der Startseite, die sehe ich leider noch immer. Wie gesagt ich mache viele solcher Seminare und Workshops und da kriegt man schon relativ gut mit, was so an der Basis passiert und zum Teil werden da wirklich haarige Entscheidungen mit solchen Sachen begründet, weil der und der hat das veröffentlicht und weil es da und da dann auch nochmal stand und das ist wirklich todbringend.

So. Das war’s für heute. Ich hoffe, ich konnte euch ein bisschen was mit auf den Weg geben. Wie gesagt kritisch bleiben ist eigentlich so das Wichtigste. Ansonsten hoffe ich, dass ihr alle eine gute Zeit habt, dass ihr heute einen schönen Tag habt. Bleibt kritisch und bleibt am Thema SEO dran, bleibt an Search Camp dran. In diesem Jahr wird hier noch viel passieren. Ich hoffe, dass wir uns bald mal persönlich kennenlernen. Also demnächst bin ich wieder auf einigen Konferenzen, SMX zum Beispiel. Wer da ist, meldet euch doch bitte mal, dann trinken wir einen netten Kaffee und quatschen mal über eure Fragen oder was euch so beschäftigt, weil das hilft mir auch immer wieder neue Themen zu finden. Und überhaupt, wenn ihr mal ein Themenwunsch habt, könnt ihr immer schicken, Twitter und so wisst ihr, findet ihr mich oder auf Facebook, ganz egal. Also zu finden bin ich typischerweise. Das war es für heute. Vielen Dank für eure Zeit und bis bald. Ciao!

The following two tabs change content below.

Markus Hövener

Markus Hövener ist Gründer und Head of SEO der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor (SEO - Die neuen Regeln), Autor vieler Artikel und Studien rund um SEO und SEA und Chefredakteur des Magazins suchradar.

In seiner Freizeit hat Markus vier Kinder, spielt gerne Klavier (vor allem Jazz) und hört auf langen Autofahrten „Die Drei Fragezeichen“.