SEO + Tools: Wo Tools ihre klaren Grenzen haben! [Search Camp Episode 114]

18. Februar 2020 | Von in Search Camp + Alles auf Start, SEO

SEOs lieben ihre Tools: Crawler, Keyword-Datenbanken, Index-Tools, Linkdatenbanken, Page-Speed-Reports und vieles mehr steckt im Werkzeuggürtel der Suchmaschinenoptimierer. Allzu gläubig sollte man bei dem, was die Tools ausspucken, aber nicht sein. Denn: Nahezu alle Tools haben ihre Grenzen. In dieser Episode geht es um neun Grenzbereiche, die man besser kennen sollte.

 

 

Keine Ausgabe unserer Podcasts mehr verpassen?
Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:

Die wichtigsten Podcast-Links:

 

Transcript

Ja, da seid ihr. Moin! Heute habe ich wieder ein Thema, was ein bisschen an ein vorangegangenes Thema angrenzt, nämlich wo Tools ihre klaren Grenzen haben. Ich habe letztens schon mal eine Search Camp Folge gemacht, da ging es um hint-basierte Crawler und wo da eigentlich so Problemfelder liegen.

Ich möchte das heute noch mal ein bisschen breiter ziehen, nämlich es gibt ja auch andere SEO Tools. Es gibt so Index-Tools wie ein SISTRIX und ein Searchmetrics, es gibt Linkdatenbanken wie Majestic, es gibt Tools zur Messung von Pagespeed und so weiter und so fort. Die nutzen natürlich alle irgendwie Daten. Und da bin ich eben ein großer Freund davon, dass man sehr kritisch hinguckt, dass man wirklich sagt:

  • Wo kommen diese Daten eigentlich her?
  • Was sagen die aus?
  • Haben diese Daten überhaupt was damit zu tun, was Google da eigentlich macht?

Denn natürlich geht es schlussendlich darum, ich nutze ein Tool, um mir ganz bestimmte SEO-Informationen zu liefern, und hat das wirklich was damit zu tun, was Google da eigentlich treibt? Das werden wir gleich hoffentlich sehen. Ich habe insgesamt 9 Aspekte mitgebracht, wo ich glaube, dass es da einfach Problemfelder gibt.

 

Problemfeld Nummer 1: Websites behandelt Google anders als ein Tool.

Das heißt, Google greift auf eine Website zu und das Tool greift auf eine Website zu, und wo wird vielleicht der eine anderes behandelt als der andere?

Grundsätzlich früher oder gibt’s immer noch, aber früher gab’s eben Cloaking. Cloaking heißt eben: An die Suchmaschine wurde etwas anders ausgeliefert als für den Besucher oder für das Tool. Das heißt, wenn der Besucher auf die Webseite draufgegangen ist, dann hat er ganz normale langweilige Texte gesehen.Wenn aber Google abgerufen hat und zum Beispiel anhand der IP erkannt wurde, dann wurde was ganz anderes ausgeliefert, mit ganz viel Text, vielleicht unsinnigem Text. Aber sowas hat man früher gemacht, manche machen das vielleicht heute immer noch, aber das glaube ich, so in der großen breiten Masse findet das natürlich nicht statt, weil es ein klarer Verstoß gegen Google-Richtlinien ist und Google auch sehr gut darin geworden ist das Ganze zu erkennen. Das heißt, über Cloaking reden wir vielleicht gar nicht, aber wir reden vielleicht über einen IP-Redirect. Denn da ist das auch so, dass die Website Google anders behandelt als einen Besucher.

IP-Redirect braucht man ja bei internationalen Websites. Das heißt, der Besucher kommt auf die Website, die Website erkennt, oh, du kommst ja aus Österreich, ich leite dich mal direkt hin auf die /at Seite. Ist erst mal im Sinne des Besuchers, ist erst mal von der Intention her gut, aber jetzt ist die Frage: Was passiert eigentlich, wenn Google auf diese Seite zugreift? Werden die auch umgeleitet? Weil die haben ja auch eine IP und die kommen in der Regel aus den USA.

Ich habe wirklich schon mehrfachst Fälle erlebt, wo sich eine Website durch eine ungeschickte Implementierung von einem IP-Redirect den internationalen Traffic eigentlich relativ gut weggehauen hat.

Deswegen, wenn man so ein Schadensbild mal gesehen hat, dann wird man auch ein bisschen vorsichtig auf jeden Fall. Und deswegen, das kann natürlich ein Problem sein. Nochmal Zusammenfassung: Google greift auf die Website zu und sehen die eigentlich exakt das Gleiche wie der Besucher sieht? Und passiert mit denen auch exakt das Gleiche?

 

Ähnliches Problemfeld Nummer 2: Das Tool verhält sich nicht exakt wie Google.

Also Google greift ja auf die Website zu und crawlt sie und rendert sie auch. Ein Tool macht das vielleicht ganz genauso, lädt die Seite runter, rendert sie dann. Da ist jetzt die Frage: Machen die das denn genau gleich?

Es gibt natürlich Tools, die zum Beispiel kein JavaScript können, während Google es eben doch kann. Da kann es natürlich Probleme geben, gerade bei JavaScript-lastigen Websites, wo einfach Tool und Google sich komplett anders verhalten. Dann ist das Tool eben auch wirklich nicht mehr aussagekräftig, wenn man diese Situation hat. Bei den Crawlern passiert das immer weniger, weil die meisten jetzt JavaScript können. Gleichwohl man muss es dann eben auch noch aktivieren. In der Regel ist es das nämlich nicht. Zumindest beim Screaming Frog SEO Spider muss sich einmal diesen Haken setzen und sagen: Jo, jetzt will ich rendern.

 

Problemfeld Nummer 3: Die Tools erfinden Metriken.

Da sind sie eigentlich recht stark drin. Wenn man sich mal Linkdatenbanken anguckt, die haben eigentlich den größten Erfindungsreichtum. Da gibt es bei Majestic so Metriken wie Trust Flow und Citation Flow. Ahrefs hat dann sowas wie Domain Authority und so weiter und so fort. Das ist ja grundsätzlich auch hilfreich. Also innerhalb des Tools kann ich so relativ schnell dann zum Beispiel wertvolle und wertlose Linkquellen voneinander unterscheiden. Die Frage ist natürlich, kann ich das wirklich? Weil diese Tools, die haben halt sich irgendeinen Algorithmus ausgedacht wie so ein Trust jetzt fließt oder wie man das eben berechnet. Und wie berechnet Google das Ganze denn?

Auch das muss einem immer klar sein. Das heißt, diese ganzen künstlichen Metriken haben vielleicht nicht so wahnsinnig viel zu tun damit wie eigentlich Google so einen Link bewertet. Und ich weiß, es passiert relativ oft, gerade so in den USA ist es auch sehr beliebt, gerade so Ahrefs als beliebtes Tool, wenn man einen Link kauft, dann wird halt eine Domain Authority angegeben. Nochmal, so wahnsinnig aussagekräftig ist die dann eben leider nicht wirklich. Innerhalb des Tools ist es natürlich vollkommen sinnvoll, aber trotzdem, das muss keine harte Metrik sein. Das heißt, ein Link, der eine hohe Domain Authority hat, muss kein Link sein, der von Google auch besonders hoch angesehen wird.

In eine ähnliche Richtung gehen natürlich auch andere Metriken oder Maßnahmen, die allseits beliebten Sichtbarkeitsdaten. Das ist erstmal nur einfach, das hat sich mal jemand ausgedacht. Das heißt jetzt eben erstmal gar nichts. Das hat natürlich schon ganz bestimmte Implikationen, aber nochmal, Sichtbarkeit ist ungleich Traffic, ist ungleich irgendwas anderes, sondern das ist wirklich einfach nur erstmal Sichtbarkeit.

Oder auch so eine Methode wie WDF*IDF, wo eben auch viele darauf schwören, dass sie sagen, ja, ich brauche hier einen maximalen Wert und so, wie bewertet Google denn eigentlich Text? Ich glaube, da sind sich alle mittlerweile oder viele sind sich da mittlerweile einig, dass WDF*IDF im Vergleich zu dem, was Google eigentlich machen könnte, viel zu klein ist, und dass Google theoretisch zumindest viel größere Möglichkeiten hätte einen Text zu bewerten. Das heißt, ich gucke da auf meinen Chart, auf mein WDF*IDF Ding und sage so: Wow! Ich habe 100 Prozent erreicht. Wie geil ist das denn? Und Google sagt so: Ja, aber uns gefällt der Text nicht. Das kann passieren.

 

Punkt 4: Es gibt nicht mehr DAS Google.

Und das merkt man vor allem eben bei Suchergebnissen und vor allem eben bei Rankings. Rankings werden lokalisiert, sie werden insgesamt individualisiert. Google hat trotzdem nochmal gesagt, Individualisierung, ja, ist ein Thema, aber das Stärkste, was da passiert, ist die Lokalisierung, das heißt, ich der etwas in Hamburg suche, sehe was anderes als jemand, der in München sucht. Da ist es natürlich einfach ein Thema, ich freue mich vielleicht über ein Ranking, ich messe irgendwas, aber die meisten meiner potenziellen Besucher sehen dieses Ranking leider nicht, sondern sie sehen ein komplett anderes. Auch das muss einem immer klar sein. Man kann sich total toll über ein Top-Ranking freuen, die Frage ist aber auch wirklich: Sieht jemand anderes dieses Ranking eigentlich auch?

 

Problemfeld Nummer 5: Den Tools fehlen Informationen, die Google besitzt.

Also auch hier wieder klassisches Thema, Linkaufbau. Viele haben ja früher, ich sag mal, ein bisschen nicht konformen Linkaufbau betrieben und mussten dann irgendwann Links abbauen. Man musste aber Links nicht zwangsweise abbauen, man konnte sie einfach auch entwerten. Das heißt, es gab das Disavow-Tool und da konnte man quasi Links reinstecken und dann sagen: Okay, Google, der Link existiert zwar noch, aber tue doch bitte so als gäbe es den gar nicht. Das war natürlich erstmal grundsätzlich eine gute Sache, aber diese Informationen, also dieses Disavow-File kennt nur Google.

Wenn ich jetzt in eine Linkdatenbank hereingehe, ob es ein Majestic ist, ein MOZ, ein Ahrefs, wer auch immer, die kennen diese Disavow-Files gar nicht, das heißt, die zeigen mir vielleicht Links an, die einfach grundsätzlich von Google schon komplett entwertet wurden. Keiner kann von außen sagen, welche Links Google mag und welche nicht. Also welche entweder hart entwertet wurden über ein Disavow File oder welche halt softwaremäßig entwertet wurden, weil Google irgendwo erkannt hat, dass diese Webseite jetzt ein komisches Linkprofil hat. Das muss einem klar sein. Das heißt, was immer man sich da anguckt mit so einer Linkdatenbank, ist wirklich nicht unbedingt das, was Google sich anschauen wird.

 

Problemfeld Nummer 6 ist das Hochrechnen von Daten.

Ich habe vielleicht ein kleines Sample von Daten in einem Tool und es wird einfach hochgerechnet. Ein Klassiker ist natürlich Similarweb. Das heißt, die haben verschiedene Quellen von Daten über Websites, welchen Traffic die so haben, welche Kanalverteilung die so haben. Und natürlich schneiden die nicht den kompletten Internet-Traffic mit. Das können sie auch gar nicht. Die schneiden halt einen kleinen Teil mit. Wie klein der ist, sagen sie auch gar nicht erst. Ist auch legitim. Ich habe noch mal extra auf der Website nachgeguckt. Da wird halt viel erzählt darüber, welche Datenquellen sie alles haben und wie valide das ist und Algorithmen und Jada Jada Jada, aber sie sagen eben nicht wie klein das Sample eigentlich ist, was sie da nutzen. Und ja, du kannst natürlich hingehen und du schneidest 1 Prozent des Internet-Traffics mit und multipliziert einfach stumpf mit 100, klar, kannst du machen, ist natürlich zum Teil jetzt nicht so aussagekräftig.

Und gerade, wenn eine Website wenig Daten hat, weil sie wenig Traffic hat, dann schlagen solche Fehler, die dadurch passieren, natürlich umso mehr durch. Das Gleiche übrigens auch beim Sichtbarkeitsindex. Auch da ist es ja so, die ganzen SEO Tools, die gucken sich ja eben nur ein kleines Keyword-Sample an. Also so klein ist das gar nicht, das sind schon ein paar Millionen Suchbegriffe, aber trotzdem ist es natürlich im Vergleich zu dem, was an Suchbegriffen alles gesucht wird, klein. Und auch da wird quasi einfach hochgerechnet und gesagt: Okay, ich habe mir vielleicht, weiß nicht, x Prozent deiner Keywords angeguckt, den Sichtbarkeitsindex, den berechne ich da drauf, weil ich gar nicht alle Suchbegriffe überprüfen könnte.

 

Problemfeld Nummer 7: Die Tools betrachten nur einen Teil der möglichen Daten.

Das passiert vor allem bei der Pagespeed-Messung. Pagespeed, wissen wir alle, das ist wichtig, damit man in der mobilen Suche nicht abgewertet wird. Da unterscheidet man grundsätzlich zwischen Lab Data und Field Data. Also Lab Data heißt, ein Stück Software ist über meine Website drüber gerannt, hat sich angeguckt, wie schnell die Seiten sind, was da alles so geladen wird und, und, und. Field Data heißt, man schneidet wirklich mit, was sind reale Nutzerdaten für diese konkrete Seite? Und Google sagt, dass sie aus beidem eigentlich eine Kombination bilden und das eben heranziehen, um zu gucken, ob deine Webseite langsam oder schnell ist.

Das heißt, wenn du so ein Tool nutzt wie Webpagetest.org, was ich grundsätzlich sehr empfehle, dann siehst du nur die Hälfte der Daten, du siehst nämlich nur Lab Data. Also dieses Tool greift auf deine Website zu, aber es hat eben keine Field Data, also keine realen Nutzerdaten. Und auch das muss einem an dieser Stelle wirklich klar werden.

 

Problemfeld Nummer 8 ist immer der Faktor Zeit.

Das heißt, wenn ich jetzt so ein Pagespeed-Tool jetzt mal laufen lasse und ich sehe alle Daumen nach oben, alles auf grün: Cool! Meine Website ist ja rasend schnell. Aber ist sie das auch zu Stoßzeiten oder gibt es vielleicht immer nachts Probleme, wenn irgendein Prozess auf der Kiste läuft? Keine Ahnung! Das heißt, auch da bitte immer ganz genau hingucken, wann läuft so ein Tool eigentlich? Und nochmal, gerade so eine einmalige Pagespeed-Messung zum Beispiel ist einfach komplett unsinnig, weil ich es eben laufend testen muss und muss immer gucken, gibt es da jetzt Probleme zu bestimmten Stoßzeiten, um dann eben zu gucken: Muss ich vielleicht einfach mehr Hardware dahinstellen? Ist das Ding vielleicht wirklich an der Grenze seiner Leistungsfähigkeit? Das sehe ich eben nur, wenn ich laufend Sachen teste, und das machen nicht alle Tools.

 

Und Problemfeld Nummer 9, das letzte Problemfeld: Die Suchmaschinen liefern mir gar nicht alle Daten, obwohl sie sie eigentlich haben.

Das betrifft vor allem die Keyword-Recherche. Ist wahrscheinlich vielen schon mal aufgefallen im Keyword Planner, manche Keywords, die selten gesucht werden, liefert mir das Tool gar nicht. Also das Suchvolumen von 10 ist das niedrigste Suchvolumen, was im Keyword Planner angezeigt wird. Das heißt, wenn eine Sache nur zweimal im Monat gesucht wird, taucht sie da nicht auf.

Das Gleiche ist übrigens auch in der Google Search Console, auch da gibt es ja Report „Leistungen“ und ich kann mir Suchanfragen angucken und kann eben sehen: Was haben denn Leute so gesucht, um auf meine Website zu kommen? Und wer da mal durchzählt, wird feststellen, da sind ja gar nicht alle Keywords dabei, sondern da gibt es eben auch immer so „Dunkle Materie“-Phrasen, die werden zwar gesucht, aber werden ganz selten gesucht und dann tauchen sie dort eben auch nicht auf. Das heißt, Google hat diese Daten grundsätzlich, ich habe nur einfach keine Möglichkeit da irgendwie dran zu kommen.

So, das war‘s auch schon. Ich hatte 9 Problemfelder versprochen, 9 sind es jetzt geworden. In Summe glaube ich, habt ihr es prima zwischen den Zeilen durchgehört: Seid kritisch! Guckt euch ganz genau an, was diese Tools euch liefern! Guckt euch vor allem an, was sie euch nicht liefern! Und einfach nur ein Tool laufen lassen und sich dann darüber freuen, dass man einen SEO-Score von 73 Prozent hat, das ist einfach töricht. Also guckt euch an, was die haben und wenn euch so ein Tool nicht sagen kann, wo die Daten herkommen oder wie groß das Sample ist oder so, dann lasst vielleicht lieber die Finger davon.

Weil ich finde, auch das gehört zu einer guten Art der Zusammenarbeit und das wollen die Tool-Hersteller eigentlich auch mit euch hinbekommen. An der Stelle klappt es dann eben, ganz ehrlich, manchmal nicht. Okay. Das war‘s für heute.

The following two tabs change content below.

Markus Hövener

Markus Hövener ist Gründer und Head of SEO der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor (International SEO), Autor vieler Artikel und Studien rund um SEO und SEA und Chefredakteur des Magazins suchradar.

In seiner Freizeit hat Markus vier Kinder, spielt gerne Klavier (vor allem Jazz) und hört auf langen Autofahrten „Die Drei Fragezeichen“.

Kommentieren