Die häufigsten SEO-Denkfehler, die ich immer wieder höre! [Search Camp 331]
„Wir sind Marktführer. Deswegen sollten wir auch gut ranken.“ Das ist nur ein Denkfehler unter vielen, die Unternehmen vom nachhaltigen SEO-Erfolg abhalten können. In dieser Episode stelle ich daher die acht häufigsten SEO-Denkfehler zusammen, die ich immer wieder höre.
Die wichtigsten Podcast-Links:
- Alle Episoden von Search Camp als RSS-Feed
- Search Camp bei iTunes
- Alle Folgen: www.searchcamp.de
- Einsteigertipps: So “empfängst” Du Search Camp!
Die häufigsten SEO-Denkfehler, die ich immer wieder höre!
Ich bin ja viel im Dialog mit Kunden, mit Seminarteilnehmer:innen und aber auch mit ganz vielen anderen Menschen. Und ich habe heute mal acht SEO-Denkfehler zusammengetragen, die ich immer wieder höre.
#1: „Wir sind Marktführer, deswegen sollten wir auch gut ranken.“
Erst mal grundsätzlich gut gedacht, denn das Thema Marke, und das steckt ja in Marktführer jetzt nicht so ganz drin, aber die meisten Marktführer sind auch gleichzeitig Marke. Das mag Google schon.
Da gab es verschiedene Updates in der Vergangenheit und ich glaube, dass wir uns da alle einig sind: Google liebt Marken. Ein berühmtes Zitat vom Google-Chef damals, der gesagt hat: „Marken, die helfen uns, einfach Sachen zu unterscheiden.“ „How to sort out the cess pool“, war damals das Zitat.
Ich habe dieses Thema übrigens sehr oft und vor allem so mit Marktführern im deutschen Mittelstand. Und da muss ich immer sagen: Kann, aber nicht muss. Also Google interessiert sich erst mal nur für Signale. Die haben eine sehr effiziente Datenbank aufgebaut. Da stehen so verschiedene Sachen drin. Wir können vor allem On-Page-Signale und Off-Page-Signale.
Es gibt jetzt aber keine Datenbank, in der Marktführer oder Brands drinstehen. Also da steht jetzt nicht: „Coca-Cola ist eine Marke und hat eine ungestützte Markenbekanntheit von 98 %. In der Folge werden wir die Rankings dieser Website um 30 % verbessern, weil wir haben diese Datenbank.“
Diese Datenbank gibt es eben einfach nicht. Es gibt wirklich nur Signale. Und ich habe manchmal die Situation, dass jemand wirklich Marktführer ist, aber er ist eben nur Offline-Marktführer. Diese Marktführerschaft, die ist online nicht angekommen.
Ein ganz häufiges Thema: Ihnen fehlen einfach Backlinks. Ihnen fehlen starke Off-Page-Signale und dann kann es durchaus passieren, dass eben ein kleines Unternehmen diesen Marktführer schlägt in den Rankings, weil sie einfach bessere Signale haben.
Sie sind wirklich Marktführer, machen gewaltigen Umsatz. Aber was für einen Umsatz du machst, interessiert Google ja auch einfach null.
#2: „Was für Nutzer gut ist, ist auch für Google gut und umgekehrt.“
Es gab ja letztens den Google Leak. Google-interne Dokumente sind öffentlich geworden und da kann man verkürzt sagen: Da taucht oft das Thema Nutzersignale auf. Und es gab auch andere Stellen, oder es gibt noch derzeit eine gerichtliche Auseinandersetzung in den USA zwischen Google und dem Department of Justice.
Und auch da gab es Präsentationen und Klarstellungen von Google, woraus ganz klar folgt: Nutzersignale sind wichtig. Kann man sagen: „Nutzersignale sind wichtig, das ist ja cool. Also heißt das ja auch, das, was für den Nutzer gut ist, ist auch für Google gut.“ Und muss man sagen: Häufig stimmt das, aber es gibt auch Ausnahmen.
Ein etwas umstrittenes Thema sind zum Beispiel eingeklappte Texte. Also das Einklappen von Texten, gerade auf Mobilgeräten, ist sinnvoll für die Nutzer. Für Google, und das zeigen leider manche Tests, ist es wohl nach wie vor so, dass eingeklappte Texte etwas schlechter ranken als ausgeklappte Texte.
Oder eine andere Praxis, die ich vor allem bei Publishern sehe, ist: Man hat einen langen Text, einen langen Beitrag zu einem Thema und den teilt man in zwei Seiten oder in drei Seiten oder vier Seiten auf. Das ergibt für Publisher total Sinn und das machen die natürlich vor allem, weil sie dann zweimal Werbung verkaufen können und nicht einmal, wenn einer den kompletten Artikel liest. Das mag auch für den Nutzer gut sein, dass er nicht so einen Mega-Beitrag bekommt, sondern er kriegt eben einfach nur zwei oder drei oder vier kleine Seiten hin und kann das effizienter konsumieren.
Für den Nutzer ist das gut. Für Google ist es aber vielleicht schlecht, denn ich habe einfach eine Seite oder einzelne Seiten mit weniger Text und Google arbeitet eben leider nur seitenorientiert und fügt die nicht wieder einfach so zu einem langen Beitrag zusammen.
Letztes Beispiel: Ich habe eine Seite, da ist nur ein Video drauf. Gar kein Text. Und da muss man sagen: Ja, das wird für Google in der Regel nicht funktionieren. Das mag für den Nutzer total gut sein, weil er exakt nur ein Video erwartet hat, aber dieser Inhalt wird sehr wahrscheinlich überhaupt keine Rankings generieren können.
Und deswegen noch mal zusammengefasst: Was für ein Nutzer gut ist, ist oft auch für Google gut und umgekehrt, aber eben nicht immer. Ganz so einfach ist es dann doch nicht.
#3: „Unser Page Speed hat sich verschlechtert und zeitgleich sind auch die Rankings nach unten gegangen. Also müssen wir die Seite schneller machen.“
Schnelle Seiten sind nie verkehrt, aber das mit dem „Also“ ist halt das Problem. Denn wir Menschen versuchen immer in allem Ursachen zu finden.
Manchmal passieren Sachen einfach aber parallel, ohne Einfluss aufeinander zu haben. Es kann sein, dass dein Page Speed sich verschlechtert hat. Und zeitgleich sind auch die Rankings gefallen, weil es einfach gerade ein Core Update gab oder irgendwas anderes passiert ist. Und deswegen ist es immer, finde ich, wichtig, vor allem auf die Fakten zu gucken.
Denn Page Speed – wenn wir bei diesem konkreten Beispiel bleiben – hat sehr wenig Einfluss auf Rankings. So ein bisschen ein sogenannter Tie Breaker. Das heißt, wenn man zwei Seiten in den Suchergebnissen ausspielen möchte und die haben alle anderen Faktoren gleich, aber die eine ist schnell und die andere ist langsam, dann wird die schnelle gewinnen. Aber die schnelle Seite, das ist eben nur ein Faktor unter vielen. Und deswegen: Solange ich mir nur einen Faktor angucke, wird es schwierig.
Es ist ohnehin unglaublich schwierig, den Einfluss einzelner Ranking-Faktoren zu messen. Analog höre ich zum Beispiel auch oft: „Ja, wir haben drei neue Links bekommen und dann gingen die Rankings richtig nach oben.“ Muss ich sagen: Das mag sein, das kann sein. Aber auch hier wieder: Du versuchst, zwei Sachen irgendwie miteinander zu kombinieren, Ursache und Wirkung festzustellen, aber du wirst nicht sicher sagen können, dass das auch so ist.
Jetzt könnte man sagen: Ist ja egal, ob du das jetzt denkst oder nicht, heißt ja nichts. Aber gerade bei dem Page-Speed-Thema erlebe ich das total oft, dass Leute sich dann eben eine kleine isolierte mögliche Ursache heraussuchen und zeitgleich vergessen, auf das ganze große Bild zu gucken.
Denn vielleicht ist die Seite wirklich einfach schlecht. Vielleicht haben andere starke Inhalte generiert. Oder, oder, oder. Es ist selten wirklich diese eine Sache, die du findest, die das Tool jetzt sagt: „Ach ja, guck mal hier, deine Seite ist zu langsam, und das schlägt dann alle anderen Faktoren tot.“ Das passiert relativ selten.
#4: „Google ist schlau, die erkennen das schon.“
Menschen sind schlau, Maschinen nicht. Punkt.
Es gab letztens dieses schöne Zitat, hat Google selber gesagt in besagter gerichtlicher Auseinandersetzung: „We do not understand documents, we fake it.“
Google hat natürlich ein ganz großes Problem. Letztens haben sie mal gesagt, sie haben 400 Milliarden Seiten im Index. Das ist eine ganze Menge. Und deswegen geht es immer um die Frage der effizienten Berechenbarkeit. Weil ich auf so einer großen Datenmenge arbeite, muss ich halt auch effizient darauf herrschen können, muss eben effizient meine Schlüsse ziehen können.
Und jetzt könnte ich sagen, wenn ich bei dem Beispiel von eben bleiben: Ich habe meine Seite in zwei Seiten aufgeteilt, Google könnte das doch intern zusammenführen. Das wäre doch total schlau, wenn sie das tun würden, dann hätten sie ja wieder ein Dokument.
Sie tun es aber nicht. Alles, was sie tun, alles, was sie berechnen, alles, was sie denken, kostet Rechenzeit. Google sucht in 400 Milliarden Seiten, hat dafür 0,2 Sekunden Zeit, um dir Ergebnisse zu liefern. Manches geht in dieser Zeit eben einfach nicht.
Man muss natürlich immer ein bisschen unterscheiden. Es gibt einmal Sachen, die werden zur Laufzeit berechnet. Das heißt, in dem Augenblick, wo du oben in den Googleschlitz was eintippst, werden die Suchergebnisse berechnet. Das muss unglaublich effizient passieren, denn, wie gesagt, wir haben eine unglaublich große Datenbank, wir haben wenig Zeit zur Verfügung und da muss das jetzt passieren.
Es gibt aber nicht nur Sachen, die werden zur Laufzeit berechnet, sondern es gibt Sachen, die werden nebenläufig berechnet. Zum Beispiel die interne Verlinkung neu zu berechnen, das ist gar nicht mal so einfach. Es braucht ein paar Iterationen. Das kannst du nicht in dem Augenblick machen, wo jemand sucht, sondern das macht irgendeinen Prozess und speichert das in einer Datenbank ab, damit es dann zur Laufzeit effizient berechnet werden kann.
Aber trotzdem muss man immer noch sagen: Google ist nicht schlau, im Sinne eines Menschen. Und klar, es gibt viele Sachen, die sie in irgendeiner Form vorbereiten können und so, aber nicht mit der gleichen Intelligenz, mit der ein Mensch drangeht. Und ich habe das total oft, dass ich einfach sage: „Okay, ihr habt hier eine Website und ihr habt eine Seite und ihr wollt für eine Zwei-Wort-Suchanfrage ranken, aber diese zwei Wörter habt ihr gar nicht eingebaut in die Seite.“
Also klassisches Beispiel: „rechtsanwalt emsdetten“. Und du hast aber vergessen, die Wörter „Rechtsanwalt“ und „Emsdetten“ einzubauen, weil du so was geschrieben hast wie: „Wir sind eine Kanzlei zwischen Greven und Rheine.“ Konstruiertes Beispiel gerade, aber gerade Rechtsanwalts-Websites eignen sich immer gut fürs Bashing.
Wenn ich das lese, weiß ich sofort, was die Jungs und Mädels da machen. Das sind Rechtsanwälte, ja klar, und die sind zwischen Greven und Rheine, ist M. Stetten, wird schon passen, klar. Eine Maschine macht das nicht. Und deswegen darf man durchaus – und das ist ja ein großes Mantra der SEOs – einfach sehr explizit sein in dem, was man da macht.
Also in deinen Inhalten müssen halt verschiedene Keywords drin vorkommen. Da sind wir leider noch. Also irgendwann haben wir vielleicht wirklich den Punkt, dass die Maschine einfach nur noch sich den Text anguckt und alle schönen Sachen der Welt schlussfolgern kann. Aber da sind wir noch nicht und da sind wir wahrscheinlich auch ein paar Jahre noch nicht.
#5: „Regelmäßig schreiben hilft.“
Das kommt natürlich ein bisschen aus „Content is king“, also: Inhalte sind gut, folgerichtig müssen auch viele Inhalte gut sein.
Ist es wichtig, regelmäßig neue Inhalte auf der Website zu haben? Jetzt muss man sagen, es gibt zum Beispiel QDF, Query Deserves Freshness. Also es gibt manche Suchanfragen, da erkennt Google, dass jemand was Neues möchte, zum Beispiel bei News-Ereignissen. Das ist aber eigentlich ein ganz anderes Thema. Man muss nicht regelmäßig was schreiben. Das ist kein Ranking-Faktor.
Es kommt eben eher auf die Inhalte an, ob die aktuell sind. Wenn du nur drei Beiträge auf der Website hast, aber das sind genau die drei richtigen, dann ist es eben so, dann ranken die gut. Dann sagt Google nicht nach einer Woche: „Ja, aber du müsstest jetzt mal einen vierten schreiben. Ich habe jetzt nur drei gesehen. Warum schreibst du so selten?“
Nein, wenn es die richtigen Inhalte sind und die Nutzersignale stimmen und du hast deine Keywords eingebaut und du hast schöne Backlinks und so, dann ist das okay, dann ranken die auch gut. Natürlich hast du eine Chance, wenn du mehr Content hast, für mehr verschiedene Sachen zu ranken.
Regelmäßig schreiben an sich hilft erst mal nichts. Viel guten Content zu haben kann was helfen, aber nicht regelmäßig was schreiben.
#6: „Das mache ich nur für SEO.“
Ich habe das oft beim Thema Backlinks. Und da sagt jemand: „Ja, wir machen das mit den Backlinks. Das machen wir nur für Google. Das machen wir nur für SEO.“ Und die Folge sind dann leider oft echt Links, die jetzt auch nicht so besonders sind. Man macht sie nur für Google und das sind dann sowieso Links, die vielleicht eh nichts taugen, die vielleicht entwertet werden und einfach nichts bringen.
Und ich finde es häufig einfach ein bisschen zu kurz gedacht. Denn es gibt häufig Sachen, die man in Bezug auf SEO macht, die auch positive Effekte auf andere Sachen haben.
Angenommen, du fügst für deine Kunden einen FAQ-Bereich hinzu. Das kann helfen natürlich, tolle Rankings zu generieren. Es kann aber auch deine Neukunden glücklich machen.
Es gibt Sachen, die macht man nur für SEO. Hreflang ist so ein ganz typisches Beispiel. Das mache ich für SEO, das mache ich primär für Google, damit die internationalen Besucher auf den richtigen Seiten landen. Markups ist zum Teil auch noch so ein Thema. Das mache ich primär, um in ganz bestimmte Google-Features reinzukommen und so.
Ja, es gibt solche Sachen. Aber gerade, wenn es um das Thema Backlinks geht, gerade wenn es um das Thema Content geht, würde ich sagen, mach es bitte nicht nur für Google. In der Regel fehlt dann irgendwas.
#7: „Aber das SEO-Tool hat das doch gesagt.“
Ein ganz altes Thema, dass Leute sich von Tools leiten lassen. Denn Tool ist erst mal ungleich Google. Und unter Tool meine ich übrigens nicht immer nur Fremdanbieter-Tools wie SISTRIX, sondern ich meine auch Google-eigene Tools.
Aber fangen wir mit den Fremdanbietern an. Da ist ja vor allem bei Linkdatenbanken. Da kannst du dir verschiedene Metriken angucken, wie wichtig ist denn so eine Website, Angaben zum Trust, Angaben zur Authority, zur Topical Authority und, und, und.
Das hat das Tool ja schön berechnet. Aber Google sieht das vielleicht ganz anders, denn Google entwertet ja auch Links. Das macht die Linkdatenbank vielleicht nicht. Und man weiß auch bei Google nicht, welche Links sie entwerten. Folgerichtig kann die Linkdatenbank das auch gar nicht irgendwie nachbauen.
Wie bewertet Google konkret Links? Wissen wir alle nach wie vor nicht. Natürlich gibt es immer noch Ideen und Dokumente dazu und das, was die Linkdatenbanken da machen, ist ja nicht komplett für den Eimer. Aber man muss immer noch sagen, das, was die da ausspucken an Metriken vor allem, das sind Metriken der Tools. Und wenn ich darauf Entscheidungen basiere, dann kann ich einfach falsche Entscheidungen treffen.
Crawler ist natürlich auch so ein anderes Thema. Der Crawler beschwert sich zum Beispiel, dass irgendwo ein Canonical Tag fehlt oder HSTS fehlt. Da muss man sagen: In der Regel hat das noch gar keinen Effekt.
Search Console ist auch so ein Ding. Da gibt es zum Beispiel den Report „Seiten“, den ich natürlich für sehr wertvoll halte, keine Frage. Aber wie oft habe ich den Punkt, dass mir jemand sagt: „Aber Google beschwert sich hier, dass ich 404-Seiten habe, also Seiten, die es nicht mehr gibt.“
Und Google zeigt das ja an unter den Seiten. Und ich sagte immer: „Das ist nur ein Hinweis. Also Google sagt euch, dass der Crawler eine Seite nicht finden konnte. Mehr ist das nicht. Dafür wirst du jetzt nicht abgestraft, abgewertet, irgendwas.“ Weil oft kommt dann die Frage: „Was soll ich denn dagegen machen? Hier in der Search Console steht doch: Ich habe 404-Fehler.“ Ja, hast du. Und da steht auch, dass du Weiterleitungen hast. Du hast ja alles richtig gemacht.
Die Search Console ist besser geworden. Im Vergleich zu dem, wie sie aber vor fünf, sechs, sieben Jahren mal aussah, haben sie schon viel daran gebastelt, um es „idiotensicherer“ zu machen.
Und trotzdem sind da immer noch Sachen drin, die Leute komplett auf die falsche Fährte führen und wo dann einfach auch viele der eben genannten Themen auftauchen. Also jemand sagt: „Ja, wir haben hier hier 404-Fehler und deswegen ranken wir schlecht.“ Nein, nicht unbedingt. Natürlich, wenn die Seite vorher gut gerankt hat und jetzt ein 404, dann ist es natürlich blöd.
#8: „Aber ich halte mich doch an alle Richtlinien.“
Also: „Meine Website rankt nicht gut, aber ich halte mich doch an alle Richtlinien.“ Und es gibt so viel zu lesen von Google. Es gibt die Quality Rater Guidelines, dann gibt es die Core-Update-Fragen, es gibt Helpful Content Guidelines. Für jedes Markup gibt es eigene Guidelines. Wenn du Bock auf Guidelines hast, kannst du sicherlich den Tag gut rumkriegen.
In den Quality Rater Guidelines steht drin: Man sollte eine Autorenbox haben. Und Google sagt erst mal: Die Autorenbox bringt erst mal überhaupt nichts. Was Google vereinfacht dann aber auch sagt, ist: Gute Websites, also Websites, die bei Nutzern gut ankommen, haben einfach ganz bestimmte Features.
Also: Ein guter Publisher hat Autorenboxen, weil auch Nutzer das mögen. Nutzer wollen sehen, dass das jemand geschrieben hat, der sich damit auskennt, dass da eine Expertin sitzt, die das Ganze eben geschrieben hat. Das mit diesen Richtlinien ist nicht so ein bisschen wie mit den Zehn Geboten. Also: Wenn du dich so verhältst, dann kommst du in den Himmel. Wenn du dich nicht so verhältst, kommst du in die Hölle.
So funktioniert es leider nicht. Die Quality Rater Guidelines sind ein bisschen Leitlinien für gute Rankings. Also da steht drin: Hier ist das, was so typischerweise gut bei Nutzern ankommt. Aber es wird hier nicht in den Algorithmus hart reinkodiert. Also da steht nicht drin: „Guck bitte nach, ob es eine Autorenbox gibt. Wenn es eine Autorenbox gibt, dann verbessern sich die Rankings der Website um 3 %.“ So steht das da nicht drin.
Wahrscheinlich geht es hier auch wieder ein bisschen um die Nutzersignale. Nutzer, die auf diese Seite gehen, die nehmen die Autorenbox vielleicht wahr, merken: „Wow, da hat aber eine Expertin richtig geilen Content für mich geliefert“, und bleiben vielleicht deswegen länger oder bewerten diese Website höher oder was auch immer dann als Folge passiert.
Aber noch mal: Es ist nicht so, dass nur weil du dich jetzt an die Richtlinien hältst, dass in der Folge deine Rankings gut werden. Die Frage ist wirklich: Was kommt bei den Nutzern an? Da stehen ja keine harten Regeln drin, die man in den Algorithmus einbetten könnte, sondern da stehen halt so Orakelsprüche drin: Könnte man diesen Artikel so in einem Lexikon finden? Das ist so eine schöne Core-Update-Frage.
Natürlich ist diese Frage nicht eindeutig beantwortbar, aber trotzdem haben wir, glaube ich, alle ein Verständnis davon, eine Idee davon, wie ein Artikel aussieht, der in einem Lexikon drinsteht oder in einem Fachmagazin. Und das, was auf meiner Website ist, matcht das nicht.
Und noch mal: Es wird nicht so sein, dass Google jetzt explizit irgend so ein Algorithmusteil hat, der sagt: „Hey, ist dieser Artikel genauso aufgebaut wie ein Lexikon?“ Aber diese Richtlinien geben dir halt eine Richtung vor, geben dir so vielleicht auch ein bisschen zehn Gebote. Es sind mehr als zehn, aber eben nicht mit der Implikation, dass wenn du die alle erfüllst, kommst du in den SEO-Himmel, sondern es sind Leitlinien. Es sind Sachen, gegen die man seine eigene Website prüfen kann.
Und dann ist natürlich immer noch diese subjektive Wahrnehmung der eigenen Website. Das merke ich auch bei manchen Kunden, wenn ich so auf den Content draufgucke und sage: „Das ist doch ein miserabler Blogbeitrag.“ Und der Kunde sagt: „Nein, ist doch gut. Kann man doch gut lesen.“
Da denke ich: Ja, kann man gut lesen. Aber bezogen auf das, was Google da möchte, nämlich „Könnte dieser Artikel so in einem Lexikon drinstehen oder in einem Fachmagazin?“, muss ich sagen: Nee, das kriegen wir hier nicht hin. Und da hilft es dann leider auch nicht, einfach nur drei Wörter auszutauschen und noch ein KI-generiertes Bild reinzukloppen.
Markus Hövener
Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster und Autor vieler Artikel und Studien rund um SEO.
Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.
Neueste Artikel von Markus Hövener (alle ansehen)
- Die SEO-für-Startups-Woche: 5x SEO-Tipps für junge Unternehmen - 11. November 2024
- SEO-Monatsrückblick Oktober 2024: AI-Suchmaschinen, Product Grids + mehr [Search Camp 346] - 5. November 2024
- Linkaufbau macht man nicht nur für Google! [Search Camp 345] - 29. Oktober 2024
- Re-Ranking und Twiddler: Wie gewinnst du das Rennen? [Search Camp 344] - 22. Oktober 2024
- Die B2B-SEO-Woche bei Search Camp: On- und Off-Page-Technik-Content + mehr - 7. Oktober 2024