SEO-Crawler: Wieso eine 0-Fehler-Website auch NULL Besucher haben kann [Search Camp Episode 110]
Viele Unternehmen nutzen SEO-Crawler-Tools wie Ryte, Audisto, SISTRIX Optimizer & Co. Diese Tools liefern viele Empfehlungen, Warnungen, Fehler. Aber wie groß ist der Zusammenhang zwischen einer erfolgreichen Website und der Anzahl dieser Hints? Wie kann es sein, dass eine Website keine Fehler hat und trotzdem keine gute Performance liefert?
Die wichtigsten Podcast-Links:
- Alle Episoden von Search Camp als RSS-Feed
- Search Camp bei iTunes
- Alle Folgen: www.searchcamp.de
- Einsteigertipps: So “empfängst” Du Search Camp!
Transcript
Moin, da seid ihr ja. Mein Thema heute ist: SEO Crawler, wieso eine Null-Fehler-Website auch null Besucher haben kann? Das soll mein Thema heute sein.
Es geht also um SEO Crawler. Das sind ja Tools, kennt ihr alle, sowas wie RYTE, Screaming Frog, SISTRIX Optimizer, Audisto und was es da nicht alles noch da draußen gibt an Tools, sowohl zum Installieren als auch in der Cloud. Diese Tools arbeiten in der Regel Hint-basiert, das heißt, sie laden nicht einfach nur was runter, das wäre natürlich auch schon eine coole Sache, aber sie haben noch ganz bestimmte Regeln und dann prüfen sie, ob diese Regeln eingehalten werden. Also zum Beispiel: Seitentitel zu lang, Seitentitel zu kurz, Seitentitel doppelt, Seitentitel fehlt komplett. Und das Ganze natürlich noch mit Meta Description, H1, H2 und, und, und.
Da kriegt man halt, wenn man so ein Ding mal startet, je nach Website jede Menge Empfehlungen, manchmal sind die noch so nach Schweregrad gepflastert oder manches sind Warnungen, manches Empfehlungen, manche sind Critical. Und je nachdem, welches Tool du nutzt, nennen die das halt ganz anders. Aber vollkommen egal, sie versuchen halt in irgendeiner Weise dir konkrete Sachen zu geben, die getan werden müssten.
Da ist jetzt halt die Frage: Wie kann das denn sein? Wenn du überhaupt keine Empfehlungen bekommst, warum sollte deine Website dann null Besucher haben können? Das geht ja gar nicht, wenn so ein SEO Tool sagt, bei dir ist alles okay.
Ja, es basiert also auf der Frage: Was können solche Tools erkennen und was nicht? Und genau, da möchte ich jetzt mal drüber sprechen.
Ich habe mal ein paar Aspekte aufgeschrieben, über die man reden muss, um das Ganze zu verstehen.
Punkt Nummer 1: Die meisten Tools prüfen nur auf harte Fakten, nicht auf inhaltliche Aspekte.
Das heißt, sie können eben wirklich gucken, welcher Seitentitel ist zu lang, welcher ist zu kurz. Das Gleiche für die Meta Description, für die H1, kommt das Ding doppelt vor? Das ist einfach zu prüfen. Guckst du in den HTML-Code, siehst du einfach, das Ding ist 50 Zeichen lang, das ist ja toll. Alles gut. Also diese Tools können gucken, ob ich den Platz, den ich zur Verfügung habe, optimal ausnutze, respektive ob ich überhaupt da einen Tag habe oder was doppelt oder sowas.
Aber die Frage ja nicht nur, habe ich den Platz irgendwie ausgenutzt, habe ich da Blabla hingeschrieben, das hatte in der Schule auch schon nicht funktioniert, sondern die Frage ist eben auch noch: Steht auch das Richtige drin? Zum Beispiel Meta Description. Wenn die Suchbegriffe in der Meta Description vorkommen, dann wird das Snippet im Suchergebnis, da werden die Wörter gefettet. Und das ist gut, das erzeugt noch ein bisschen Relevanz. Wenn die Suchbegriffe nicht drin vorkommen, dann kann es passieren, dass Google meine Meta Description einfach verwirft und sich einfach ein Snippet aus dem Text der Seite herausholt. Kann passieren.
Deswegen ist es eben wichtig, nicht nur wie gesagt die Länge, sondern: Was steht drin? Ich muss natürlich auch insgesamt einfach Klick-Argumente bringen. Warum klickst du auf mein Suchergebnis drauf? Wie bin ich positioniert? Wie positioniere ich mich gegen die anderen? Das muss da drinstehen. Und da geht’s nicht nur um Länge.
Aspekt Nummer 2: Suchmaschinen fixen viele Probleme für dich, selbst wenn du diese Probleme hast.
Beispiel: Canonical Tag. Kennt ihr alle, ist eine super Sache, verhindert quasi die negativen Effekte von Duplicate Content. Jetzt gibt’s manchmal den Fall, dass manche Seiten keinen Canonical Tag haben, und das Tool wird das erstmal monieren und wird sagen: Hey, da fehlt ein Canonical Tag. Jetzt ist die Frage: Ist das Ganze eigentlich ein Problem?
Erstmal muss man wissen, ein Canonical Tag ist sowieso erstmal keine Direktive, das heißt, Google ist nicht daran gebunden, es ist ein Hinweis. Google hält sich natürlich in der Regel dran, vor allem, wenn ihr das Ding sinnvoll wählt, überhaupt keine Frage, aber es ist trotzdem nicht verpflichtet. Denn Google macht die Kanonisierung ja selber, hinter den Kulissen quasi. Und wenn ihr kein Canonical Tag habt, ja, dann machen sie das halt quasi ohne das, aber das kriegen sie auch schon relativ gut hin. Das Ergebnis ist vielleicht nicht immer exakt das, was du selber so gehabt hättest, aber trotzdem sie werden es für dich kanonisieren.
Das heißt an dieser Stelle, du hast vielleicht einen Fehler auf der Website, aber dieser Fehler schlägt gar nicht durch, weil eben die Suchmaschine das Ganze für dich fixt. Bitte nicht falsch verstehen! Bitte, bitte, bitte! Heißt natürlich trotzdem, wenn ein Canonical Tag fehlt, würde ich das immer fixen, überhaupt keine Frage. Aber trotzdem ist die Frage relevant, nämlich wenn ich es nicht fixe, was passiert dann eigentlich? Geht die Welt unter? Nein, die Welt geht überhaupt nicht unter. Google macht dann halt sein eigenes Ding und das muss nicht das schlechteste Ding sein.
Punkt Nummer 3: Viele Effekte werden überschätzt.
Das sind natürlich so Themen wie Überschriften 1., 2., 3. bis 6. Ordnung, also die H1 bis H6 Überschriften. Natürlich ist es schön, wenn ich genau eine H1 Überschrift als Hauptüberschrift habe, das würde ich auch jedem so ins Pflichtenheft reinschreiben, aber der Effekt dessen wird definitiv überschätzt.
Das gleiche auch so Sachen wie URL-Schema: Insgesamt, kommt das Keyword darin vor? Kommen da vielleicht noch andere Wörter darin vor? Das ist alles wirklich nicht mehr so relevant. Und das heißt, jemand, der sich als SEO so einen Hint anguckt und sagt „Oh, ich habe ja gar keine H1. Verflucht! Die ist ja nur als <div class=“headline“> markiert“, ja, kannst du ändern, du wirst aber überhaupt keinen Effekt sehen.
Du steckst vielleicht wahnsinnig viel Energie da rein, aber es bringt einfach nichts. Deswegen nochmal Punkt Nummer 3: Viele Effekte werden überschätzt.
Punkt Nummer 4: Was können so Crawler eigentlich wirklich entdecken, wenn etwas fehlt?
Also was ein Crawler gut erkennen kann: Ich habe Bilder, aber ich habe das Alt-Attribut vergessen. Klar, das können sie einfach prüfen. Das ist wieder so eine Regel, die sie prüfen können.
Kommen wir mal zum Thema Markup, wie ist es denn da? Der Frog kann zum Beispiel auch Markup prüfen, validieren, aber wenn irgendwo ein Markup fehlt, dann kann das Tool das nicht entdecken. Also du hast zum Beispiel einen Teaser oben und den könnte man als Speakable markieren. Oder du hast eine Fachmessen-Seite und da könntest du Events drauf markieren. Könntest du alles machen. Das wird dir aber kein Tool der Welt sagen, weil die sowas halt nicht prüfen können. Das heißt, wenn etwas fehlt, manche Sachen können entdeckt werden, viele aber auch nicht.
Punkt Nummer 5: Es gibt technisch korrekte Implementierungen, die trotzdem suboptimal sind. Also da müssen wir uns mal ein Beispiel konstruieren, wobei das gar nicht so konstruiert ist, sehe ich regelmäßig in der Praxis. Angenommen, du hast eine internationale Website, dann ist natürlich klare Empfehlung, dass du Hreflang-Tags hast. Und jetzt sagen wir mal, du hast eine deutsche Sektion, also einen deutschen Sprachraum und du hast einen englischen Sprachbaum. In deiner Seite, also in jeder Seite müssen dann ja zwei Hreflang-Tags stehen, einer mit Verweis auf die deutsche, einer mit Verweis auf die englische Seite. Und bei der deutschen Seite schreibst du hreflang=de-de rein und bei der englischen schreibst du hreflang=en-gb rein. Was wird der Crawler sagen? Der Crawler wird sagen: Hey, also absolut richtig, technisch korrekt, syntaktisch korrekt, die URLs, die du da genannt hast, existieren alle, die URLs entsprechen den Canonical Tags, die sind nicht für Suchmaschinen gesperrt. Total toll! Hast du echt super gemacht.
Es ist aber leider nicht super, denn da steht ja hreflang=de-de. Das heißt, dieser Sprachbaum ist für deutsche Sprache und Land gleich Deutschland. Das stimmt aber eigentlich gar nicht. Richtig wäre eigentlich hreflang=de, weil warum sollst du dich da jetzt auf Deutschland beschränken? Auch jemand aus Österreich oder aus der Schweiz oder Aserbaidschan sollte in der Lage sein diesen deutschen Content zu suchen, wenn er denn deutsch sucht.
Und nochmal, hier ist ein Code drin, der ist vollkommen korrekt syntaktisch gesehen, semantisch ist er aber mindestens suboptimal. Man könnte noch so ein paar ähnliche Beispiele konstruieren, wo man sagen muss: Ja, das stimmt alles, aber es ist trotzdem falsch. Und genau, deswegen ist hreflang da eigentlich immer ein super Beispiel dafür.
Punkt Nummer 6, die Frage: Was gucke ich mir eigentlich an mit so einem Crawler?
Also der Crawler fängt ja auf der Startseite an, folgt allen Links, um an alle Inhalte zu kommen. Aber auch da muss einem klar sein, ist der eigentlich an alle Inhalte drangekommen? Und das ist eben eine Sache, zumindest in der Praxis sehe ich ab und zu Fälle, die es gibt, man kann auch relativ gut Fälle konstruieren, aber auch dazu habe ich noch was auf der SMX, wo ich das mal nachgemessen habe.
Aber es gibt Inhalte, die habe ich vielleicht intern nicht verlinkt, die aber vielleicht trotzdem relevant sind und der Crawler kommt an diese Inhalte aber gar nicht ran. Und das ist natürlich schlecht. Das heißt, mein Crawl zeigt mir vielleicht kein vollständiges Abbild der Realität an. Dann die Standardempfehlung und da kann man nicht oft genug darauf hinweisen, immer auch den Crawl mit der Sitemap abgleichen, weil dann kannst du wirklich entdecken, ob du Inhalte hast, die du einfach vergessen hast intern zu verlinken. Oder es gibt ja noch den schlimmeren Fall quasi, wenn du zum Beispiel eine Paginierung benutzt und die Paginierung steht auf noindex, dann wird Google mit der Zeit sagen: Oh, noindex-Seiten, da folge ich den Links gar nicht mehr. Und auch dann kann es eben passieren, dass manche Inhalte einfach nicht mehr erreichbar sind.
Punkt Nummer 7: Nochmal, das Thema Content ist einfach nicht mit drin.
Content, muss man ja wirklich sagen, ist wirklich alles entscheidend. Das prüfen die Tools aber nicht oder respektive wenn, dann nur auf quantitativer Ebene. Also eine Frage wie: Passt der Content eigentlich optimal zum Search Intent? Kann so ein Tool nicht sagen. Ist der Content gut strukturiert, ist er gut und schnell lesbar, ist er gut erfassbar? Kann so ein Tool dir nicht sagen. Klar, kann es sagen: Hey, da sind drei H1er drin und das Verhältnis von Text zu Zwischenüberschriften ist soundso. Verlinke ich aus meinem Text heraus auf relevante Quellen? Keine Ahnung, weiß das Tool nicht.
Anderes Thema, auch Kannibalisierung muss man auch sagen, was die meisten Tools können, ist, Duplicate erkennen bis zu einem ganz gewissen Grad natürlich. Das stimmt, aber wie ist es denn so mit Kannibalisierung? Also habe ich zwei Seiten, die eigentlich auf die gleichen Suchbegriffe abzielen? Können die meisten Tools nicht erkennen. Warum? Weil es eigentlich faktisch richtig gut nur mit realen Nutzerdaten erkannt werden kann. Das heißt, das, was zum Beispiel RYTE macht mit Search Success, da gibt’s so ein Modul oder einen Report, um Kannibalisierung zu erkennen. Also gab es in der Vergangenheit Fälle, wo für ein und dieselbe Suchanfrage in den Suchergebnissen unterschiedliche Seiten ausgeliefert wurden? Auch das ist so ein Aspekt, nochmal, das findet dir kein Crawler Tool der Welt heraus, wenn es eben nicht auf die Google Search Console Daten zugreift.
Und dann vielleicht noch Aspekt Numero 8: Habe ich eigentlich alle Suchbegriffe abgedeckt?
Ist auch so eine klassische SEO-Frage. Woher soll das Tool wissen, was alle meine Suchbegriffe sind? Das weiß es einfach nicht. Und auch da wieder, selbst wenn es sagen könnte, dass ich für ein ganz bestimmtes Keyword den optimalen Content habe, dann weiß das Tool noch lange nicht, ob ich für alle Suchbegriffe auch optimalen Content habe, weil es diese Suchbegriffe eben einfach nicht kennt.
Also nochmal Zusammenfassung:
Manche Warnungen, manche Fehler, können Crawler nicht entdecken, obwohl sie sehr relevant sind. Manche können sie entdecken, sie sind aber nicht relevant.
Und deswegen gilt diese Implikation eben nicht, ich habe null Warnungen oder null Fehler und folgerichtig ist meine Website optimal. Umgekehrt natürlich auch nicht. Ich kann viele Warnungen und viele Fehler haben und meine Website rennt wie die Hölle.
Eine Sorge, die ich bei diesem Crawlern immer habe, und deswegen rede ich da auch gerne darüber, weil ich sehe es auch jeden Tag in der Praxis, ich sehe es in Seminaren, ich sehe es an Sachen, die ich mitkriege, wo ich kontaktiert werde, und ich glaube, diese ganzen Tools mit ihrem ganzen Hints, das ist total hilfreich, überhaupt keine Frage, aber manche machen SEO, damit sie bessere Scores kriegen. Manche von diesen Tools haben ja auch einen SEO Score und du hast, 65 Prozent bist du schon. Oder sie wollen irgendwie, weil sie tausend Warnungen haben, wollen sie das irgendwie runterdrücken und machen dann irgendwas, um diese Warnungen zu reduzieren. Das heißt, sie machen sich eigentlich zum Sklaven ihres Tools. Das darf nicht so sein.
Und dann habe ich ehrlich gesagt noch eine größere Sorge und auch die sehe ich regelmäßig in der Praxis. Also ich fixe etwas an meiner Website, basierend auf dem Crawl, ich kriege jetzt 10 Prozent bessere Rankings oder mehr Traffic oder whatever, irgendeinen positiven Effekt, und daraus folgere ich dann, dass die getroffenen Maßnahmen ursächlich waren. Und das ist natürlich echt ein harter Fall, nochmal, den habe ich regelmäßig. Das kann ja sogar im Einzelfall so sein, aber in der Regel kann man das eben nicht sagen, weil vielleicht jetzt gerade ein Core Update war und du bist auch so, ohne dass du was geändert hast, 10 Prozent nach oben gerutscht. Kann ja sein.
Und deswegen glaube ich, dass wir alle sehr genau hingucken müssen, was diese Tools mit uns machen, dass wir eben nicht zum Sklaven der Tools werden und dass wir sie für das nutzen, was sie eigentlich sind, nämlich eine Möglichkeit, Empfehlungen für eine Website zu bekommen, die auf ganz bestimmten hart abzuprüfenden Regeln basieren, und dass wir aber trotzdem noch unser Gehirn da oben brauchen, um uns noch den Content anzugucken, um dann zu schlussfolgern, dass das alles auch gut ist.
Häufig muss ich natürlich trotzdem sagen, mein Podcast-Titel heute ist natürlich ein bisschen ketzerisch, weil ich glaube schon, dass es natürlich eine wie auch immer geartete Korrelation gibt. Also jemand, der vielleicht wenig Warnungen und Fehler hat, hat vielleicht trotzdem gut was daran optimiert, also der versteht einfach, was er da macht. Das heißt, in der Praxis kann es natürlich trotzdem eine Verbindung zwischen meiner Website-Qualität und der Anzahl der Warnungen und Fehler geben, gar keine Frage. Es ist nur eben wirklich nicht immer so. Deswegen wichtig für euch da draußen, bevor ich hier das Mikrofon abgebe: Denkt einfach mal drüber nach, denkt darüber nach, was euch das Tool sagt. Informiert euch immer dazu, wie schlimm ist etwas, also wie sehr betrifft es mich? Was kostet es mich, das Ganze zu beheben? Und was ist eigentlich das mögliche Ergebnis davon? Wenn etwas nicht schlimm ist, dann muss ich es auch nicht fixen. Nur weil das Tool jetzt rummeckert und ich meinen SEO Score nach unten haue, dann ist es halt so. Also immer, welchen Effekt kann ich jetzt wirklich erwarten?
Und das Blöde daran ist eben wirklich, da geht’s sehr viel um Wissen, Wissen kann ich noch aufbauen, aber da geht’s leider auch sehr viel um Erfahrung. Und Erfahrung kann ich eben nicht auf die Schnelle aufbauen. Sowas wie irgendeine Überschrift in eine H1 umsetzen, das muss man eben mal gemacht haben, um dann zu sehen, dass da eigentlich nichts bei rumkommt. Das hat natürlich trotzdem manchen positiven Effekt, dass ich es im Tool jetzt zum Beispiel besser reportet bekomme, weil es eben standardmäßig die H1 sich rausholt, aber immer kritisch draufgucken, drüber nachdenken und nicht einfach blind loslaufen. Ich merke das auch total, wann immer wir einen SEO Audit machen, wir schreiben immer Prioritäten dran. Die meisten Kunden fragen das sowieso von sich aus an, dass sie eben sagen: Hör mal, schön, dass du mir 20 Seiten oder 30 oder 40 Seiten Papier lieferst, aber womit fange ich denn an? „What is The Biggest Bang For The Buck?“, wie man im Englischen sagt, also wo kann ich mir jetzt richtig was bewegen? Und was kann ich dann machen, wenn ich mal an einem Regentag Langeweile habe? Dann kann ich das immer noch fixen mit der H1, überhaupt keine Frage. Aber ja, da muss man eben Priorität dranschreiben und das erfordert eben wirklich Wissen und Erfahrung.
Markus Hövener
Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster und Autor vieler Artikel und Studien rund um SEO.
Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.
Neueste Artikel von Markus Hövener (alle ansehen)
- Der große SEO-Jahresrückblick: 12 wichtige Themen [Search Camp 355] - 10. Dezember 2024
- SEO-Monatsrückblick November 2024: AI-Suchmaschinen, Screaming Frog + mehr [Search Camp 354] - 3. Dezember 2024
- SEO-Fokus: Fünf wichtige strategische Fragen für Deine Website [Search Camp 353] - 26. November 2024
- SISTRIX Sichtbarkeitsindex entschlüsselt: Insights von Johannes Beus! [Search Camp 352] - 19. November 2024
- Die SEO-für-Startups-Woche: 5x SEO-Tipps für junge Unternehmen - 11. November 2024