5 Tipps: Crawl-Ergebnisse in sinnvolle SEO-Maßnahmen übersetzen [Search Camp 322]

28. Mai 2024 | Von in Podcast "Search Camp", SEO

Tools wie der Screaming Frog SEO Spider liefern ganz viele Hints, aus denen man dann einen schlagkräftigen SEO-Plan entwerfen kann. Aber nicht alle Maßnahmen sind sinnvoll. Wie geht man also vor? Was ist besonders wichtig? Welche Fehler kann man dabei schnell machen?

 

Die wichtigsten Podcast-Links:

 

5 Tipps: Crawl-Ergebnisse in sinnvolle SEO-Maßnahmen übersetzen

5 Tipps: Crawl-Ergebnisse in sinnvolle SEO-Maßnahmen übersetzen [Search Camp 322]

Eigentlich ist das ein ganz altes Thema, denn viele von uns nutzen Crawler als SEO-Tool, um erstmal einen Überblick über eine Website zu kriegen und natürlich auch vor allem, um Potenziale aufzudecken. Und ich habe es leider manchmal, dass ich dann merke, dass jemand, der vielleicht wenig Ahnung hat von SEO, dann in die komplett falschen Richtungen läuft.

Crawling Tools werden dir viele sogenannte Hints liefern, also Hinweise. Und leider wird das oft falsch wahrgenommen. Das ist erst mal wirklich exakt das, was es ist: ein Hinweis und nicht ein Fehler. Und deswegen werden wir uns das noch mal kurz angucken, wie heißt das in dieser Podcast-Episode heute: „Sinnvolle SEO-Maßnahmen.”

 

Was sind sinnvolle SEO-Maßnahmen?

Sinnvoll heißt: ich will etwas fixen. Ich will eine Maßnahme umsetzen, die entweder für mehr relevante Klicks sorgt (und in der Folge natürlich nicht nur zu Klicks, sondern auch für Conversions), oder ich will eine Maßnahme umsetzen, die negative Effekte verhindert.

Dazu zählt zum Beispiel das Entwerten von negativen Links oder das No-indexen von irrelevanten Inhalten. Aber typischerweise liegt der Fokus doch eher auf der ersten Sache. Also: Ich will etwas machen, was die Seite in Googles Sicht verbessert, was für mehr relevante Klicks sorgt in der Folge, idealerweise auch für mehr Conversions.

 

Tipp #1: Seitentyp-zentriert denken

Eine Website besteht ja nicht aus 100.000 einzelnen Seiten, die alle ganz, ganz, ganz unterschiedlich sind, sondern oft gibt es ja ganz bestimmte Seitentypen. Bei einem Shop: eine Kategorieseite oder eine Produktdetailseite.

Und selbst wenn man 100.000 Seiten hat, hat man eben 90.000 Produktdetailseiten. Und oft ist es so: Die meisten Fehler sind systematischer Natur. Wenn irgendwo ein Canonical Tag fehlt, dann fehlt das oft auf allen Seiten oder bei einem bestimmten Seitentyp, aber nicht mal so und mal so. Und das macht die Arbeit leichter. Denn wenn du später konkrete Maßnahmen ableitest, dann muss das ja irgendjemand machen. Vielleicht hast du eine IT oder einen Programmierer. Und die denken auch in der Regel in Seitentypen. Du machst es allen Seiten leichter, wenn du direkt auch deine Ergebnisse zentriert auf Seitentypen lieferst.

Der Screaming Frog, als beliebtes SEO-Tool, hat mittlerweile auch die Möglichkeit, Segmente zu bilden. Das heißt, du kannst im Frog auch nur auf einen ganz bestimmten Seitentyp schauen.

 

Tipp #2: Beachte die Suchrelevanz

Es lohnt sich natürlich nur, Seiten zu optimieren, die für SEO auch eine Rolle spielen. Und da gibt es so Klassiker-Seiten, wie zum Beispiel das Impressum oder die AGB. Das sind Seiten, die SEO-technisch in der Regel keine Relevanz haben, denn danach sucht niemand. Und wenn jemand danach sucht, ist noch die Frage, ob das für dich in Bezug auf Conversions relevant wäre.

Das heißt, das Impressum zu optimieren oder auch die AGB zu optimieren, macht eigentlich überhaupt keinen Sinn, sondern du musst immer gucken: Macht das in Bezug auf Suchrelevanz Sinn? Und auch bitte denk immer anteilig, nämlich, das sind jetzt zwei Seiten und deine Website hat dabei 100.000 Seiten. Und: Inhalte, die nicht suchrelevant sind, nach denen nicht gesucht wird, kann man in der Regel auch besser für Suchmaschinen sperren, sodass im Index nur Inhalte verbleiben, die auch wirklich suchrelevant sind.

Das kann dazu führen, dass du insgesamt besser bewertet wirst, weil du einfach nur relevante Inhalte an Google lieferst.

 

Tipp #3: Vergangenheit versus Zukunft

Angenommen, du hast einen Crawler laufen lassen und er beschwert sich, dass die Alt-Attribute bei urmelalten Bildern in urmelalten Beiträgen nicht gesetzt sind. Jetzt könnte man sagen: „Das muss ich jetzt fixen.”

Aber es lohnt gar nicht, das nachträglich zu machen oder der Aufwand ist zu hoch für das erwünschte Ergebnis. Und dann kann man eben hingehen und sagen: „Okay, das verstehe ich. Wir sollten das eigentlich machen, aber es macht bei diesen ganzen Altlasten, die wir haben, eigentlich keinen echten Sinn. Aber für die Zukunft machen wir es besser.“

Das heißt: Die Redaktion wird verpflichtet, für zukünftige Beiträge das dann eben richtig zu machen. Also man muss nicht alles postum reparieren, sondern kann einfach sagen: „Okay, hier mache ich einen Cut. Wir haben in der Vergangenheit hier vielleicht nicht optimal gearbeitet wird, aber in der Zukunft wollen wir das eben ändern.“

 

Tipp #4: Hints richtig deuten

Diese Hints, die da kommen, die sind ja oft relativ eindeutig im Wording, aber man muss trotzdem immer ein bisschen dahinter gucken. Zum Beispiel: Ein Seitentitel ist zu kurz oder ist zu lang. Die Meta Description ist zu kurz oder zu lang. Das sind ganz typische Fehler.

Und gerade wenn der Seitentitel zu kurz, muss man sich natürlich die Frage stellen: Wie relevant ist das denn eigentlich? Erstmal gibt es keine Strafe dafür, wenn es zu kurz ist, also wenn man es richtig auf den Punkt gebracht hat, dann ist es eben so. Aber trotzdem kann es ein Indiz dafür sein, dass man vielleicht im Seitentitel vergessen hat, noch ein zweites relevantes Wort mit einzubauen oder ein Synonym oder eine Drei-Wort-Kombination oder so etwas.

Das heißt: Es geht jetzt nicht darum, einfach nur das Ding länger zu machen, sondern zu gucken, wie können wir es denn sinnvoll länger machen. Sonst könnte ich einfach Blabla reinschreiben und hätte es irgendwann auf der korrekten Länge. Aber das bringt SEO-technisch natürlich nichts. Und deswegen bin ich immer ein sehr starker Freund der Empfehlung: Fixe nur etwas, wenn du auch genau verstehst, was dahinter steckt.

Und das erlebe ich leider immer wieder, dass dann Leute gerade in Seminaren zu mir kommen und sagen: „Hier, das und das habe ich in der Vergangenheit gemacht, und dann muss ich nur sagen: „Ja, aber das hat es ja nicht besser gemacht.” Es befreit euch wirklich niemand davon, das richtige Wissen aufzubauen, gerade in Bezug auf diese Standard-Sachen, die die SEO-Tools, die die Crawler eigentlich immer bemängeln oder wo man immer mal einen Fehler sieht.

Das Gleiche zum Beispiel bei der Frage, wenn der Seitentitel zu lang ist. Ist das schlimm? Dann sage ich: „Nein, denn Google kürzt das dann einfach.” Aber es ist ein Indiz dafür, dass ich viel irrelevante Wörter reingepackt habe. Mal davon abgesehen, dass Google dann den Seitentitel abschneidet und er vielleicht an der falschen Stelle abschneidet, also dass hinten eine wichtige Information fehlt.

Also noch mal wichtig: Diese Hints müsst ihr richtig deuten. Da müsst ihr wirklich dahintergucken und sagen: Was wäre denn jetzt hier das Optimum? Und die Aufgabe ist nicht, den Seitentitel jetzt auf die richtige Länge zu bringen, nur damit das Tool aufhört, sich zu beschweren, sondern wirklich zu gucken: Was löst das Problem?

 

Tipp #5: Reale Nutzerdaten in Crawl integrieren

Reale Nutzerdaten kommen natürlich vor allem aus der Search Console und aus Google Analytics. Was dient denn wirklich meiner Zielerreichung? Ich habe das Ganze oft, dass Leute immer noch auf den Sichtbarkeitsindex gucken oder auf die Anzahl der Klicks oder so etwas und sagen, das ist meine KPI. Dann muss ich sagen: „Nein, das ist keine KPI.”

Am Ende des Tages willst du Geld verdienen. Und Tools wie Google Analytics können dir helfen, das in einem Crawl auch abzubilden, dass du wirklich siehst, welche Seiten oder welche Bereiche generieren keine oder kaum Klicks oder keine oder kaum Conversions? Das sieht man dem Crawl ja erst mal sonst nicht an.

Die Search Console Daten sind ein bisschen limitierter, gerade wenn du eine sehr große Website hast, weil du kriegst eben nur für eine bestimmte Anzahl von Seiten auch Daten. Und dann kann es manchmal auch hilfreich sein, vielleicht nur bestimmte Bereiche einer Website zu crawlen und dafür dann einfach erst mal nur die Nutzerdaten sich reinzuziehen. Das hängt davon ab, wie groß und erfolgreich deine Website ist.

 

Der Bonustipp!

Crawling reicht nicht. Denn ein Crawler ist ein verdammt geiles Tool. Ich wüsste nicht, wie ich ohne arbeiten sollte. Und trotzdem muss man sagen: Ganz bestimmte Themenbereiche gucken die sich nicht an. Und deswegen wird es nicht reichen, wenn du nur einen Crawler bemühst, sondern du musst auch noch immer weiter gucken. Und da, finde ich, sind vor allem drei wichtige Themen dabei.

Erstens: Die Indexierung zu prüfen, denn der Crawler guckt ja nur erst mal, ob etwas indexiert werden kann. Das heißt nicht, dass es auch von Google indexiert wird. Und deswegen ist natürlich die Search Console mit dem Seitenreport total wichtig oder auch die URL Inspection API, die man eben nutzen kann, um gezielt zu prüfen, ob ganz bestimmte Seiten im Index sind oder nicht und vor allem, warum nicht.

Das zweite wichtige Thema: die Inhalte prüfen. Das macht das Tool auch nicht. Die Tools können vielleicht prüfen, wie viel Wörter drin sind oder ob Doubletten drin sind oder so etwas. Aber eine inhaltliche Prüfung, die findet ihr in der Regel oder kann auch schon gar nicht stattfinden. Sind deine Inhalte noch aktuell? Sind sie faktisch richtig? Und das natürlich immer auch mit den ganzen Richtlinien abzugleichen wie mit den Quality Rater Guidelines.

Und Thema Nummer drei: Backlinks. Auch wenn sie vielleicht nicht mehr zu den Top-Drei-Ranking-Faktoren gehören, muss man sagen, dass Backlinks immer noch nicht unwichtig sind. Du kannst es hinbekommen, dass du einen perfekten Crawl hinlegst, in dem es überhaupt nichts mehr zu reparieren und fixen gibt, aber trotzdem rankst du eigentlich nicht. Und dann kann eben ein Grund dafür sein, dass du eben einfach keine Backlinks hast. Aus Google-Sicht existierst du dann quasi nicht oder niemand hat ein positives Votum über Links für deine Website abgegeben. Noch mal: Dieses Kriterium ist nicht mehr so entscheidend, wie es das in der Vergangenheit mehr war, aber das heißt nicht, dass du in gerade konkurrenzstarken Themengebieten, dass du auch ohne Backlinks eine reale Chance hättest.

Und deswegen, darfst du natürlich das Thema Backlinks niemals aus den Augen verlieren. Die Crawler sind dabei überhaupt keine relevante Hilfe und deswegen muss man sich es dann natürlich noch über Link-Datenbanken angucken.

The following two tabs change content below.
Avatar-Foto

Markus Hövener

Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster und Autor vieler Artikel und Studien rund um SEO.

Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.

Kommentieren