Website Detox: 7 Strategien für einen besseren SEO-Footprint [Search Camp 181]

22. Juni 2021 | Von in Search Camp + Alles auf Start, SEO

Entschlacken, Heilfasten & Co. – das geht natürlich auch für SEO. Dabei geht es primär darum, Index-Ballast loszuwerden und insgesamt ein paar HTML-Kilo zu verlieren. Aber wie geht man da ran? Was muss bleiben – und was kann weg?

 

Keine Ausgabe unserer Podcasts mehr verpassen?
Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:

Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.

 

Die wichtigsten Podcast-Links:

 

Shownotes

 

Website Detox: 7 Strategien für einen besseren SEO-Footprint

Moin! Da seid ihr ja wieder zu Search Camp und einer neuen Folge, heute mit dem Thema „Website Detox – 7 Strategien für einen besseren SEO Footprint“. Ist so, glaube ich, fast die letzte Folge vor der Sommerpause ein bisschen. Deswegen schön, dass du da bist. Ich möchte dir heute ein paar Detox-Strategien vorstellen. Und Detox kommt ja eigentlich eher aus dem privaten Bereich. Da geht’s so um Entschlacken, ums Fasten. Ich habe dazu medizinisch eine Meinung, aber die will ich hier gar nicht teilen. Deswegen möchte ich dir, wie gesagt, 7 Bereiche vorstellen, wie man sich überlegen kann, was man mit seiner Website mal so machen könnte, um sie ein bisschen auf Diät zu setzen. Wir alle haben vielleicht in Corona-Zeiten ein bisschen mehr angesetzt, und deswegen ist es natürlich gut, nicht nur sich selber in Form zu bringen, sondern auch die Website noch mal ein bisschen in Form zu bringen. Und da habe ich sieben Strategien. Ich möchte kurz vorher noch mal sagen: Gerade Content ist ja nach wie vor King, zumindest der richtige Content is King.

Und wann immer es um Content geht, und darum wird es gleich ein paar Mal gehen, muss man sich immer klarmachen: Welche Optionen habe ich denn eigentlich, wenn ich Content sehe bei mir auf der Website?

Möglichkeit 1 ist natürlich immer klar: Ich lasse ihn einfach unverändert. Wenn er gut funktioniert, warum soll ich ihn anfassen?

Möglichkeit 2 ist natürlich immer: Ich kann ihn optimieren, ich kann ihn verändern und ich kann ihn aktualisieren. Das ist vor allem dann natürlich gegeben, wenn er inhaltlich einfach nicht mehr stimmig ist oder wenn der Konkurrenzgrad sich verändert hat, sodass ich das Nachsehen habe.

Dann gibt es immer noch Möglichkeit Nummer 3, nämlich: Diese Seite mit einer anderen Seite oder einem anderen Inhalt zu verschmelzen. Das brauche ich vor allem dann, wenn ich unter Kannibalisierungsproblemen leide.

Und schlussendlich gibt’s immer die Möglichkeit Nummer 4, nämlich: Sperren beziehungsweise Löschen. Also so, dass Google an diesen Inhalt nicht mehr drankommt.

Das Thema kommt gleich ein paarmal, deswegen wollte ich es einfach immer noch mal sagen, das sind immer die grundsätzlichen Optionen, die ich habe.

Dann lass uns mal mit den 7 Strategien anfangen.

 

Strategie #1: Seiten mit null SEO Traffic identifizieren

Wir haben ja grundsätzlich das Problem, wenn wir uns Tools angucken wie die Search Console, und in den Report „Leistung“ gehen, dann sind die immer eigentlich leistungsorientiert, deswegen heißt der Report auch so. Und das heißt, ich kriege die Seiten oben angezeigt, die viel Traffic haben. Ich sehe aber nicht, dass ich vielleicht 90 % Seiten habe, die überhaupt keinen Traffic haben.

Und um das herauszufinden, bietet sich zum Beispiel der beliebte Crawler, der Screaming Frog an. Den kann ich nämlich nutzen, um meine Website zu crawlen und ihn gleichzeitig mit Search Console oder Google Analytics Daten anzureichern. Und dann habe ich wirklich einmal eine Liste aller meiner Seiten, oder ich kann vielleicht auch nur einen Teil der Seiten heraussuchen, zum Beispiel alle Kategorie-Seiten, die ich habe, und sie dann eben anzureichern. Sinnvoll ist es natürlich immer, sich nur indexierbare Seiten anzuschauen, also einmal kurz filtern, dann ist das ganz schnell auch schon durch, und natürlich jeweils auch einen sinnvollen Zeitraum auszuwählen, um saisonale Effekte zu kompensieren. In der Search Console kann ich mir 16 Monate angucken, für viele Fälle reicht das.

Was findet man dann zum Beispiel? Angenommen, du hast einen Online-Shop und du verkaufst Schrauben, und du hast 1 Million verschiedene Schrauben. Dann kannst du durchaus feststellen, dass nur 1000 oder 2000 davon überhaupt SEO Traffic haben. Und die anderen 900 irgendwas, 1000, die haben überhaupt keinen SEO Traffic.

Jetzt ist die Frage: Was mache ich denn jetzt damit? Das kann man natürlich pauschal nicht beantworten, deswegen das eben vorgenannte. Ich habe vielleicht einfach Produkte, nach denen niemand sucht. Dann kann ich sie auch sperren. Dann haben sie im Google Index erst mal nichts zu suchen.

Vielleicht sind sie aber auch komplett unoptimiert und haben einfach sehr kryptische Bezeichnungen, und jemand da draußen sucht aber eher nach Schraube M16 50 Millimeter oder sowas und das steht da gar nicht drin. Das heißt, dann muss ich eben herausfinden: Warum haben die eigentlich keinen Traffic? Vielleicht liefert Google auch immer die Kategorie-Seite aus und nicht die Produktdetail-Seite.

Und vielleicht sind meine Produktdetail-Seiten alle sehr, sehr ähnlich, weil eben diese Schrauben natürlich bis auf Gewinde und den Kopf und so eigentlich doch alle gleich sind. Das heißt, hier muss ich einfach ein bisschen gucken: Warum haben diese Seiten keinen SEO Traffic? Und dann die alte Frage: Was mache ich jetzt, optimieren, verschmelzen, sperren oder löschen?

 

Strategie #2: Seiten mit negativem Trend finden

Das heißt, vielleicht habe ich Seiten in meiner Website, die kontinuierlich seit Jahren an Traffic verlieren, während insgesamt vielleicht der Trend nach oben geht. Das kann verschiedene Gründe haben. Zum Beispiel andere Inhalte auf anderen Websites sind vielleicht einfach mittlerweile besser geworden, also mein Inhalt ist nicht mehr gut genug. Meiner war mal der beste, aber jetzt nicht mehr. Es können aber auch veraltete Inhalte sein.

Zum Beispiel: Ich habe einen Artikel über die Frisurentrends 2019. 2019 hat das Ding super geklickt in Suchmaschinen, aber 2021 klickt eben keiner mehr drauf, weil niemand will mehr die Frisurentrends für 2019 sehen, und genau das steht da ja relativ prominent drin. Wie kann ich die entdecken? Gibt natürlich auch verschiedene Möglichkeiten, da muss man sich mit seinen Tools auseinandersetzen, vor allem mit Google Analytics oder einem anderen Webanalyse-Tool. Mit der Search Console komme ich da wieder nicht mehr so weit, weil es da natürlich so ist, nach 16 Monaten Rückblick ist Schluss. Also wenn ich sowas gerade sehen will wie, hey, was lief denn 2019 gut, bin ich bei der Search Console erst mal raus. Außer natürlich, wenn ich spezialisierte Tools habe, die insgesamt die letzten Jahre immer für mich zwischenspeichern, aber davon können wir jetzt erst mal nicht ausgehen.

 

Strategie #3: Inhalte finden, die für Suchmaschinen gesperrt werden sollten (und die nie hätten indexiert werden sollen)

Das hat jetzt eine gewisse Überdeckung mit der Strategie Nummer 1 und vieles von dem, was ich da so entdecke, werde ich auch mit Strategie Nummer 1 finden können. Ich weiß nicht, ich habe zum Beispiel so Login-Seiten, die gehören einfach nicht in den Index rein. Oder so Compare-Seiten, ich kann zwei Produkte miteinander vergleichen oder irgendwas in einen Warenkorb legen und dafür gibt’s ja auch wieder eine Seite. Das sind einfach Inhalte, die haben in Suchmaschinen nichts zu suchen, und vor allem, wenn es sie dann irgendwie 1000-, 10.000-, 100.000-fach gibt. Das bläht den Index auf und die haben da wirklich überhaupt nichts zu suchen.

Die kann ich natürlich hervorragend über einen Crawl indexieren oder ich gucke natürlich mal in den Report „Abdeckung“ rein. Da gibt’s diese schöne Fehlerkategorie „Indexiert, aber nicht in Sitemap gesendet“. Das heißt, in meiner Sitemap stehen ja alle meine wichtigen Seiten drin, und dann, was hat Google eigentlich noch zusätzlich indexiert? Das sind in der Regel nicht so sonderlich relevante Seiten, weil sonst wären sie ja in meiner Sitemap drin. Es kann ja auch sein, dass meine Sitemap fehlerhaft ist, aber oft ist das so eine ganz gute Quelle davon. Also da mal in den Report „Abdeckung“ reingucken, ist durchaus nicht verkehrt.

Und was machen wir dann damit? Zum einen sperren ist natürlich immer eine gute Idee, also diese Seiten zum Beispiel auf noindex zu setzen. Oder wenn ich zum Beispiel Druck-Versionen habe, die im Index sind, dann kann ich die zum Beispiel kanonisieren auf die Nicht-Druck-Version, also auf die Vollversion der Seite. Hängt also immer ein bisschen vom Einzelfall ab. Oder ich habe zum Beispiel so zigtausende irrelevante PDF-Dateien. Und PDF-Dateien habe ich mich sowieso gegen entschieden, zum Beispiel, muss nicht immer so sein, dann kann ich natürlich die Sense rausholen und zum Beispiel alle PDF-Dateien für Suchmaschinen sperren.

 

Strategie #4: Kannibalisierung prüfen

Kannibalisierung heißt ja, ich habe mehrere Seiten, die auf den gleichen Suchbegriff abzielen. Erstmal grundsätzlich: Jede Website hat Kannibalisierung. Klingt jetzt erst mal nach einer steilen These, aber wenn man zum Beispiel sich den Brand-Name anguckt, bei uns zum Beispiel Bloofusion, jede Seite der Website hat eigentlich das Potenzial für Bloofusion zu ranken. Das heißt, natürlich ist das Kannibalisierung. Oder ich habe diese 1 Million Schrauben in meinem Shop, und alles ist eine Schraube, das heißt jede Seite kann für Schraube ranken. So wird es natürlich nicht passieren, aber grundsätzlich, Kannibalisierung ist eigentlich immer da und manchmal auch nicht zu vermeiden.

Aber man sucht ja grad so schöne Fälle, wo du zwei oder drei schwache Seiten hast, einen relativ alten Blogbeitrag, da noch eine FAQ-Seite. Und die könnte man jetzt eigentlich zusammenführen, da könnte man aus zwei nicht so dollen Seiten eine gute Seite machen. Deswegen sich das anzugucken, immer noch sinnvoll.

Kannibalisierung kann man zum Beispiel in der Search Console sehen oder mit optimierten Tools wie RYTE, die quasi die Daten nehmen und dann nochmal aufbereiten und gucken, wo habe ich für einen Suchbegriff mehrere Seiten? Man muss natürlich immer ein bisschen gucken, das, was ich in der Search Console sehen kann, das ist nur die Kannibalisierung, die Google dann auch ausgespielt hat. Also angenommen ich habe 10 Seiten zum gleichen Thema und Google findet 2 davon besonders gut, dann wird Google diese 2 Seiten in den Suchergebnissen ausspielen und einfach gucken, welche läuft jetzt gerade besser. Die anderen 8 Seiten sind aber immer noch da, die sehe ich nur nicht in der Search Console.

Das heißt, die Search Console zeigt mir ein relativ gutes Bild, aber vielleicht nicht unbedingt das vollständige Bild. Also da ist es auch immer so, dass natürlich Gehirn einschalten, Website angucken, Crawl angucken, ist definitiv auch noch immer eine gute Idee.

 

Strategie #5: Negative Links

Ich muss natürlich zugeben, das ist nicht mehr unbedingt bei jeder Website ein Thema. Aber eigentlich kommt das Detox da her, nämlich die toxischen Links, die man unbedingt entwerten möchte, vor allem Links, die gegen Google-Richtlinien verstoßen.

Es gibt natürlich erst mal spezialisierte Tools, mit denen man negative Backlinks automatisiert identifizieren kann. Das halte ich ehrlich gesagt für mindestens fragwürdig, weil diese Tools einfach keine hundertprozentige Treffsicherheit haben. Punkt! Und dann kann es eben passieren, dass ich einen Link, der eigentlich schlecht ist, nicht entwerte, oder dass sich einen Link, der gut ist, entwerte und ihn damit wegschmeiße. Das möchte ich also eigentlich nicht.

Also typischerweise würde man sich, oder was ich empfehle, ist, sie wirklich manuell durchzugucken. Gerade wenn es noch eine überschaubare Anzahl an Backlinks ist, die ich habe, und ich kann da noch mal drüber gucken, dann sollte man da natürlich Link für Link durchschauen. Und dann die Möglichkeit, dass man die Links entweder abbaut, wobei das, na ja, hat eine sehr geringe Erfolgsquote, wie ich finde. Oder man kann sie eben über das Google Disavow Tool einfach entfernen, das heißt, den Link gibt es noch, aber Google wertet ihn nicht. Das kann man machen, dieses ganze Identifizieren negativer Links. Man muss natürlich sagen, in den letzten Jahren ist eigentlich schon sehr viel natürlich abgebaut worden. Viele haben ja auch schon auf die Finger bekommen und das Pinguin Update ist ja jetzt auch lange genug her. Aber trotzdem, ich habe immer noch so ein paar Kunden, ich hatte gerade letzte Woche noch jemanden, der einfach jetzt sehr lange nichts an SEO gemacht hatte und wo 2013 dann immer noch nicht so dolle Links aufgebaut wurden, die das aber gar nicht wussten. Also es gibt diese Fälle noch und ich sag mal, je mehr man in SEO-inaffinen Bereichen unterwegs ist (der deutsche Mittelstand), findest du solche Perlen natürlich immer noch. Also angucken würde ich es mir auf jeden Fall.

 

Strategie #6: Externe Broken Links identifizieren

Ist das jetzt so eine Detox-Strategie? Ja, ein bisschen schon. Also es geht ja darum, ich habe einen Backlink von einer anderen Website auf meine Website und die Seite, auf die verlinkt wurde, die gibt es gar nicht mehr. Das ist eigentlich immer total schade, weil es ist für den Nutzer blöd, der vielleicht auf einen externen Link draufklickt, plus, es ist für mein Backlink-Portfolio auch Mist, denn solche Links zählen einfach nicht, und obwohl ich ihn eigentlich schon habe. Deswegen mein Tipp auf jeden Fall: Vor allem das regelmäßig zu machen, externe Broken Links zu identifizieren. Das kann man zum Beispiel mit Ahrefs machen. Davon gibt’s auch eine kostenlose Version für die eigene Website, die Ahrefs Webmaster Tools, empfehle ich wirklich regelmäßig, weil es ein sehr geniales Tool ist. Und vor allem Kostenfaktor null, ist natürlich nur sehr schwer zu schlagen kostenseitig. Ansonsten auch die anderen Linkdatenbanken wie Majestic und MOZ bieten ähnliche Funktionalitäten an. Ich finde, Ahrefs macht‘s aber einfach gut. Und dann muss man halt hingehen und kaputte Links, die es nicht mehr gibt, auf eine möglichst passende Seite 301en. So rettet man den Link. Ob Google das dann später anerkennt, ist immer noch eine Frage, aber zumindest hat man erst mal den Punkt aufgehoben, dass ein externer Besucher auf einen Link draufklickt und das erste, was er bei mir sieht, ist, ich habe diese Seite, diesen Inhalt, den habe ich für dich nicht mehr. Das finde ich eigentlich immer das schlechteste.

 

Strategie #7: Page Speed Optimierung

Also wenn man sich das mal anguckt, was zählt eigentlich so in die Ladezeit einer Website rein? Und dann ist es ja so, der Browser lädt die HTML-Seite herunter, dann alle Ressourcen wie JavaScript, CSS und so, und fängt dann mal an zu rendern, Bilder natürlich nicht zu vergessen. Und ich finde, es ist nicht selten so, dass man feststellt, dass da Sachen dabei sind, die man eigentlich gar nicht mehr braucht. Also man kann die Website in diesem Fall schlanker machen, ohne etwas an Funktionalität zu verlieren. Gerade bei JavaScript, bei CSS, dann gibt’s eben Altlasten, das hat man mal gehabt, das brauchte man mal irgendwo für. Oder grad bei JavaScript hat man irgendeine Riesenbibliothek eingebunden und braucht schon seit drei Jahren keiner mehr, aber der Code bleibt halt immer noch drin. Deswegen sich sowas anzugucken, grad Code Coverage, finde ich da immer eine sehr spannende Sache, aber gleichzeitig auch eine sehr komplizierte Sache. Insgesamt auch das Thema Bilder. Habe ich zu große Bilder? Brauchen wir die überhaupt? Haben wir irgendwie einen Slider drin, der auf der Startseite zehn Bilder durchwischt und die auch gleich am Anfang alle lädt? Braucht jemand diesen Slider noch? Also dieses Verschlanken der Website, das kann ja erst mal für den PageSpeed gut sein, aber vielleicht auch für den Nutzer, weil der Slider hat mich persönlich immer schon genervt. Auch alles, was ich so an Widgets eingebaut habe, die ganzen Social Media Widgets, die kosten eben auch Ladezeit. Brauchen wir die eigentlich wirklich noch? Bringen die was? Können wir das messen? Ich hatte letztens auch den Fall, da hatte ein Kunde so ein Bewertungstool eingebaut, hat direkt 5 Ressourcen gebraucht, nur, um diese 5 Sterne da unten anzuzeigen. Und die waren im Footer so, dass sie sowieso keiner gesehen hat. Also da einfach mal alles kritisch auf den Prüfstand zu stellen, zum Beispiel mit webpagetest.org einfach mal zu gucken: Was wird denn jetzt alles an Ressourcen geladen und brauchen wir das eigentlich wirklich? Und natürlich auch so: Was habe ich alles an Modulen drin, an Plug-Ins? Gerade, wenn du WordPress anguckst, finde ich es jetzt nicht selten, dass da Sachen dabei sind, die hat mal irgendjemand irgendwo für installiert, aber eigentlich brauchen wir auch das schon lange nicht mehr. Auch das kann ein bisschen Ladezeit kosten, kann den HTML-Code zum Beispiel aufblähen. Das muss nicht immer SEO-relevant sein, aber da sich einfach noch mal hinzusetzen und zu gucken, was haben wir denn da eigentlich alles drin, und da mal groß aufzuräumen, ist absolut nicht verkehrt. Sollte man machen.

 

Finale

Damit bin ich auch mit meinen 7 Strategien durch. Wenn ihr das macht, habt ihr sicherlich einen Tag erst mal gut zu tun. Aber nochmal: Ich finde, es lohnt sich. Es ist auch einfach ein schönes Gefühl, wenn man mal einfach aufräumen kann, wenn man ausmistet und einfach auch Sachen findet, die in den letzten 10 Jahren sich so angehäuft haben. Und es kommt ja immer wieder was dazu. Und ich sag immer, es braucht 5 Minuten, um einen Artikel online zu stellen, aber 5 Jahre, um ihn dann wieder zu löschen, weil er erst mal da ist, weil wir auch Verlust höher bewerten als Gewinn. Und deswegen: Auf jeden Fall würde ich euch empfehlen, euch damit zu beschäftigen.

The following two tabs change content below.

Markus Hövener

Markus Hövener ist Gründer und Head of SEO der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster, Autor vieler Artikel und Studien rund um SEO und verantwortlich für das suchradar.

Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.

Kommentieren