Website Monitoring Tools: SEO-Probleme rechtzeitig erkennen?! [Alles auf Start 63]

16. Juni 2022 | Von in Search Camp + Alles auf Start, SEO

Ungewollte Änderungen an Deiner Website können Deinem SEO-Erfolg nachhaltig schaden. Das ist nicht sehr wahrscheinlich, aber es kann passieren. Und davor kannst Du Dich schützen – mit dem richtigen Monitoring Tool.

 

Keine Ausgabe unserer Podcasts mehr verpassen?
Dann melde Dich jetzt mit Deiner E-Mail-Adresse für unseren wöchentlichen SEO-Alert-Newsletter an:

Mit der Registrierung erklären Sie Ihr Einverständnis zum Erhalt der Update mit Revue sowie zur Analyse der Öffnungs- und Klickraten. Zu Ihrer Sicherheit erhalten Sie vorab eine Mail einem Bestätigungs-Link (Double-Opt-In). Sie können sich jederzeit mit dem Abmeldelink in einer Mail vom Newsletter abmelden.

 

Die wichtigsten Podcast-Links:

 

Shownotes (die drei Tools)

 

Website Monitoring Tools: SEO-Probleme rechtzeitig erkennen?!

Heute kommt Episode 63 zum Thema Monitoring Tools und ich bin mir gar nicht so sicher, ob das der korrekte Ausdruck ist. Aber wir sprechen heute einfach mal drüber, denn eurer Website droht Gefahr. Das ist natürlich jetzt – klingt ein bisschen überzogen, stimmt auch. Aber es kann immer was passieren mit so einer Website, und zwar in der Regel, ohne dass man das möchte.

Und zwar können Sachen passieren, die eben negative SEO-Effekte haben, zum Beispiel ungewollte Änderungen an der Website durch unbedarfte oder unwissende Anwender. Zum Beispiel – und ich habe es in meiner Laufbahn jetzt insgesamt drei Mal erlebt – dass es jemand aus verschiedenen Gründen geschafft hat, die komplette Website per robots.txt-Datei zu sperren. Das heißt, die Website konnte natürlich nach wie vor genutzt werden und besucht, aber Google durfte nicht mehr darauf zugreifen. Und das ist natürlich jetzt nicht so gut.

Ich habe es leider auch schon ein paar Mal erlebt, dass durch fehlerhafte Updates etwas passiert ist. Also es gibt ja ein Content Management-System oder ein Shop-System und manchmal installiert man da ein kleineres Update und auf einmal ist irgendetwas anders als vorher. Und zwar, ja, etwas, was man vielleicht nicht gewollt hat und eben auch auf jeden Fall nicht weiß.

Oder manchmal laufen auch Sachen aus, zum Beispiel ein SSL-Zertifikat, was ziemlich blöd ist, denn wenn ich das nicht mitkriege, kriegen erstmal die Besucher meiner Website eine ziemlich fette Browser-Warnung. Und Google hat natürlich auch Probleme, weil die HTTPS-Anfragen dann einfach ins Leere laufen. Also es kann eine ganze Menge passieren und wie gesagt, das alles ungewollt, überhaupt keine Frage. Aber es kann eben passieren.

 

Welche Folgen kann das haben?

Und das kann zwei Sachen zur Folge haben, nämlich zum einen Mal, dass irgendwie Crawling und Indexierung behindert werden. Das beliebteste ist natürlich einfach, dass die robots.txt-Datei einfach alle Seiten sperrt oder man vielleicht eine Anweisung hat, die ja, bestimmte relevante Seiten sperrt. Da gibt es ein paar Möglichkeiten, das zu tun. Wie gesagt, ich habe es jetzt in 20 Jahren drei Mal erlebt, dass jemand das geschafft hat. Aber es kann eben passieren.

Und das zweite, was eben auch passieren kann, ist, dass sich Rankings verschlechtern. Zum Beispiel hat sich mein Page Speed verschlechtert oder auch das hatte ich schon mal, dass nach einem Shop-Update alle Seitentitel unoptimiert waren. Also alles das, was man da mal gemacht hatte, das gab’s nicht mehr. Oder ich habe es auch schon erlebt, dass alle Meta Descriptions weg waren, was sich nicht auf das Ranking auswirkt, aber dann auf die Klickrate. Es kann also eine ganze Menge passieren.


Das mit der robots.txt ist natürlich so der Mega-Exodus, aber auch kleinere Sachen will man eigentlich unbedingt vermeiden. Und genau dafür gibt es eben spezielle Tools. Vor allem drei Stück. Ich habe euch die natürlich in die Show Notes reingepackt, die heißen Little Warden, URL Monitor oder Testomato. Es gibt natürlich noch mehr Monitoring Tools, die aber dann zum Teil nur ganz spezielle Aspekte monitoren, zum Beispiel die Uptime. Also ist die Website erreichbar oder nicht? Auch nicht ein komplett unwichtiger Faktor.

 

Brauche ich ein Website Monitoring Tool?

Aber das sind so die drei, ich sage mal, Brot-und-Butter-Tools, die eben meine Website, ja, laufend beobachten. Und ich halte das immer für grundsätzlich empfehlenswert. Das ist ein bisschen wie eine KFZ-Versicherung. Ich habe zum Beispiel noch nie in meiner Laufbahn einen Autounfall verschuldet. Eigentlich könnte ich also sagen: Ich brauche keine KFZ-Versicherung. Aber ja, wer weiß, was morgen passiert. Nur weil etwas sehr selten passiert, heißt es nicht, dass es nicht passieren kann.

Und wenn es dann eine sehr hohe Auswirkung hat, zum Beispiel auf den Google Index, dann sollte man sich darum kümmern. Wenn man solche Tools hat, dann kann man eben einzelne Seiten der Website einbuchen in das System und die werden dann beobachtet. Das muss man natürlich nicht für alle Seiten machen, weil die meisten Fehler sind systematischer Natur. Das heißt, wenn irgendwo auf einer Detailseite die Meta Description nicht mehr ausgespielt wird, dann wird das in der Regel auf allen nicht mehr gemacht, weil das Ganze eben Template basiert funktioniert, zumindest in der Regel. Das heißt, eine Seite eines Seitentyps ist kaputt, dann sind es in der Regel die anderen auch. Es kann natürlich auch sein, dass eben wirklich nur eine Seite kaputt ist. Das kann man natürlich dadurch aushebeln, indem man verschiedene Seiten eines Seitentyps hereinsteckt. Natürlich kann es immer sein, dass man diese eine dann verpasst. Aber nochmal: Die meisten Fehler – also eigentlich fast alles, was ich in den letzten Jahren gesehen habe, das war immer ein systematischer Fehler.

Und deswegen reicht es natürlich aus, sich seine Webseite anzugucken und zu schauen, welche Seitentypen habe ich? Also zum Beispiel Startseite, Kategorie, Produktdetailseite, Nachrichtenseite, Blogübersichtsseite, ja, was immer ihr so habt. Eine Filialseite vielleicht. Und da eben ganz genau eben immer drauf zu gucken, ob sich dort etwas verändert.

 

Kann man das nicht auch mit dem Screaming Frog SEO Spider machen?

Da muss man sagen, theoretisch ja. Ich kann den Screaming Frog nutzen und kann eben zum Beispiel täglich einen Crawl durchführen. Es gibt die sogenannte Scheduling, damit kann ich eben sagen: Mach das und das bitte einmal am Tag, einmal in der Woche, einmal im Monat. Und dann kann ich eben hingehen und zwei Crawls miteinander vergleichen, also zum Beispiel den von heute und den von letzter Woche und kann mir eben angucken, wo hat sich eigentlich was geändert?

Ja, man kann das machen. Es ist ein bisschen wie mit Kanonen auf Spatzen schießen, weil ich eben die ganze Webseite dafür crawle. Die Monitoring Tools, die gucken sich nur einzelne Seiten an, das aber viel, viel häufiger. Das heißt, wenn ich jetzt nur wöchentlich einen Crawl machen würde, dann kann es natürlich wirklich sein, dass ich sieben Tage lang eine Sache nicht gesehen habe. Ich kann aber auch nicht stündlich crawlen, das macht natürlich auch keinen Sinn. Also von daher würde ich persönlich sagen, ja, man kann das machen, aber wirklich praktikabel ist es nicht unbedingt.

Es gibt übrigens noch alternativ zum Beispiel die SEO Tools for Excel. Damit kann ich eben eine bestimmte Menge an Seiten in Excel monitoren. Damit kann man sich das theoretisch auch zusammenbasteln. Aber auch hier vielleicht die Einschränkung, ja, dann muss ich aber auch Excel einmal am Tag starten und das nochmal einmal komplett durchlaufen lassen. Halte ich eigentlich auch nicht so für wahnsinnig sinnvoll, sondern eigentlich sollte das eben im Hintergrund einfach passieren, alle zehn Minuten, damit ich zum Beispiel einfach möglichst frühzeitig weiß, wenn irgendwas kaputt oder anders ist als vorher.

 

Kann ich das denn nicht auch mit der Google Search Console machen?

Und da muss man sagen, natürlich kannst du das machen. Es gibt da ja die Reports wie Abdeckung oder Verbesserungen. Natürlich kannst du das machen, aber die Search Console ist eben auch immer zeitverzögert. Das heißt, ja, du kannst da vieles mit aufdecken. Überhaupt keine Frage. Aber es taucht eben erst verspätet auf. Das heißt, wenn zum Beispiel Inhalte per robots.txt gesperrt sind, dann würdest du das relativ gut im Report Abdeckung sehen können. Nur eben vielleicht erst eine Woche zu spät.

Und dann könnte es durchaus schon zu spät sein, wenn das passiert. Also gerade robots.txt und Noindex, also so die schlimmsten Monster eigentlich auf deiner Website, das würdest du in der Search Console sehen können, aber du würdest es eben zu spät sehen. Und deswegen würde ich natürlich immer auf eine Kombination drängen. Also nicht, dass man jetzt sagt, ich nutze nur noch diese Monitoring Tools und die Search Console gucke ich mir nicht an, nein, natürlich nicht. Ich bin sowieso für einen monatlichen Google Search Console Check. Aber nochmal, diese Tools, die laufen halt permanent durch und sind quasi so deine First Line of Defense, sind deine erste Verteidigungslinie, weil sie einfach viel schneller etwas entdecken können, als du das mit den anderen Tools hinbekommst. Und deswegen nochmal: Search Console mindestens monatlich checken. Gerne auch mit kürzeren Abständen.

Und auch das mit den regelmäßigen Crawls, natürlich kann man das machen. Natürlich kann man sich das auch angucken und man kann das alles automatisieren und ins Data Studio rüber wuchten. Sollte man auch jeweils machen, wenn man sich davon etwas verspricht, also wenn die Website so etwas braucht. Kann man alles machen. Aber wie gesagt, nochmal, diese Monitoring Tools – und ich verdiene da jetzt keinen Cent dran, das ist zwar ein kleiner Werbebeitrag für die, aber das gönn ich denen jetzt einfach mal – ich würde es nutzen, einfach nur als Versicherung, die du hoffentlich niemals brauchst. Aber um eben, wenn deine Website wirklich extrem wichtig ist, wenn du sehr viel Umsatz mit der Website machst, wenn sie für deinen Gesamtumsatz des Unternehmens wichtig ist, dann solltest du eben da auch einen Schutz draufsetzen gegen, ja, unbeabsichtigte Änderungen, sei es durch Menschen oder sei es durch Maschinen oder durch Software.

The following two tabs change content below.

Markus Hövener

Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster, Autor vieler Artikel und Studien rund um SEO und verantwortlich für das suchradar.

Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.

Kommentieren