Search Camp 30: Warum Du On-Page-Tools nutzen solltest – und was diese überhaupt nicht können

11. Juli 2017 | Von in Podcast "Search Camp", SEO

Es gibt immer mehr On-Page-Tools – kostenlose und kostenpflichtige, in der Cloud oder zum Installieren. Wer ein solches Tool nutzen möchte, muss wissen, was diese alles können – und an welchen Stellen sie Unternehmen nicht weiterhelfen. In diesem Podcast werden jeweils 10 Geht-Super- und Geht-Gar-Nicht-Aspekte vorgestellt, um zu verstehen, wie die Arbeitsteilung von Maschine und Mensch aussehen sollte.

> Alle Episoden von Search Camp als RSS-Feed
> Search Camp bei iTunes
> Alle Folgen: www.searchcamp.de

 

Shownotes:

Interessante On-Page-Tools:

 

Transcript:

Moin und herzlich willkommen zur Search Camp, dem Online-Marketing Podcast. Mein Name ist Markus Hövener und mein Thema ist heute „On-Page Tools, Vorteile und Grenzen“. Man muss zugeben, On-Page Tools ein wichtiges SEO-Thema. Immer mehr Unternehmen nutzen diese Tools und gleichzeitig kommen auch immer mehr Tools auf den Markt und da möchte ich einfach heute mal gucken, was können die eigentlich so? Und vor allem ganz wichtig: Was können die eigentlich nicht oder kaum? In ein paar Sekunden geht’s auch schon los. Bis gleich!

So. Jetzt kann’s losgehen. Mein Thema heute wie gesagt sind On-Page Tools und um das nochmal kurz ein bisschen einzugrenzen: Ich meine heute Tools, die die Website crawlen, also beginnend auf der Startseite und immer weiter allen Links nach unten folgen und die dann anhand der Seiten, die sie da gefunden haben, Empfehlungen aussprechen, was da eigentlich geändert werden müsste. Da gibt’s ganz unterschiedliche Tools. Ich habe mal eine kurze Liste zusammengestellt von dem, was so heute im Markt üblich ist. Die findet ihr in den Shownotes.

Auf Platz 1: OnPage.org. Das kennen wohl die meisten. Es gibt eine kostenlose Free-Version, mit der man bis zu 100 Unterseiten crawlen kann. Danach wird es kostenpflichtig.

Nummer 2: Der Screaming Frog SEO Spider. Ein Tool, das man installieren muss. Kostenlos bis 500 Unterseiten, danach wird es kostenpflichtig und ich glaube, es sind 99 Britische Pfund pro Jahr.

Und dann gibt’s noch mehrere verschiedene andere Tools wie Sistrix Smart, das ist kostenlos bis 1.000 Unterseiten. Oder auch das XOVI Onpage Tool oder den OnpageDoc. Und dann haben wir zum Beispiel noch Tools wie Seobility, auch hier kostenlos bis 1.000 Unterseiten. Und verschiedene Spezial-Tools, vor allem zu nennen Audisto und DeepCrawl. Das sind Tools, die vor allem für sehr, sehr große Websites geeignet sind. Und noch so andere Tools wie SEOlyze. Man könnte die Liste noch weiterführen. Wir haben uns letztens nochmal Spotibo und es gibt noch viel, viel mehr. Vorab muss man natürlich sagen, nicht jedes Tool ist für jede Website gleichermaßen geeignet. Ich hatte es eben schon gesagt, so Tools wie Audisto oder DeepCrawl richten sich eher an sehr große Websites. Das können die richtig gut. Wenn ich jetzt nur 500 Seiten habe, ist das natürlich vom Pricing her vielleicht für mich total uninteressant. Und die die Fehler, die die aufdecken können, die können bei mir in der Website gar nicht passieren. Man muss natürlich auch sagen, das, was ich vielleicht brauche, hängt auch von meiner Website ab. Also wer einen Shop von der Stange nimmt, bei dem werden viele Probleme vielleicht gar nicht erst auftreten können. Wer alles selber programmiert hat, hat eine höhere Chance ganz bestimmte Fehler zu haben. Auch da muss ich natürlich sehr kritisch gucken. Ich kann jetzt also insgesamt keine Empfehlung geben. Wenn jetzt einer sagt, welches On-Page Tool soll ich denn eigentlich benutzen, muss ich sagen, ich weiß es nicht. Guck dir halt die Liste mal durch, guck halt, ob du eine Riesen-Website hast oder eher eine kleine, und probiere halt gerne auch mal die Tools aus, die man kostenlos nutzen kann. Wie gesagt so bis 1.000 Unterseiten kommt man ja zum Teil und dann kann man zumindest schon mal kostenlos reingucken. Und nochmal auch ganz wichtig heute, ich weiß, muss man nicht unbedingt sagen, aber das sind On-Page Tools und die finden auch On-Page Fehler, aber es gibt natürlich, wenn ich keine externen Verlinkungen habe, mit der Website kann ich in der Regel on-page so viel rumtricksen oder verbessern wie möchte, es wird in der Regel nicht funktionieren. Also das auch nochmal als ganz klare Abgrenzung.

So ich habe mal zusammengetragen 10 Punkte, die On-Page Tools eigentlich gut können. Fangen wir an.

  1. Punkt 1: Das sind so Sachen wie doppelte Seitentitel, zu kurze Seitentitel, fehlende Seitentitel. Das Gleiche für Meta Descriptions, das Gleiche für die H1, für eine H2 und so weiter und so fort. Das heißt so typische Seitenelemente, für die es auch typischerweise ganz bestimmte Regeln gibt wie beim Seitentitel, dass der soundso viele Pixel, respektive Zeichen, nicht überschreiten darf. Dass die Meta Description eine bestimmte Länge nicht unter- und überschreiten darf. Das können diese Tools alle perfekt abprüfen und können mir dann halt eine Liste dieser Elemente liefern, so dass ich es dann korrigieren kann.
  2. Das Zweite, was die Tools gut können. Alles, was so im Bereich Kanonisierung, Duplicate Content liegt. Die können sich natürlich schon Seiten angucken und sagen, okay, hier sind 2 Seiten, 2 verschiedene URLs, der Inhalt ist exakt identisch, das sollte man zum Beispiel kanonisieren.
  3. Das Dritte, auch ein typischer Anwendungsfall, so wenn ich http und https mische. Ob es in URLs, in canonical Tags, in hreflang Tags, was auch immer, auch das können diese Tools natürlich hervorragend aufdecken.
  4. Punkt 4, habe ich lange mit mir gerungen, aber ich nenne das mal Content-Qualität und Content-Menge. Menge können sie natürlich relativ einfach messen, Content-Qualität ist immer ein bisschen schwierig. Die meisten Tools nutzen WDF*IDF und wer hier schon ein paar Mal zugehört hat, weiß, ich bin nicht unbedingt ein Freund davon. Von der Idee, von WDF*IDF, absolut. Davon wie die meisten Tools funktionieren, absolut nicht. Und deswegen muss man da immer relativ kritisch sein, wenn man versucht so Content bewerten zu lassen. Nicht einfach sklavisch auf diese Daten gucken, sondern immer auch das Ganze kritisch hinterfragen. WDF*IDF zumindest so, wie die meisten Tools es liefern, liefern mir für einen ganz bestimmten Suchbegriff auch nicht artverwandte Suchbegriffe und das ist natürlich dann wie gesagt immer mit Vorsicht zu genießen.
  5. Punkt Nummer 5: HTTP Fehlercodes. Mein Ziel wäre natürlich, wenn so ein Crawler über die Website rennt, dass nur 200er Codes gefunden werden, also alles okay, alle Seiten gefunden. Häufig findet man ein paar interne Weiterleitungen, manchmal findet man 404-Fehler, 410-Fehler, 503-Fehler, was auch immer. Da muss man eben dann gucken, was passiert das und wie kann ich das idealerweise beheben? Jetzt kann ich natürlich sagen, 404-Fehler, der interessiert mich eigentlich gar nicht, weil Google mich dafür nicht abstrafen wird oder abwerten wird, wenn ich den habe. Stimmt. Aber der Nutzer könnte ja auch auf so einen Link draufklicken. Das Ziel muss es wirklich sein, dass da überall 200er Codes stehen und nichts anderes.
  6. Punkt 6: Der Punkt Klicktiefe. Klicktiefe ist definiert als die Anzahl der Klicks, die man minimal von der Startseite zu einer bestimmten Seite braucht. Grundsätzlich sagt man, je höher die Klicktiefe ist, desto unwahrscheinlicher ist es, dass die Seite auch im Index landet. Eine absolute Hausnummer ist immer so, wenn die Klicktiefe zweistellig wird, kann man eigentlich schon sicher sein, dass die nicht mehr im Index drin ist. Wie gesagt Hausnummer, Milchmädchenrechnung, nagelt mich nicht drauf fest. Aber das kann natürlich passieren, wenn zum Beispiel eine Paginierung habe und jede Komponentenseite verlinkt immer nur auf die nächste, dann kann es natürlich sein, dass die 10. Komponentenseite gar nicht mehr in den Index reinkommt und folgerichtig die Seiten, die von da aus verlinkt werden, auch nicht mehr indexiert werden können. Deswegen muss man sich die Klicktiefe immer schön angucken, vor allem der Screaming Frog SEO Spider ist da immer eine hervorragende Hilfe bei der ganzen Sache.
  7. Punkt 7: Performance / Ladezeit. Da sind die Tools relativ unterschiedlich. Ich bin auch ein Freund davon, mir da eher die Daten aus Google Analytics herauszuziehen. Performance / Ladezeit ist natürlich nach wie vor wichtig, dass man eben guckt, wo gibt’s Probleme. Wie gesagt, kann man sich in Google Analytics angucken, aber in den Tools natürlich auch.
  8. Punkt 8: Alles, was mit URLs zu tun hat. Also überlange URLs, URLs mit Sonderzeichen drin, verschiedenste Get-Parameter, Dateinamen zu lang, Unterstriche verwendet, alles solche Sachen finden die Tools in der Regel ganz easy peasy.
  9. Punkt Nummer 9: Der Abgleich mit der XML-Sitemap. Also in der XML-Sitemap stehen ja alle meine Seiten drin, die mir wichtig sind und wenn ich jetzt so einen Crawler über die Website laufen lassen, dann sollte zumindest das eine in dem anderen enthalten sein. Also alles, was in der XML-Sitemap drin ist, müsste im Crawl enthalten sein. Und trotzdem gibt’s immer wieder Fälle, wo das eben nicht der Fall ist, wo man eben sieht: Es gibt eine Seite, die ist in der XML-Sitemap drin, aber nicht im Crawl drin. Dann muss ich dafür sorgen, dass sie intern verlinkt ist, und es kann natürlich auch passieren, dass eine Seite vielleicht gecrawlt wird und nicht in der Sitemap drin ist. Dann muss ich vielleicht dafür sorgen, dass sie in die XML-Sitemap reinkommt, wenn sie mir denn wichtig ist.
  10. Und Punkt Nummer 10. Was auch viele Tools mittlerweile bieten, ist die Nutzung der Suchanalyse-Daten aus der Google Search Console. Das ist für verschiedene Aspekte wichtig, zum Beispiel um konkurrierende Seiten zu finden. Ich habe vielleicht einen Suchbegriff und Google liefert zu unterschiedlichen Zeiten dafür unterschiedliche Seiten aus. Das heißt intern konkurrieren zwei Seiten für den gleichen Suchbegriff. Ist in der Regel unschön, sollte ich vermeiden, muss ich mir angucken. Solche Tools können das in der Regel ganz gut aufdecken. Aber auch Keyword-Chancen zu finden. Also wo gibt’s Suchanfragen, wo ich auf der 2. Seite bin, wo ich vielleicht mit einer Optimierung der Seite auf die 1. Seite rutschen kann. Und grundsätzlich, es ist nach wie vor so, die Google Search Console liefert nur Suchanalyse-Daten für die letzten 90 Tage. Wenn diese Tools aber anfangen eben immer 90 Tage zu speichern, dann helfen sie mir natürlich, dass je länger ich das Tool nutze, ich auch immer mehr Daten zur Verfügung habe, dass ich irgendwann mal wirklich ein ganzes Jahr habe oder zwei Jahre und auch auf historische Daten zugreifen kann.

Was On-Page Tools nicht können? Das waren jetzt wie gesagt 10 Punkte, die sie können, aber sie können eben nicht alles gut. Was können Sie denn nicht?

  1. Punkt 1: Die sinnhafte Nutzung von Suchbegriffen. Sie helfen einem natürlich schon ein klein bisschen, indem sie eben sich mit der Suchanalyse verbinden und mir zum Beispiel Seiten liefern können, die überhaupt keine Suchimpressionen oder Suchklicks bekommen. Trotzdem kann ein Fall passieren, wo ich einfach nur etwas falsch benannt habe. Also alle da draußen suchen vielleicht ein Seminar zum Team Building und bei mir heißt es auf der Website aber Fortbildungsveranstaltung zu Verbesserung der Gruppendynamik, zum Beispiel. In der Regel können die Tools mir da aber nicht helfen. Manchmal hilft eben die Suchanalyse weiter, aber eben auch wirklich nur manchmal. Die Suchanalyse ist ja auch eine gewisse Anzahl an Suchbegriffen beschränkt und gerade, wenn ich eine große Website habe, dann hilft mir das alles nichts. Also ist eine Seite gut optimiert, könnte ich vielleicht einen anderen Suchbegriff verwenden auf einer Seite? Das können die Tools mir in der Regel nicht sagen. Oder kann ich Inhalte konsolidieren? Gibt es vielleicht 2 kurze Seiten, aus denen ich eine große machen kann? Sind die Tools nicht wirklich gut drin.
  2. Punkt 2: Nicht abgedeckte Suchbegriffe. Auch das, das grenzt so ein bisschen an das erste an, aber habe ich vielleicht Suchbegriffe, die für mich relevant wären, über die ich noch nie etwas geschrieben habe? Können die Tools in der Regel unglaublich schlecht machen, weil sie einfach mein Keyword-Universum natürlich gar nicht kennen können. Dafür müsste ich sehr viel Keyword-Recherche betreiben. Das machen die Tools in der Regel nicht.
  3. Punkt 3: Sichtbarkeit von Inhalten. Da geht’s um 2 Aspekte. Einmal, welcher Anteil von Inhalten ist eigentlich im direkt sichtbaren Bereich angesiedelt? Also ich habe noch nicht auf der Seite gescrollt. Und welche Inhalte sind eigentlich nicht hinter Tabs, hinter Click-To-Expand oder sonst was Inhalten versteckt, also wo ich irgendwo draufklicken muss oder wo erst Zeit vergehen muss, damit der Inhalt sichtbar ist. Können die Tools in der Regel auch nicht so super.
  4. Das Vierte: Optimierung von Nicht-HTML-Inhalten. Habe ich in ganz wenigen Tools überhaupt irgendwie Ansätze zu gesehen. Das heißt, wenn ich zum Beispiel viele PDF-Dateien habe, muss ich damit idealerweise irgendwie umgehen, weil es ist in der Regel eine fürchterliche Nutzererfahrung, wenn ein Mensch aus einem Suchergebnis auf ein Nicht-HTML-Inhalt kommt, also zum Beispiel auf eine PDF-Datei. Aber die Tools weisen mich in der Regel nicht so sonderlich effizient drauf hin.
  5. Punkt 5. Probleme in Bezug auf Internationalisierung. Eins meiner Lieblingsthemen, gebe ich zu. Hreflang Tag, ja das können ein paar Tools prüfen, vor allem der Screaming Frog hat da sehr gut nachgelegt. Also ganz großes Kino. Aber so Sachen wie: Ist meine Domain-Strategie richtig, meine interne Verlinkung für die Internationalisierung? Habe ich überhaupt meine Inhalte korrekt an die Landessprache angepasst? Das ist natürlich ein Riesenthema. Können die Tools auch nicht wirklich gut.
  6. Punkt 6: Rendering-Probleme. Mittlerweile ist es ja so, dass Google eine Seite rendert, also nicht nur die HTML-Seite runterlädt, sondern auch CSS, JavaScript und so weiter und so fort. Wenn das aber geblockt ist für Suchmaschinen, dann können die meisten Tools das nicht gut erkennen. Der Screaming Frog hat auch da zum Beispiel noch ein bisschen nachgelegt, sodass ich mir zu einer Seite wirklich anzeigen lassen kann, wie sie gerendert würde. Schlussendlich muss man sagen, ich würde dem nie vertrauen. Also es ist ein gutes Indiz, aber ich würde immer nochmal in die Google Search Console reingehen und das „Abrufen wie durch Google-Bot“ machen. Aber auch Fragen wie: Ich lade Sachen per Ajax nach, kommt Google damit klar? Ich mache irgendwelche JavaScript-Tricksereien, kommt Google damit zurecht? Das ist für die Tools relativ schwierig, weil sie eben einfach nicht Google sind.
  7. Punkt 7: Etwas schwer zu überschreiben. Alle Punkte, wo Google ungleich wie der On-Page Crawler behandelt wird. Also das On-Page Tool crawlt ja die Website und Google macht das auch. Aber manchmal passieren halt so Sachen wie zum Beispiel bei dem Geo-Targeting auf IP-Adresse, wo zum Beispiel ein Besucher auf die für ihn passende Seite umgeleitet wird. Und wenn ein On-Page Crawler in Deutschland sitzt, aber Google aus den USA crawlt, dann kommt da einfach ein anders Ergebnis heraus. Und auch da würde ich sagen „Abruf wie durch Google“ ist immer die hilfreichste Funktion. Da komme ich eigentlich nicht wirklich dran vorbei.
  8. Punkt 8: Fehlendes Markup. Ja, Markup ist wichtig, also Schema.org und solche Sachen. Manche Tools weisen darauf hin, wenn ein Markup fehlerhaft ist. Aber wenn es komplett fehlt, habe ich natürlich überhaupt ein Problem. Also ich habe noch kein Tool getroffen, was mir sagt: Hey, du hast ja hier Produkte auf der Seite, aber du hast gar keinen Product Markup drauf. Das heißt auch da muss natürlich der Mensch hinterher sein und dann eben sagen, okay, da muss jetzt das und das Markup drauf oder Breadcrumb-Markup oder für die Sitelinks, Searchbox oder oder oder.
  9. Punkt 9: Überhaupt so der Umgang mit User Generated Content. Lasse ich zum Beispiel Bewertungen von Produkten generieren, da weist mich das Tool natürlich auch nicht drauf hin.
  10. Und Punkt 10: Interne Verlinkungen. Das machen natürlich einige Tools. Die versuchen dann so diesen Pagerank-Fluss nachzubauen. Ich finde das erstmal grundsätzlich hilfreich, aber es ist natürlich grenzwertig, weil man natürlich auch nie weiß, wie Google das ganz genau macht. Es orientieren sich halt viele an dieser alten Pagerank-Formel, das ist ja auch gut. Aber trotzdem, auch hier weiß man eigentlich nicht wirklich wie Google das Ganze berechnet. Aber vor allem, was die Tools halt nicht prüfen können: Ist das eigentlich alles sinnig? Also zum Beispiel verlinkt meine Kategorie-Seite der 1. Ebene auf meine Top Seller Produkte? Das kann das Tool nicht prüfen, weil es gar nicht weiß, was meine Top Seller Produkte sind. Es kann mir Hinweise dafür liefern, aber im Großen und Ganze, bei der internen Verlinkung muss ich sagen, vertraue ich da einfach eher dem menschlichen Auge und vor allem erstmal beim Kunden respektive bei sich selbst zurückfragen: Was ist für mich eigentlich wirklich wichtig? Also Optimierung der internen Verlinkung heißt ja, die wichtigen Seiten, die verlinke ich stark und die unwichtigen Seiten eher schwach. Und das können die Tools natürlich auch relativ schlecht abbilden.

Also das waren 10 Sachen, die sie schlecht können. Ich versuche mal zusammenzufassen, was ich denke, was heute jemand mit nach Hause nehmen muss, in ganz wenigen Punkten.

  1. Punkt 1: Ganz klar, man braucht ein On-Page Tool, mindestens für die Erstanalyse der Website, gerne auch laufend. Das ist einfach wichtig. Das findet Fehler allein bei ganz großen Websites angesichts der Vielzahl an Seiten und Elementen Fehler, die ich selber gar nicht mehr finden kann, wenn ich einfach nur mich durch die Website durchklicke oder mir beispielhaft irgendwelche Seiten heraussuche. Also ich brauche eins.
  2. Punkt 2: On-Page Tools sind unglaublich wichtig, gerade für so viele technische und inhaltliche Hygienefaktoren. Also haben wir schon gesagt, zu lange Seitentitel, zu lange Meta Descriptions, zu kurz, fehlend und so weiter. Je nach Website, CMS, Shopsystem, Branche, was auch immer, muss mir klar sein, dass das mehr oder weniger Potentiale liefern kann.
  3. Punkt 3: Diese Tools zeigen oft Probleme auf, können aber bei der Lösung nicht helfen. Das muss einem auch klar sein. Also auch da hatte ich schon Kunden, die ich sage mal jetzt nicht so SEO-erfahren waren und die halt viele Empfehlungen bekommen haben, aber gar nicht wussten, was sie jetzt tun sollten. Angenommen ich stelle fest, die Klicktiefe einiger Seiten ist zu hoch, dann muss ich trotzdem noch eine Idee haben, was ich eigentlich dagegen machen kann? Und gerade OnPage.org finde ich da super, weil die immer mehr Hintergrundinformationen liefern. Ganz großes Kino. Großes Lob an der Stelle. Aber trotzdem muss man immer noch sagen, SEO-Wissen und SEO-Erfahrung sind einfach durch nichts zu ersetzen.
  4. Punkt 4: Auch das muss einem klar sein, die Tools können nicht alle Problemfelder aufdecken. Das haben wir ja eben gesehen. Ich habe nur 10 genannt, ich glaube, es gibt noch viel mehr. Vor allem so Kleinkram-Probleme. On-Page Tools zu nutzen ist nur ein Teil einer Optimierung. Selbst, wenn das Tool 0 Fehler liefert, heißt das nicht, dass meine Website vollständig und korrekt optimiert ist. Weil ich eben zum Beispiel Markup oder so habe ich vielleicht gar nicht drin. Das Tool bemängelt es nicht, aber es wäre besser, wenn ich es drin hätte.
  5. Punkt 5: Auch das muss einem klar sein, diese Tools können keine Strategie auswürfeln. Strategie hat immer mit Zielen zu tun, hat was mit dem Unternehmen zu tun, mit den Ressourcen, die ich habe, mit meiner Marktstellung, mit der Preisstellung. Und das alles kennt das Tool gar nicht oder kann es zum Teil gar nicht messen. Und deswegen Strategie muss immer von mir kommen.
  6. Punkt 6: Viele Fehler, die die Tools liefern, sind systematischer Natur. Zum Beispiel A verlinkt immer fehlerhaft auf Seite B. Das generiert irgendwie 10.000 Fehler in dem Tool und das muss ich sagen, diese Tools konsolidieren diese Fehler oft hinreichend schlecht, wenn sie es denn überhaupt versuchen. Deswegen Punkt 1, erstmal nicht erschrecken. Ich hatte letztens wieder so einen Anruf, wo jemand sagte: Oh, meine vorherige Agentur, die hat vollkommenen Mist gemacht hier in diesem Report. 25.000 Fehler. Ja, es waren 25.000 Fehler, aber es waren auch 25.000 Mal der gleiche Fehler. Also das ist jetzt nicht wirklich schlimm. Guckt euch das Ganze an, sucht nach Mustern, behebt diese Muster und crawlt dann nochmal, einfach auch, um die Übersichtlichkeit zu behalten.
  7. Punkt 7: Das muss einem auch klar sein. Viele Fehler oder Empfehlungen oder wie auch immer es gerade in einem Tool heißt, sind nicht relevant. Du kannst 100.000 zu lange Meta Descriptions haben, überhaupt keine Frage, und die Verkürzung derer würde zu keiner Ranking-Verbesserung führen. Es ist natürlich unschön, wenn sie zu lang sind, weil Google sie einfach kürzt, aber es kann sehr gut sein, dass es das Ranking nicht 1 Millimeter verbessert. Also immer kritisch bleiben, nicht einfach nur gucken, oh, ich habe da einen Fehler und so viele davon, da muss ich jetzt sofort handeln, sondern das Ganze erstmal bewerten, quasi wenn ich das behebe, welchen Benefit habe ich davon und wie viel Zeit oder Geld muss ich da reinstecken? Und dann eben das Ganze auch priorisieren. Was ist wirklich jetzt am Schlimmsten, was muss ich schnell beheben? Was bricht mir vielleicht auch das Genick? In Notaufnahmen da gibt es auch eine klare Rangordnung von Sachen, die zu tun sind, weil natürlich, wenn jemand reinkommt, der nicht mehr atmet, da ist relativ egal, ob der jetzt noch einen Schraubenzieher im Bein stecken hat, wir müssen erstmal die Atmung wieder zum Laufen bringen. Und auch hier ist es eben wichtig, gucken, was muss jetzt eigentlich dringend gemacht werden und was ist Nice to Have.
  8. Und der letzte Punkt Nummer 8: Wie so oft, auch da merke ich, es gibt immer einen absoluten Wahnsinn im Markt. Lieber ein Tool richtig beherrschen als fünf so lala nutzen. Welches Tool ihr nutzen wollt, hängt stark von euren Anforderungen hab, von eurer Website, von der Branche, auch natürlich von euern Vorlieben. Also wollt ihr es in der Cloud haben, wollt ihr lieber was installiert haben? Seid ihr eher so auf der Techie-Seite unterwegs oder wollt ihr es alles schön Klickibunti haben. Das müsst ihr euch entscheiden. Ich habe ja anfangs gesagt, es gibt viele Free-Versionen, wo man sich erstmal Tools angucken kann, wo man erstmal schauen kann, ja passt das zu mir? Es gibt viele, die sagen: Wow, OnpPage.org finde ich total geil, aber es gibt natürlich auch ein paar Leute aus der Szene, die dann sagen, für mich ist das nichts, das ist einfach irgendwie noch ein bisschen zu Non-Techie das Ganze. Also guckt es euch einfach an. Es muss halt zu euch passen, zu dem, was ihr vorhabt und vor allem, was ihr halt auch an Website habt. Und holt euch dann lieber ein Tool, OnPage hat zum Beispiel diese hervorragenden Zertifizierungen, also fahrt dahin einen Tag, hört euch das an, Deep Dive in das Tool rein, jeden Report einmal durchklicken, fragen, was kann ich damit machen? Was kann es mir bringen, wenn ich mich da und damit beschäftige? Und nicht irgendwie 17 Tools nutzen und am Ende irgendwie gar nichts können. Das bringt in der Regel nichts.

So. Das war’s für heute. Das war’s von mir zum Thema On-Page Tools. Ich hoffe ich konnte euch ein bisschen Input geben, vielleicht auch eine kleine Kaufentscheidung. Mal gucken, weil die meisten haben ja schon eins. Aber trotzdem wie gesagt, es gibt da viele spannende Tools am Markt, guckt euch das alles mal an. Und vor allem immer kritisch bleiben und nicht aufregen, ich hab’s wirklich so oft, dass irgendwelche unerfahrenen Unternehmen anrufen und sagen: Hier, alles falsch, alles schlimm und wir können die Website am besten morgen direkt zumachen. Nein, ist nicht so. Nur, weil da 100.000 Fehler angezeigt werden, heißt das nicht, dass man diese 100.000 Fehler jetzt alle manuelle beheben muss und es nur dann nach oben geht. Also kritisch bleiben, bewerten, priorisieren, dann kann’s losgehen. Vielen Dank für heute fürs Zuhören. Genießt weiterhin den Sommer und schaltet gerne mal nächstes Mal wieder ein. Ich freue mich auf euer Feedback und bis bald! Tschüss!

 

The following two tabs change content below.
Avatar-Foto

Markus Hövener

Markus Hövener ist Gründer und SEO Advocate der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor, Podcaster und Autor vieler Artikel und Studien rund um SEO.

Markus hat vier Kinder, spielt in seiner Freizeit gerne Klavier (vor allem Jazz) und genießt das Leben.

Kommentieren