Der 5-Schritte-Plan: Wo soll ich mit SEO bloß anfangen? [Search Camp Episode 64]

8. Januar 2019 | Von in Search Camp, SEO

Wo fängt man bei der Optimierung einer großen Website nur an? 20 000 Seiten, 50 000 Seiten, 100 000 Seiten – da ist es manchmal schwierig, einen priorisierten Plan zu entwickeln, um schnellstmöglich und mit möglichst wenig Aufwand mehr Conversions über den SEO-Kanal zu erzielen. Mit fünf Schritten schafft man es zum Glück schnell, den Wald vor lauter Bäumen zu sehen und durchzustarten.


> Alle Episoden von Search Camp als RSS-Feed
> Search Camp bei iTunes
> Alle Folgen: www.searchcamp.de
> Auf Twitter folgen: @bloonatic (Markus Hövener) oder @searchcamppod (Search Camp only!)
> Einsteigertipps: So “empfangen” Sie Search Camp!

 

Shownotes:

 

Transcript:

Ja moin und herzlich willkommen zu Search Camp, dem Online-Marketing Podcast, Markus Hövener hier. 1. Folge in 2019, ich freue mich drauf. Ich habe heute ein sehr konkretes Thema, nämlich 20 Seiten, äh 20.000 Seiten vielmehr, wo fängt man eigentlich mit der Optimierung an? Ich sag gleich, wo die Frage herkommt. Ich sage gleich, in welchen 5 Schritten man sich dem Ganzen nähern kann, wenn man den Wald vor lauter Bäumen nicht mehr sieht, aber erst gibt es noch Pling pling.

Ja und da seid ihr immer noch, danke fürs Dranbleiben und auch Danke fürs Treubleiben. Das ist die 1. Folge 2019. Schön, dass ihr weiter bei Search Camp dabei seid. Ich habe viel vor in diesem Jahr. Ich habe alle Veröffentlichungstermine schon mal durchgeplant für 2019. Es wird wieder viele Folgen geben. Es wird auch ein großes Special geben in diesem Jahr. Überhaupt möchte ich noch ein paar Sachen ändern, aber das merkt ihr dann glaube ich, wenn es einfach so weit ist.

Heute habe ich mir ein Thema rausgesucht, und zwar mit dem, ja, wo kommt es eigentlich her, vielleicht fange ich damit an. Aus allen Seminaren, Workshops und Webinaren merke ich mir Fragen, schreibe mir die auf oder respektive bei Webinaren hat die dann schon jemand eingetippt, das kommt alles in eine relativ große Datenbank herein und da gibt es dann eine lange Trello-Liste für, wo gute Fragen drinstehen, aus denen man mal was machen könnte, zum Beispiel einen Blogbeitrag oder wie in diesem Fall einen Podcast. Eine Frage, die war irgendwie schon ganz besonders getaggt, weil ich sie schon lange mal beantworten wollte. Die hatte damals jemand einfach nur blank reingetippt und die hieß: 20.000 Seiten, wo fängt man mit der Optimierung an? Mehr Information habe ich jetzt ehrlich gesagt auch nicht, aber ich finde es ist ein typisches Problem, weil viele zwar in Bezug auf SEO vielleicht das Fachwissen haben, was so Tags angeht, die wissen, Seitentitel so und so lang, Meta Description aha, Markup ja, auch so, aber jetzt habe ich hier eine Website und soll die optimieren und wie gehe ich da jetzt eigentlich ran? Das geht so ein bisschen in die Richtung SEO-Strategie und deswegen möchte ich diese Frage mal beantworten. Ich habe mir insgesamt 5 Schritte überlegt, wie ein erfahrener SEO so wie ich jetzt typischerweise vielleicht herangehen würde an das Projekt.

 

Schritt 1: Atmet der Patient?

Es könnte ja passieren, ich komme mal in eine Notaufnahme, ich atme nicht mehr und ich habe, weiß nicht, ein Messer im Bein stecken. Blödes Beispiel vielleicht. Dann wird der Arzt sich relativ unwahrscheinlich um das Messer kümmern, sondern er guckt erstmal, was ist eigentlich gerade am schlimmsten, was tötet mich am effektivsten? Das ist natürlich die Tatsache, dass ich keinen Kreislauf mehr habe, also wird er erst den Kreislauf stabilisieren, respektive wiederherstellen, und dann gucken, dass er sich vielleicht mal in zweiter Instanz um das Messer kümmert. So würde ich bei SEO eigentlich auch erstmal vorgehen, erstmal gucken, ist da Leben drin in der Website oder nicht?

Zum Beispiel, Punkt 1, ich würde die Website immer erstmal crawlen, ich würde gucken, sind relevante Teile oder ist vielleicht die gesamte Website für Suchmaschinen gesperrt? Klingt total dämlich, habe ich jetzt allerdings gerade unlängst noch mal erlebt, dass jemand das geschafft hat und deswegen diese Möglichkeit lasse ich oft gedanklich gar nicht mehr zu, aber trotzdem kann es natürlich passieren. Also ich würde erstmal crawlen, immer den Screaming Frog drüber schicken, ein Sitebulb, ein RYTE, was auch immer ihr draußen nutzt, und würde die Einstellung vorher so wählen, dass so wie beim Screaming Frog halt auch wie so ein Respect canonical, Respect noindex, dass der Crawler sich genauso wie eine Suchmaschine verhält. Und wenn der mir jetzt sagt, auf der Website ist nichts drauf, dann wäre das für mich schon mal ein klares Indiz dafür, dass es der Website nicht gutgeht.

Das Zweite, was ich prüfen würde, ist natürlich erstmal zu gucken, ist die Website mobiltauglich, kann sie gerendert werden? Und dafür würde ich in der Google Search Console die Funktion “Abruf wie durch Google” nutzen, einfach gucken, werden die Seiten korrekt dargestellt und natürlich wie gesagt sind sie mobiltauglich, also funktionieren sie auch auf einem Mobilgerät.

Wo ich schon in der Google Search Console bin, würde ich noch Nummer 3 prüfen, nämlich gucken, ob da diverse Nachrichten vorliegen. Gerade, wenn eine Website abgestraft wurde, wäre es ganz gut das zu wissen. Passiert relativ selten, liegt vielleicht an den netten Kunden, die wir so haben, aber natürlich, ja, es kann passieren. Und auch das hatten wir natürlich schon, dass jemand mit diversen Altlasten bei uns vorbeikam, deswegen immer erstmal gucken.

Punkt 4: Ich würde mir natürlich den Verlauf vom Sichtbarkeitsindex angucken, mit Sistrix, Searchmetrics, XOVI, Semrush, was auch immer ihr da draußen nutzen wollt. Geht es vielleicht seit Monaten, seit Jahren nur nach unten? Gab es vielleicht mal einen Relaunch, der alles kaputtgemacht hat? Alles das sieht man eigentlich ganz gut. Ich bin beim Thema Sichtbarkeitsindex immer ein bisschen kritisch, aber gerade für so einen Zweck ist es ja erstmal ganz gut, um zu sehen, wie sieht es überhaupt aus, wie ist der Verlauf? Geht’s mit dem Patienten seit Jahren bergab oder hat er gerade einen Höhenflug? All das kann ich da eigentlich relativ gut erkennen.

Ich würde überhaupt noch mal gucken, ist diese Website überhaupt im Index? Also einfach im Google site: ohne Leerzeichen und dann die Domain eingeben, gucken, was taucht da so auf. Ist in der Regel kein Problem, gerade wenn ich das Crawling vorher schon geprüft habe und so, sollte da eigentlich nichts mehr passieren und trotzdem würde ich es mir angucken.

Und Numero 6: Ich würde natürlich auch, wo ich schon immer noch in der Google Search Console bin, würde ich natürlich gucken, sind XML-Sitemaps hinterlegt, was hoffentlich immer der Fall sein sollte, und wenn, dann würde ich natürlich auch nochmal gucken wie so die Abdeckung ist. In der alten Google Search Console konnte man das sehr übersichtlich sehen, in der neuen eigentlich noch besser, weil man da eben auch sieht, warum sind manche Seiten, die in der XML-Sitemap vorkommen, nicht im Index? Also auch da erstmal überhaupt einen Überblick verschaffen, wie sieht’s aus.

Und Nummer 7: Ich würde in die Suchanalyse gehen, also immer noch Google Search Console, würde überhaupt erstmal gucken, gibt’s eigentlich relevante generische Suchanfragen, für die die Website überhaupt gefunden wird? Ich würde typischerweise den Brand ausfiltern, weil für den Brand wird man eigentlich immer gut gefunden und der bläst die ganzen Klick- und Impressionszahlen in der Regel nur unnötig auf. Also einfach kurz aufschließen und dann gucken, tauchen da hinreichend viele generische Suchanfragen auf? Das wäre für mich erstmal ein gutes Zeichen, wenn das der Fall ist. Also das war Schritt 1, erstmal gucken, so ein bisschen Blutdruck nehmen, bisschen die Lunge abhorchen, gucken, wo stehen wir da eigentlich so. Natürlich muss man diese Daten mit ein bisschen Erfahrung interpretieren können, aber trotzdem für den Fall, dass jetzt eine Website zum Beispiel komplett für Suchmaschinen gesperrt wäre, hätte man es eigentlich schon relativ schnell entdeckt.

 

Schritt 2: Crawling und Indexierung

Denn ich meine, wir kommen später bei weiteren Schritten noch zum Thema Inhalte, Inhalte sind wichtig, überhaupt keine Frage, sind wahrscheinlich auch das Wichtigste, trotzdem, wenn ich Crawling- und Indexierungsprobleme habe, hilft mir das Ganze auch nichts mehr. Also was würde ich nachgucken? Ich habe ja sowieso einen Crawl gemacht.

Das eine, was ich prüfen würde, ist, habe ich viele irrelevante Seiten im Index? Ein sogenannter Index Bloat. Das könnten sein, dass von jeder Seite Printversionen im Index sind oder ich Millionen von Filterseiten für Suchmaschinen geöffnet habe, tausende PDF-Datenblätter, irgendwas, was da überhaupt nicht reingehört. Sollte man sich auf jeden Fall anschauen, hat oft keine direkte Implikation, gleichwohl nochmal, wenn meine Website vielleicht 100 wichtige Seiten hat und 1 Millionen Seiten sind im Index, dann wäre das so ein klassischer Fall, den ich mir erstmal angucken würde, um da erstmal aufzuräumen. Ich glaube, da sind sich die SEOs auch einig, dass je weniger unsinnige Sachen du im Index drin hast, umso besser ist es für deine sinnvollen Inhalte.

Ich würde prüfen, Canonical Tags, haben wir die? Ich finde sie immer wichtig, auch einfach nur als Sicherheitsnetz. Manche fragen sich, ob ich auch, wenn das Canonical Tag auf sich selber zeigt, die sogenannte Selbstreferenz, ob ich es trotzdem haben sollte? Ich würde es immer haben wollen und ich würde natürlich auch gucken, ob alles korrekt kanonisiert wird, auch das hatte ich in der Vergangenheit schon relativ oft, dass Canonical Tags falsch waren. Und ein Fall mal, auch in einem Seminar, wo einer alles auf die Startseite kanonisiert hat. Ja, das sind natürlich so Sachen, naja, sollte man dran arbeiten.

Punkt 3: Ich würde mir XML-Sitemaps noch mal angucken. Ich hatte ja schon gehofft, dass es die, also in dem Schritt 1 habe ich sie mal erwähnt, falls es sie nicht gibt, wir brauchen sie auf jeden Fall. Ich finde sie wichtig für die Auswertung, vor allem in der Google Search Console, vor allem in den neuen Google Search Console. Es ist aber nicht nur wichtig welche zu haben, sondern auch da sicherzustellen, dass da nur die richtigen Seiten drin sind, also solche Seiten, die einen HTTP Code 200 liefern. Die URLs müssen dem Canonical Tag entsprechen, die URLs sollten nicht bei robots.txt gesperrt sein und solche Sachen. Wenn ich das nämlich habe, kann ich einen sehr schönen Diagnoseschritt wagen, und zwar zum Beispiel mit dem Screaming Frog. Da kann ich nämlich einen Crawl starten der ganzen Website und kann gleichzeitig meine XML-Sitemaps hinterlegen. Und dann kann mir das Tool sagen, wenn die Website komplett gecrawlt wurde, ob ich vielleicht Seiten in meiner XML-Sitemap genannt habe, die innerhalb der Website gar nicht verlinkt sind. Denn vielleicht habe ich ein Verlinkungsproblem. Da sollte 0 bei rauskommen. Wenn was dabei rauskommt, muss ich fixen, in der Regel über interne Verlinkung. Das passiert zum Beispiel gerne so bei redaktionellen Umgebungen. Das heißt, wenn ich zum Beispiel hunderttausende Artikel habe, ich bin ein altes Fachmagazin, aber ich habe vergessen diese Artikel zu verlinken, ich komme da zwar dran, aber nur über ein Formular und Google füllt keine Formulare aus und findet diese Artikel dann nicht. Solche Fehler kann ich mit diesem Schritt finden und dann muss ich eben auch wieder den nötigen Weg beschreiten und dafür sorgen, dass eben alle Seiten intern verlinken sind.

Ich würde mal vor allem Schritt 4 auch nochmal das Thema Paginierung angucken, ist häufig ein Problem. In unserem Blog und auch in den Shownotes verlinkt habe ich einen Beitrag von mir, weil ich sehe, dass es oft falsch gemacht wird. Es ist wichtig für die Indexierung aller Seiten und das heißt, ich würde auf jeden Fall sicherstellen, dass die Paginierung nach den neuesten Richtlinien auch wirklich korrekt umgesetzt wird, also dass Komponenten-Seiten zum Beispiel nicht auf noindex stehen, weil das eben schädlich sein kann für die Indexierung der ganzen Website. Wenn euch das Thema interessiert, verweise ich euch einfach auf meinen Blogpost, wie gesagt in den Shownotes könnt ihr das Ding nachlesen.

Punkt 5, das würde ich mir auch angucken, Klicktiefe. Kann man hervorragend mit zum Beispiel dem Screaming Frog machen. Seiten, die zu tief liegen, also gerade ich sag mal zweistellig tief, aber auch bei 7, 8 würde ich schon echt drüber nachdenken, da kann es sehr gut passieren, dass Google die nicht mehr indexiert. Also auch hier würde ich erstmal gucken, habe ich damit ein Problem und das Problem auf jeden Fall beheben.

Und Thema Numero 6, was ich mir auch angucken würde, ist das Thema Lebenszyklus von Seiten, weil ich da schon relativ oft Probleme gesehen habe, gerade bei komplexen Shopsystemen. Ist die Frage zum Beispiel, was wird, wenn ein Produkt umbenannt wird? Was passiert, wenn ein Produkt gelöscht wird? Was ist, wenn ein Produkt gerade nicht lieferbar ist? Was passiert dann jeweils? Und die wichtige Richtlinie ist halt, eine Seite sollte möglichst lange im Index vertreten sein unter einer URL und wenn die URL sich ändert, sollte eben mindestens eine 301-Umleitung hergestellt werden. Auch das würde ich eben einmal alles überprüfen. Das sind so die typischen Fehler, die ich immer wieder gerne sehe. Das war jetzt technisches Gedöns. Ich würde jetzt übergehen zu was Logischem:

 

Schritt 3: Segmentieren

Die Frage war ja, jemand hat 20.000 Seiten, aber in der Regel hat jemand nicht 20.000 völlig verschiedene Seiten, sondern es gibt immer irgendwelche Seitentypen, und meistens sind das so 3 bis 5. Also jede Website hat eine Startseite. In der Regel gibt es Detailseiten für ein Ereignis, für einen Produkt oder für eine News, und wenn es die gibt, gibt es in der Regel auch Übersichtsseiten und die auf mehrere dieser Detailseiten verlinken. Es gibt auch oft Content-Seiten, sowas wie einen Blog oder ein Magazin. Und das muss ich mir eben einmal segmentieren, muss herausfinden, was habe ich so für Typen? Gerade, wenn ich mehrere Sprachen habe oder mehrere Länder abdecke, kann das natürlich ein bisschen komplexer werden, aber grundsätzlich ist die Idee eben, nicht 20.000 Seiten sich anzugucken, sondern das ganze auf Seitentypen herunterzubrechen, um halt wirklich einen Überblick zu bekommen. Und man muss auch sagen, auch ein Grund, warum ich das mache, die meisten Fehler sind systematischer Natur. Das heißt, wenn ich mir 3 Produktdetail-Seiten angucke, habe ich in der Regel auch dort die Fehler, die auf 30.000 Produktdetail-Seiten vorkommen. Das stimmt natürlich nicht immer und unbedingt, aber im Großen und Ganzen die meisten Fehler, die auftreten, sind systematischer Natur.

Schritt 4: Konkrete Seiten aus diesem Segment prüfen

Die kann ich zufällig auswählen oder ich gehe einfach in die Google Search Console und hole mir die stärksten oder die schwächsten Seiten aus dem Segment, wie auch immer, auf jeden Fall muss ich irgendwelche konkreten Seiten haben, die in das Segment reinpassen. Wenn ich einen Shop habe, zum Beispiel, wenn ich mir Kategorie-Seiten angucken würde, würde ich mir immer eine Kategorie-Seite 1., 2., 3. Ordnung angucken und vielleicht aus verschiedenen Bereichen. Da muss man eben immer gucken, wie die Website so aussieht, aber wie gesagt, die meisten Fehler sind eigentlich relativ konsequent systematisch umgesetzt. So, was prüfe ich jetzt bei diesen Seiten? Eigentlich so klassische Sachen, erstmal Seitentitel und Meta-Description sind wichtig, weil sie beide definieren, wie eine Seite in den Suchergebnissen repräsentiert wird, sie sind also dafür verantwortlich, ob der Klick überhaupt erst mal passiert oder mitverantwortlich, sagen wir es mal so. Denn das Ranking ist das eine, aber es muss eben auch noch einer draufklicken und wenn da kein Verkaufsargument steht und ich nur Langeweile-Krempel reingeschrieben habe, dann funktioniert die ganze Nummer nicht. Ich würde mir sowas angucken wie Hx, also H1, habe ich genau eine Hauptüberschrift, habe ich Zwischenüberschriften, also insgesamt diese H1 bis H6 anschauen, was habe ich da eigentlich? Habe ich vor allem eine H1, die wirklich auch den Nutzer anspricht? Also nicht nur einfach Herrenhosen als H1, langweilig, sondern irgendwas, was klarmacht, hallo, du bist richtig hier. Zum Beispiel Herrenhosen aller relevanten Marken oder fällt mir gerade nichts Kreatives ein. Aber auf jeden Fall die H1 ist das, was der Nutzer in der Regel als Erstes wahrnimmt und ja, das muss halt nicht nur das Keyword enthalten, sondern sollte den Nutzer idealerweise auch noch mal in die Website reinziehen, respektive dafür sorgen, dass er auch dableibt.

Das Thema Text würde ich mir natürlich angucken, erstmal die schiere Menge, also Anzahl an Wörtern. Qualität ist immer recht schlecht messbar, gebe ich zu. Gibt’s natürlich Ansätze mit WDF-IDF, klar, und so überhaupt das Thema Sichtbarkeit von Texten, damit meine ich nicht den Sichtbarkeitsindex, sondern sind wirklich alle relevanten Texte auch sichtbar, ohne dass es irgendwie einen Klick braucht, und irgendwas aufzuklappen. Das URL-Schema würde ich mir angucken, ist in der Regel irrelevant, aber trotzdem würde ich es mir natürlich anschauen, ob vielleicht überlange URL hat, wo man die komplette Kategorie Struktur 7. Ordnung noch drin abbildet. Habe ich alles schon gesehen. Ja, würde ich mir angucken.

Das Thema Bilder ist natürlich ein Thema. Erstmal Bildgröße natürlich, aber auch solche Sachen, gibt es sinnvolle ALT-Attribute? Das Thema Markup, habe ich auch das richtige Markup drinnen? Auch da gibt’s ja viele Möglichkeiten relativ wichtige Markups zu vergessen, gerade bei Online-Shops ist es halt wichtig, dass man Produktbewertungen hat, dass man die eben auch richtig markiert und so weiter und so fort. Und insgesamt würde ich mir auch angucken, diese Seiten, die ich mir da anschaue, sind die eigentlich sinnvoll auf Suchbegriffe ausgerichtet? Also vor allem sind das auch für mich sinnvolle Suchbegriffe? Denn es geht mir nicht am Ende des Tages darum möglichst viele Besucher zu haben, es geht mir auch nicht darum einen möglichst hohen Sichtbarkeitsindex zu haben, das ist alles irgendwie so Vanity Metrics, schön, aber bringt mir eigentlich nichts, ich will ja Geld verdienen.

Und vielleicht ein konkretes Beispiel, angenommen ich habe auf meiner Website, bin ein großer Fachverlag wieder, ich habe eine Firmendatenbank mit 10.000 Firmen und jede Firma hat eine eigene Firmendetail-Seite und diese Seiten ranken in der Regel exakt für den Firmennamen. Also ich bin zum Beispiel für Meyer Schmidt Schrauben KG auf Platz 8. Ja nett, aber was bringt mir das? Die meisten, die nämlich Meyer Schmidt Schrauben KG suchen, werden auf Platz 1 die Website der Firma sehen und werden genau da draufklicken. Das heißt, ich habe ein Ranking, das bringt mir aber nichts. Also es bringt mir in diesem Fall keine Klicks, aber es könnte genauso sein, dass jemand, der die Meyer Schmidt Schrauben KG sucht, selbst wenn er auf mein Listing draufklicken würde, er wollte halt die haben und nicht mich, und ich mache auch überhaupt keine Conversion. Also das wäre für mich ein Content, der einfach nicht relevant ist. Oder klassisch, wenn wir uns Blogs angucken, dann sind da Beiträge drin für Themen, nach denen keiner irgendwie auch nur ansatzweise sucht und das ist einfach nur total verschenkte Energie. Also gucken, sind diese Inhalte, die es da gibt, sind die auf Suchbegriffe ausgerichtet, die für mich sinnvoll sind? Und ich würde mir natürlich auch immer das Thema Kannibalisierung angucken, also gibt es mehrere Seiten, die für den gleichen Suchbegriff gefunden werden? Das kann man leider nicht immer verhindern. Angenommen ich habe eine Kategorie zu dem Thema Angelruten und dann habe ich aber noch einen Blogbeitrag zum Thema Angelruten und die kloppen sich vielleicht um das Ranking für den Suchbegriff “Angelruten”. Ist jetzt nicht so ganz so optimal, weil eigentlich wäre es halt gut, wenn es nur eine starke Seite gibt. Kannibalisierung kann man relativ einfach prüfen, zum Beispiel auch mit RYTE Search Success, das Tool liest alle Suchanfragen aus der Google Search Console aus, aus der Suchanalyse und deckt für mich dann eben solche Fälle auf, und da sehe ich es dann eigentlich relativ schnell. Das sind leider Fälle, die passieren immer wieder, zum Beispiel, wenn jemand nach Bloofusion Webinar sucht, dann rankt Google mal die Übersichtsseite und mal die Seite eines konkreten Webinars. Das sind Fälle, die passieren, die würden aber nicht dazu führen, dass ich an dieser Stelle was ändern würde. Also auch hier wieder ein bisschen Erfahrung und Mitdenken gefordert, nur weil ich solche Fälle entdecke, heißt das jetzt wirklich nicht, dass ich irgendwas ändern sollte. So, das habe ich jetzt gemacht, ich habe meine ganzen Seiten geprüft, und dann käme ich zu …

 

Schritt 5: Potenzial überlegen

Das heißt, welches Segment lohnt es sich eigentlich zu verbessern? Also in welches Segment stecke ich wie viel Energie? Energie kann sein, Zeit, kann sein, Geld, und das auch noch mit welcher Priorität. Das ist nicht oft einfach zu sagen, gebe ich zu. Am besten sind hier eben auch Conversion-Daten. Wenn ich zum Beispiel sehe, meine Kategorie-Seiten, die führen zu richtig vielen Conversions, aber mein Blog einfach zu null, dann kann die Konsequenz sein, ich stecke einfach keine Energie mehr in das Blog rein oder es kann die Konsequenz sein, dass ich eben sage, okay, ich habe wahrscheinlich noch über die falschen Themen geschrieben. Und dann muss ich mir ja auch noch überlegen, angenommen ich habe jetzt ein Potenzial entdeckt, zum Beispiel hier meine Blogbeiträge, wie viel Steigerung kriege ich da eigentlich hin? Also ich will ja ein Potenzial ermitteln und dann will ich diese Potenziale, die ich habe, ja priorisieren. Also ich muss ja irgendwo gucken, wo stecke ich Energie rein und wo kriege ich eigentlich am schnellsten den meisten Return on Investment? Ich weiß, das ist wahnsinnig schwer zu sagen, andererseits bei recht vielen Projekten, die wir so betreuen, ist es dann doch irgendwie nicht so schwer zu sagen, weil die Daten doch recht eindeutig sind. Es dann ja auch oft schon Websites, die seit 5, 6, 7, 8 Jahren gelaufen sind, man hat viele Daten zur Verfügung und auch mit ein bisschen Erfahrung und Gefühl kriegt man das dann eigentlich relativ gut hin. Und dann hat man idealerweise eigentlich eine Strategie, dass man sagen kann, okay, was verändere ich an meinen Segmenten? Zum Beispiel nochmal, im Blog muss ich über andere Themen schreiben, ich muss längere Texte schreiben, ich muss meine Bilder optimieren, Seitentitel und Meta Description muss ich anpassen. Oder zum Beispiel in meinem Shop habe ich Produktdetail-Seiten, die für nichts ranken, weil ich die ganzen Herstellertexte übernommen habe. Also optimiere ich jetzt nicht meine 10.000 Produkttexte, sondern ich gucke mir erstmal an, was sind eigentlich die 100 Produkte, mit denen ich wirklich Geld verdiene und fang mit diesen Texten an. Idealerweise auch, um vielleicht so ein bisschen so ein Zwischenziel zu haben, um zu gucken, ich mache das jetzt erstmal, ich optimiere 100 Produktdetailseiten oder ich schreibe 50 neue Blogbeiträge und gucke dann, ob es wirklich den gewünschten Erfolg bringt, denn diese ganze Potenzialermittlung muss man sagen, hat sehr viel mit Erfahrung zu tun. Es ist einfach faktisch nicht möglich das in absoluten Werten zu bestimmen. Nochmal, mit viel Erfahrung und so kann man das relativ zielsicher hinbekommen, aber es kann natürlich trotzdem sein, dass man vollkommen danebenliegt. Es kann sein, dass du so viele Blogbeiträge schreiben kannst, wie du willst, du verkaufst nicht ein Produkt dadurch. Das kann passieren, sollte nicht, klar, überhaupt keine Frage. Aber von daher bin ich auch immer für so eine agile Arbeitsweise, dass man erstmal einen Sprint macht, dass man sagt, wir haben hier das Segment Blogbeiträge, wir schreiben erst mal 20 Stück, gucken uns den Erfolg an, auch weil es oft in Firmen dann auch leichter zu verkaufen ist. Wenn man dann sieht, hey, wir haben 20 Beiträge geschrieben, haben dadurch 1000 Sales gemacht, dann ist es viel einfacher das Budget fürs nächste Jahr zu bekommen und dann zu sagen, so, jetzt schreiben wir aber nicht 20 Beiträge, sondern 200 und geben mal richtig Gas.

 

So, ich hoffe, ich konnte euch die Frage ein bisschen beantworten. Die Frage war ja, 20.000 Seiten, wo fängt man mit der Optimierung an? Wie gesagt ein bisschen technisches Gedöns. Der Schlüssel liegt wirklich darin, die Komplexität zu verringern und zu segmentieren. Also guckt euch nicht 20.000 Seiten an, dann werdet ihr bekloppt, habt ihr keine Chance. Kloppt euch das Ganze klein, divide and conquer heißt es ja, also teile und herrsche. Wenn du ein Problem nicht lösen kannst, zerlege es in Teilprobleme und löse die dann. Und genauso ist es hier halt auch. Und du musst natürlich trotzdem, ich sag mal diese ganze technische Klaviatur solltest du beherrschen, also du musst natürlich wissen, gerade wenn du Seiten analysiert, Seitentitel, Meta Description, URL, Schema Markup, diese Themen musst du natürlich draufhaben. Aber das ist auch alles kein Hexenwerk. Und wenn du das wirklich einmal draufhast und du segmentiert hast, dann kriegst du eigentlich relativ schnell heraus, wo die Probleme liegen. Du musst halt nur strukturiert rangehen und eben wie gesagt nicht einfach 20.000 Seiten sehen, das wird nicht funktionieren.

So, das war auch schon die 1. Folge 2019. Ich hoffe, ich konnte euch ein bisschen weiterhelfen und ich hoffe, dass ihr natürlich auch in diesem Jahr dranbleibt und vielleicht, wenn ihr auch mal so eine Frage habt, schickt sie mir gerne. Wie gesagt, wir haben eine relativ lange Liste, überhaupt keine Frage, das heißt aber nicht, dass ich die von oben nach unten abarbeite, sondern wenn ihr was wissen wollt, schreibt’s einfach, ich kümmere mich darum, ich mache mir Gedanken dazu und ja, hoffentlich hören wir uns dann hier.

An dieser Stelle möchte ich übrigens auch noch mal sehr herzlichen Dank sagen für all das Feedback, was es Ende 2018 gab, auch als Konsequenz auf meinen persönlichen Jahresrückblick. Ich war echt sehr gerührt von dem, was so an Feedback kam und schön, dass wir alle nicht nur irgendwie für Geld arbeiten und den ganzen Tag nur virtuell sind, sondern dass viele es wirklich schaffen auch eine sehr persönliche Nachricht zu schreiben und einfach mal zu sagen, Danke und dieser Beitrag hat mir gut gefallen oder das war Quatsch, auch das bringt mich weiter. Genau, mehr wollte ich dazu gar nicht sagen. Ich wollte jetzt nicht rumbetteln, dass ihr mir täglich was schreiben müsst, aber eben immer wichtig, ihr habt die Möglichkeit, wenn ihr eine Frage habt, schickt sie mir einfach, E-Mail-Adresse werdet ihr schon finden. Und ansonsten wie gesagt, das was wichtig war, habe ich noch mal in die Shownotes mit reingepackt und dann würde ich sagen, hören wir uns bei der nächsten Search Camp Folge und hoffe, dass wir uns in diesem Jahr auch übrigens mal vor Ort sehen, SMX mache ich wieder, wenn wir uns da treffen würden, traumhaft. Ansonsten wünsche ich euch eine gute Zeit und macht was draus und bis bald. Tschö!

The following two tabs change content below.

Markus Hövener

Markus Hövener ist Gründer und Head of SEO der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor (International SEO), Autor vieler Artikel und Studien rund um SEO und SEA und Chefredakteur des Magazins suchradar.

In seiner Freizeit hat Markus vier Kinder, spielt gerne Klavier (vor allem Jazz) und hört auf langen Autofahrten „Die Drei Fragezeichen“.

Kommentieren