Search Camp Episode 49: Mein Content rankt nicht – Die Checkliste für unauffindbare Inhalte!

15. Mai 2018 | Von in Search Camp, SEO

Eine neue Seite wurde erstellt – aber sie will nicht die gewünschten Rankings zeigen. Woran kann das liegen? Was kann alles schiefgegangen sein, wenn die erhofften Top-Positionen ausbleiben? Und wie geht man bei der Diagnose vor? Ein Überblick über alle möglichen Probleme und Lösungswege.

> Alle Episoden von Search Camp als RSS-Feed
> Search Camp bei iTunes
> Alle Folgen: www.searchcamp.de

 

Shownotes:

 

Transcript:

Moin und herzlich willkommen zu Search Camp, DEM Online-Marketing-Podcast. Mein Name ist Markus Hövener und ich habe heute mal ein Praxisthema herausgesucht und das heißt, mein Content rankt nicht – die Checkliste für unauffindbare Inhalte. Viele haben das Problem, sozusagen ich habe eine Seite hier, aber die wird für diesen Suchbegriff, den ich gerne hätte, gar nicht gefunden. Ich habe mal heute für euch da draußen ein paar Punkte zusammengestellt, die man von oben nach unten durcharbeiten kann, um herauszufinden, was ist da eigentlich los? In ein paar Sekunden geht‘s auch schon los.

Ihr hört Search Camp: DEN Online-Marketing-Podcast mit Markus Hövener. Immer das Neueste rund um SEO, SEA und Co.

Da seid ihr ja immer noch, das ist gut, das ist sehr gut. Ich hoffe, das Thema interessiert euch: Die Checkliste für unauffindbare Inhalte. Klassische Situation, über die ich heute reden möchte, ist, ich habe eine ganz bestimmte URL und ich habe einen ganz bestimmten Suchbegriff und ich möchte jetzt herausfinden, warum ranke ich dafür eigentlich nicht, respektive so schlecht? Wichtig, immer eine URL, ein Suchbegriff.

Womit ich eigentlich immer anfangen würde, weil es auch hinreichend oft schon eigentlich der beste Diagnoseschritt, in Google info:url eintippen. Kein Leerzeichen dazwischen, also vor dem Doppelpunkt kein Leerzeichen, danach auch kein Leerzeichen und da einfach die URL eingeben. Ihr kriegt jetzt zwei Möglichkeiten, entweder ihr kriegt nämlich 0 Suchergebnisse, dann ist die Seite einfach nicht im Index, das ist schon mal irgendwie ein blödes Zeichen oder ihr kriegt ein Ergebnis. Wenn sie nicht im Index ist, dann kann das an verschiedenen Sachen liegen. Sie kann per robots.txt gesperrt sein. Das könntet ihr überprüfen, indem er in Google Search Console geht und „Abruf wie durch Google Bot“ macht und dann guckt, kann Google diese Seite abrufen? Wenn sie per robots.txt gesperrt ist, wird Google sagen, gesperrt. Eventuell können auch Seiten, die per robots.txt gesperrt sind, trotzdem im Index landen, dann allerdings mit einem leeren Eintrag, dann schreibt Google so einen kleinen Kommentar drunter und sagt, ich habe eigentlich gar nichts, was ich anzeigen kann, ich zeige es mal trotzdem an.

Das, was ihr auch noch prüfen könntet oder was ursächlich sein könnte, ist, dass es ein robots Meta Tag noindex gibt. Das kann im HTML-Code stehen, das kann aber auch im http Header stehen. Passiert nicht so oft, sollte man aber trotzdem prüfen. Wie kann man beides prüfen? Auch hier „Abruf wie durch Google Bot“ und dann einmal im Quellcode nachgucken und man kann sich auch den http Header anzeigen lassen an der Stelle und da nachgucken. Ich hatte es in der ganzen Zeit erst ein einziges Mal, dass es da stand, aber trotzdem, wir wollen heute eine vollständige Checkliste machen von allen Sachen, die passieren können.

Was kann noch sein? Eventuell kann das Canonical Tag falsch sein. Das sieht man dann, wenn die eingegebene URL, also info:url ungleich der angezeigten URL ist. Das sollte eigentlich nicht passieren, aber es kann passieren. Wenn das so ist, im HTML-Code nachgucken und da sollte man es dann typischerweise sehen können.

Wenn dieser Diagnoseschritt zu nichts geführt hat, dann kann man noch ein paar Sachen mehr prüfen. Das nächste, was ich prüfen würde, ist nämlich auch wieder Google Search Console und ich gehe in die „manuellen Maßnahmen“. Ist sehr unwahrscheinlich, dass für gegen mich eine manuelle Maßnahme vorliegt, also eine Abstrafung, aber vielleicht habe ich es übersehen. Sollte nicht passieren, weil ihr macht ja keinen Schmu da draußen. Ist alles prima. Trotzdem zur Sicherheit mal prüfen.

Als nächstes würde ich in die Google Search Console wieder gehen und würde mir die Suchanalyse angucken, respektive in der neuen Search Console heißt das Leistungen und würde konkret nach dieser URL suchen, die mich interessiert und gucken, habe ich wirklich keinen Traffic? Weil oft ist es so, ich habe durchaus Traffic, ich habe auch durchaus Klicks, ich habe auch durchaus Rankings, vielleicht nicht für diesen einen Suchbegriff, um den es mir geht, aber vielleicht für viele andere Suchbegriffe. Vielleicht hat Google einfach verstanden, dass es eigentlich um etwas anderes geht auf der Seite.

Das nächste, was ich nochmal machen würde, ist „Abruf wie durch Google Bot“ und das habe jetzt schon ein paar Mal gemacht, das würde ich dann natürlich zusammenfassen, gucken, ist der Content überhaupt sichtbar, also ist er wirklich in der Seite drin? Auch diesen Fall hatten wir schon mal. Wir hatten auch schon Leute, die Sachen auf ein CDN ausgelagert hatten und das CDN war dann auf einmal per robots.txt gesperrt oder Sachen werden per AJAX nachgeladen. Es gibt echt total absurde Fälle. Also „Abruf wie durch Google Bot“ und gucken, ob dieser Content wirklich so sichtbar ist wie er im Browser dargestellt wird. Würde ich immer machen.

Parallel kann man auch immer im Google Cache nachgucken, das sehe ich im Suchergebnis, da gibt’s diesen kleinen Pfeil, kann ich draufgucken und dann schauen, ist im Cache wirklich alles richtig angekommen? Auch da hatten wir schon zwei, drei Mal Fälle, wo offensichtlich etwas an Google falsch übertragen wurde. Oder wir hatten mal ein Shopsystem, das war falsch programmiert, da hat die HTML-Seite an der Stelle aufgehört, wo der Shopping Cart ausgegeben wurde, aber nur, wenn Google das Ding abgerufen hat. Crazy Fall, ist auch nie wieder passiert. Extrem unwahrscheinlich. Trotzdem würde ich es nachgucken.

Wenn ich die Zeit habe und die Lust, würde ich auch immer gucken, was ist denn mit anderen ähnlichen Seiten? Liegt es vielleicht eher am Seiten-Typ, dass das Ranking hier nicht funktioniert? Mag Google vielleicht einfach grundsätzlich was nicht daran, weil vielleicht immer der Content sehr dünn ist oder sehr viel Boiler Plate Content drauf ist oder der Text ganz weit unten ist oder so. Wenn die anderen ähnlichen Seiten auch nicht funktionieren, dann liegt es häufig daran, dass der Seiten-Typ nicht optimal umgesetzt ist.

Das nächste, was ich prüfen würde, ich würde auch hier wieder den Google Schlitz bemühen und würde eingeben: meineSuchanfrage site:meineDomain. Auch da site:meineDomain, vor und nach dem Doppelpunkt kein Leerzeichen, sonst funktioniert das Ganze nicht. Die Seite, die ich haben möchte, das sollte die erste Seite sein und idealerweise sollte es auch keine weitere Seite derselben Domain geben. Das passiert natürlich in der Regel nicht, sondern natürlich wird Google auch andere Seiten ausliefern. Aber die Seite, die ich haben möchte, sollte klar die beste Seite sein, die ich über diese site: Abfrage herauskriege. Falls das nicht so ist, muss ich vielleicht Sachen sperren oder kanonisieren oder irgendwas anderes machen.

Das, was ich auch noch als nächsten Schritt machen würde, ich würde mir eine Phrase herauskopieren, also meistens einen uniquen Satz aus meinem Content auf der Seite und würde den als Phrase suchen, also in Gänsefüßchen eingeschlossen und gucken, erscheint wirklich nur diese einzige Seite und keine andere. Wenn andere Seiten erscheinen, kann es sein, dass es kein unique Content ist, eventuell habe ich ein Duplicate Content Problem, das sollte ich natürlich prüfen.

Nächster Punkt, den ich mir angucken würde, ist immer die interne Verlinkung, würde prüfen, ist die Klicktiefe okay, ist sie stark einstellig, also 0, 1, 2, 3, sowas in der Richtung. Dafür braucht man natürlich einen vollständigen Crawl der Website. Mein Favorit ist immer noch der Screaming Frog SEO Spider, aber ihr könnt da natürlich jedes Tool nehmen. Guckt einfach, kommt Google über die interne Verlinkung an diese wichtige, euch wichtige, Seite dran und Ist die auch gut verlinkt, also hat die viele eingehende Links und ist sie auch mit dem immer gleichen und passenden Anker-Text verlinkt oder steht in den Ankertexten immer „hier“? Das wäre für mich eher so ein Manko. Das könnte ihr auch alles mit dem Screaming Frog zum Beispiel überprüfen.

Ich würde mir als nächstes dann noch die externe Verlinkung angucken. Naja, ist nicht so ein hartes Kriterium, meistens kommt dabei nichts rum. Würde ich mir natürlich eine kostenpflichtige Link-Datenbank wie Majestic nehmen, um zu gucken, habe ich externe Verlinkungen auf diese Seite? In Einzelfällen, vor allem bei einer harten Konkurrenzsituation, kann das natürlich durchaus helfen.

Konkurrenzsituation ist auch das nächste Stichwort. Ich würde mir natürlich erstmal die Suchergebnisse angucken, gegen wen laufe ich denn da eigentlich an? Das heißt, wenn ich die Suchanfrage eingebe, für die ich gerne ranken möchte und auf Platz 1, 2, 3 habe ich Amazon, Otto und About You oder sonst wen, dann ist eigentlich schon relativ klar, dass ich das sehr wahrscheinlich nicht schaffen werde, gegen die Jungs anzustinken. Das wäre zwar schön, wenn es so wäre, aber in der Regel muss man ganz ehrlich sagen klappt das natürlich nicht. Und sich auch mal angucken, haben die vielleicht ganz bestimmt Search Features, die mir fehlen, haben die zum Beispiel Bewertungen, ich habe aber keine Bewertungen drauf oder oder oder?

Das, was ich mir zum Schluss natürlich noch angucken würde, passt der Content überhaupt zum Search Intent? Auch das, das ist so dieses neue SEO-Denken, wobei so neu ist es gar nicht mehr, aber vieles von dem, was ich vorher genannte habe, waren eher so technische Sachen und das Technische wird immer unwichtiger und das Inhaltliche wird immer wichtiger. Also passt der Content zum Search Intent? Das, was ich suche, befriedigt diese Seite das perfekt? Ist die Seite gut strukturiert? Ist wirklich alles drin, was man über das Thema schreiben kann? Ist die Seite inhaltlich korrekt auch? Diese ganzen typischen Content Fragen muss ich mir natürlich stellen. Dann ist es in der Regel wirklich so, dass, wenn ich alle diese Fragen, die ich eben aufgeführt habe, wenn ich die einmal durchgegangen bin, dann sollte ich am Ende zumindest auch eine Idee haben. Es ist natürlich immer, solche Sachen wie robots.txt oder Canonical Tag, die sind besser, die sind 0 oder 1. Entweder ich bin im Index oder ich bin nicht im Index. Sowas wie passt der Content zum Search Intent ist natürlich schwierig, aber genau das ist eine wichtige Stelle, weil auch da muss ich mir natürlich immer klar sein, ich laufe immer gegen andere Suchergebnisse an und wenn die einfach inhaltlich besser sind als meine Seite, dann habe ich wirklich keine Chance. Mein Content muss wirklich deutlich besser sein, er muss aber natürlich, Google selber sagt, sie haben 200 plus Ranking-Faktoren, naja, wenn es mal so viele sind, aber lassen wir das mal so dahingestellt, muss natürlich klar sein, dass ich alle Baustellen gut abdecken muss. Wenn alle meine Konkurrenten irgendwie zig gute Deeplinks haben auf die Konkurrenz-Seiten und ich habe das nicht, dann habe ich natürlich einen starken Nachteil. Wenn alle meine Konkurrenten einen super durchgestylten, stark strukturierten Inhalt haben und ich habe das nicht, dann habe ich eben auch einen Nachteil.

Also guckt euch das alles an. Ich hoffe diese Checkliste konnte euch ein bisschen helfen, einfach eine Idee dafür zu kriegen, wie so ein SEO eigentlich dabei vorgeht bei der Analyse und warum rankt eigentlich eine bestimmte Seite nicht. Wie immer, wenn ihr dazu Fragen habt, sagt Bescheid. War heute ein relativ kurzer Podcast, ist aber trotzdem glaube ich ein wichtiges Thema. Von solchen Themen möchte ich auf jeden Fall in nächster Zeit noch mehr machen, weil das sind immer so die häufigsten Fragen in Seminaren, die kommen, wo so ein Hardcore-SEO einfach, der hat das einfach verinnerlicht und die meisten da draußen halt einfach nicht. Deswegen möchte ich euch gerne in Zukunft mehr von solchen Themen liefern. Wenn euch das gefällt, sagt Bescheid, wenn nicht, sagt bitte auch Bescheid, meldet euch. Das war‘s auch schon für heute. Wie gesagt kurz war‘s, aber deswegen hoffentlich nicht langweilig. Ich wünsche euch alles Gute. Bis bald. Ciao!

 

 

The following two tabs change content below.

Markus Hövener

Markus Hövener ist Gründer und Head of SEO der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor (SEO - Die neuen Regeln), Autor vieler Artikel und Studien rund um SEO und SEA und Chefredakteur des Magazins suchradar.

In seiner Freizeit hat Markus vier Kinder, spielt gerne Klavier (vor allem Jazz) und hört auf langen Autofahrten „Die Drei Fragezeichen“.

2 Kommentare zu “Search Camp Episode 49: Mein Content rankt nicht – Die Checkliste für unauffindbare Inhalte!”

  1. Thomas Naujokat

    Durch deinen artikel wurde ich inspiriert, doch mal etwas genauer hinzuschauen, insbesondere in der search console. Und musste entdecken, dass 2 sachen die seite total blockierten: hero height: 100vH und die div animationen unter der hero section. Für den google bot war die seite weitgehend leer. Nach der änderung daueret es nur stunden, bis die seite dann auftauchte in der trefferliste. Ein guter anstoß. Danke.

  2. Markus Hövener

    Sehr gerne!

Kommentieren