Search Camp 27: Inside Google Search Console – Was man über die GSC wissen muss!

30. Mai 2017 | Von in Search Camp, SEO

Die Google Search Console ist sicherlich eines der wichtigsten Tools für SEOs. Aber was kann man damit wirklich machen? Was sind die Funktionen, auf die man in der täglichen Arbeit nicht verzichten kann? Und warum sind die Daten manchmal mit Vorsicht zu genießen? All das kläre ich im Gespräch mit Stephan Czysch, Autor des Standardwerks zur Google Search Console.

> Alle Episoden von Search Camp als RSS-Feed
> Search Camp bei iTunes
> Alle Folgen: www.searchcamp.de

Shownotes:

Transcript:

Markus Hövener: Moin und herzlich willkommen zur Search Camp Episode 27. Mein Name ist Markus Hövener und mein Thema heute lautet. Inside Google Search Console. Die Search Console ist sicherlich eines der wichtigsten SEO Tools. Und ich habe mir heute einen Experten dazu geholt, der das Standardwerk zur Search Console geschrieben hat. Wir reden darüber, was die wichtigsten Funktionen sind? Welche Probleme es mit den Daten gibt? Und warum die Bing Webmaster Tools manchmal besser sind als das Google Pendant. Und gleich geht’s los.

Markus Hövener: So. Ich freue mich, dass ich jetzt den Stephan Czysch in der Leitung habe. Die Namensfrage mussten wir gerade nochmal klären. Ich wusste ehrlichgesagt nicht, wie man ihn perfekt ausspricht. Haben wir gut hinbekommen. Ja, warum rede ich mit ihm? Ich habe sein Buch auf dem Tisch liegen über die Google Search Console und ich habe vorher bei Amazon nachgeguckt. Es ist nicht nur ein Buch, es ist auch DAS Buch, also es gibt kein anderes deutsches Buch, was monothematisch die Google Search Console behandelt. Also das Buch, der Experte in der Leitung. Es ist ein wichtiges Tool und wir werden heute in hoffentlich ungefähr circa 30 Minuten darüber sprechen, was man damit machen kann, wo so vielleicht auch Fehlerquellen liegen. Deswegen freut es mich, dass du da bist. Stelle dich mal kurz vor.

Stephan Czysch: Ja. Hallo, Markus. Vielen Dank, dass du mich eingeladen hast. Ist mein erster Podcast. Bin gespannt, wie das Ganze hier von statten gehen wird. Ja, ich bin Stephan, Nachname wie du schon richtig ausgesprochen hast, Czysch. Ich habe mit zwei Kollegen 2012 die Agentur Trust Agents gegründet. War davor als Inhouse SEO bei Rocket Internet Beteiligungen aktiv. Kümmere mich hier intern um ein paar Kunden weiterhin, mache da die Beratung, die strategische Beratung bei uns und bin auf der einen oder anderen Konferenz dann auch zugegen.

Markus Hövener: Okay. Ja. 330 Seiten habe ich eben nachgezählt. Ordentliches Buch. Fällt gleich die ketzerische Frage. Ich habe das damals auch mitbekommen, wir haben auch die erste Version von deinem Buch hier stehen. Die hieß noch Suchmaschinenoptimierung mit Google Webmaster Tools. Das war in den paar Wochen, bevor das Ding komplett umbenannt wurde. Ist es überhaupt sinnvoll ein Buch über ein Tool zu schreiben, was sich so oft ändert?

Stephan Czysch: Also die großen Funktionalitäten sind eigentlich so über den kompletten Zeitraum gleichgeblieben. Ich habe auch damals das Tool angefangen zu schreiben beziehungsweise damals angefangen mit dem eBook, was vielleicht der eine oder andere noch kennt. Das war dann, oh, jetzt muss ich lügen, das war aus 2012. Da war’s eigentlich viel schlimmer, weil dann Google angefangen hat, die komplette Navigation damals umzubauen. Die kompletten Tools wurden umsortiert in die heutige Reihenfolge. Das war für mich eigentlich der viel schmerzhaftere Schritt damals. Und lohnt es sich weiterhin, ein Tool, darüber zu schreiben? Ich denke schon. Das ist die einzige Datenquelle, die uns Google selbst an die Hand gibt. Die Suchanalyse ist im Vergleich zum alten Suchanfragenbericht um Welten besser. Wir haben mittlerweile auch die API mit dabei, können halt die Daten dann in verschiedene Tools reinziehen, ob das jetzt der Screaming Frog ist, ob das ein Onpage ist, ob das halt ein Sistrix ist oder was auch immer da draußen. Also das sind sehr, sehr schöne Daten, mit denen man arbeiten kann und ich möchte sie nicht missen und von daher denke ich auch, dass das Buch weiterhin eine Berechtigung hat.

Markus Hövener: Ja. Ich mache auch viele Seminare und Veranstaltungen mit Nicht-Hardcore-SEOs, klar, wir kennen das Tool alle. Aber ich merke so, es ist immer seltener, dass jemand die Google Search Console gar nicht kennt und auch den Login noch nie gesehen hat und sich noch nie eingeloggt hat. Finde ich erstmal ein gutes Zeichen. (Stephan Czysch: Auf jeden Fall.) Ich habe trotzdem den Eindruck, dass viele Unternehmen gar nicht wissen so richtig, was sie damit anfangen sollen. Ist das so? Und vielleicht noch Google Search Console, ist das eher ein überschätztes oder ein unterschätztes Tool?

Stephan Czysch: Oh, so viele Fragen auf einmal. Ich hoffe ich konnte sie mir alle merken. Fangen wir mit der letzten an. Ich glaube, dass es weiterhin ein unterschätztes Tool ist. Also auch, wenn man sich halt überlegt, wie viele Webmaster es da draußen gibt, die mit einem relativ kleinen SEO-Budget eigentlich durch die Welt tingeln. Die können es sich nicht leisten dann die diversen Tools für dreistellige Monatsbeträge pro Tool dann letztendlich anzuschaffen. Und von daher ist halt die Google Search Console quasi so ein All Inclusive Paket, was ich dann halt nehmen kann, um zumindest meine eigene Seite zu sehen. Wofür ranke ich eigentlich? Wer verweist auf mich? Wie sieht’s mit der internen Verlinkung bei mir auf der Website aus? Das ist etwas, was ich sonst eigentlich gar nicht habe und dafür, dass es kostenfrei ist, ist es auf jeden Fall eine super, supergute Quelle. Ansonsten ja, wie du schon richtig gesagt hast, ich glaube, dass das Tool wesentlich präsenter geworden ist bei ganz, ganz vielen Personen da draußen, die sich auch damit beschäftigen, weil halt immer mehr Leute auch darüber schreiben. Wenn ich zurücküberlege, 2009 habe ich dieses Webmaster Tool dann das erste Mal eingesetzt und damals war das halt echt noch super exotisch. Da ging’s bei uns dann eher darum, lohnt sich das überhaupt? Damals musstest du noch jeden Nutzer einzeln verifizieren in den Tools, den eigenen Schlüssel hochladen und so weiter. Das war immer ein ziemlicher Hickhack dann bei den Kunden das überhaupt reinzubekommen. Und heute, es nutzen auf jeden Fall mehr Leute, aber viele nutzen es halt auch falsch und gucken überhaupt gar nicht rein und verlassen sich dann halt nur auf Dritt-Tools sage ich jetzt mal. Und die Fehler, die dann in der Search Console auftauchen, speziell bei so Internationalisierungsfragen, die kann kein anderes Tool so out of the box jetzt liefern. Klar, wir haben viele Crawler, die mittlerweile Funktionalitäten drin haben, diese hreflang Tags zu kontrollieren und so weiter und so fort. Aber die Daten dann direkt von Google zu haben und halt auch dieses Google Crawling Verhalten zu sehen, welche URLs rufen sie auf, woher gibt’s denn überhaupt Fehler, das bietet letztendlich kein anderes Tool da draußen. Von daher wäre es schön, wenn noch mehr Leute die Tools viel, viel intensiver nutzen.

Markus Hövener: Wenn man dein Buch so liest, das ist nicht nur quasi ein Handbuch für die Google Search Console, sondern nebenbei erklärst du auch noch immer den SEO-Background, also was muss ich wissen, um hier eigentlich Entscheidungen treffen zu können. Ist die Google Search Console nicht selbsterklärend genug?

Stephan Czysch: Puh! Das ist eine extrem gute Frage. Also ich glaube, wenn du manche Sachen nur jetzt einmal halt draufguckst und dann verstehst du es letztendlich nicht. Was soll das jetzt überhaupt sein mit diesen hreflang Tags beispielsweise? Ich glaube Leute, die aber da an der Stelle schon anfangen zu stutzen, die haben sowieso keine hreflang Tags integriert, aber jetzt habe ich gerade den Faden ein bisschen verloren.

Markus Hövener: Oder fragen wir andersrum. Sollte die Google Search Console vielleicht selbsterklärender sein? Also müssten da einfach viel mehr Infos dabei sein, damit auch ich sage mal der kleine Webmaster, der kleine Unternehmer, der jetzt nicht Hardcore-SEO ist, überhaupt was mit den Sachen anfangen kann? Oder ist das wirklich alles nur für Spezialisten gemacht?

Stephan Czysch: Wenn ich so drüber nachdenke, dann ist es schon so, dass es für einen Laien extrem schwer verständlich, was er überhaupt dort alles konfigurieren kann. Was ist das mit diesen URL-Parametern? Ich glaube, da tun auch Leute sich ein bisschen schwer, die sich schon sehr intensiv mit den Tools beschäftigen. Wann wähle ich jetzt keine URL? Wann nur bestimmte Parameter? Wann nur einen bestimmten Parameterwert? Was passiert eigentlich, wenn die Parameter zusammen drin vorkommen in den Adressen? Wird das dann auch gecrawlt? Was ist überhaupt diese robots.txt? Ich glaube schon, dass Google einen besseren Job machen könnte, dort Webmaster stärker an die Hand zu nehmen. Die Hilfeartikel, die es gibt, die sind eigentlich sehr, sehr gut. Nur dadurch, dass sie halt oben in dem Dropdown versteckt sind hinter dem Konfigurationszeichen, kommen glaube ich ganz, ganz viele Leute gar nicht in die Versuchung diese Google Hilfe aufzurufen. Auf der anderen Seite, wenn du halt nach vielen Keywords suchst, findest du zum Glück auch die Google Hilfesektion selbst über die Google Suchergebnisse. Von daher scheinen sie da nicht so einen schlechten Optimierungsjob insgesamt (lacht) gemacht zu haben. Aber so, wenn du jetzt nur reinguckst, die Funktionen sind manchmal nicht so selbsterklärend. Und auch die Suchanalyse finde ich ist relativ mächtig und du kannst sehr, sehr viel konfigurieren, einstellen, wieder wegnehmen. Das überfordert glaube ich ganz, ganz viele Leute. Egal wie lange du schon in der Branche drin bist.

Markus Hövener: Gerade so ein paar Sachen in der Suchanalyse finde ich auch ehrlichgesagt nicht zweckmäßig. Es ist immer spannend zu gucken, gibt’s eine Suchanfrage, für die mehrere Seiten konkurrieren, und das müsste das Tool eigentlich irgendwie, weiß nicht mit einem Klick liefern können, aber im Endeffekt ganz so einfach ist es ja leider nicht. Das stört mich daran auch immer.

Stephan Czysch: Ja. Dafür haben wir dann den serplorer, der für diese Zwecke gebaut ist. Es ist aber halt auch schwierig, weil du musst ja dann die Unterscheidung treffen oder Google sagt ja nicht, was ein Sitelink eigentlich ist und du hast noch häufig Doppelrankings auch für dann sehr populäre Suchanfragen, wo halt einfach unten die kleinen Sitelinks erscheinen. Und das dann zu unterscheiden zwischen, ist das jetzt eine konkurrierende Adresse und du könntest besser ranken, wenn du halt eine deoptimierst oder die Sachen zusammenlegst? Das ist halt extrem schwierig dann vielleicht auch so einfach (schnippt mit Finger) mit einem Fingerschnipp dem Nutzer anzuzeigen. Wir haben jetzt auch eigene Lösungen dafür gebaut, um halt zu gucken: Ist das ein Doppelranking? Das ist teilweise gar nicht so einfach und ich finde halt immer noch viele so Zwischendrin-Fälle, die wir halt aktuell nicht standardmäßig irgendwie markieren können, obwohl wir uns halt große Mühe geben genau das zu tun.

Markus Hövener: Der Fall kann gerade auch passieren, wenn du eine Suchanfrage hast, die lokalisiert und unterschiedliche Seiten je nach Location ausgeliefert werden.

Stephan Czysch: Ja absolut. Absolut. Aber da hast du halt wieder den Vorteil, weil du es in den meisten SEO-Tools standardmäßig jetzt nicht sehen kannst, welche Adresse wird wirklich gefunden. Und das hast du, wenn du ganz, ganz viele lokalisierte Seiten noch hast, also irgendwas -stuttgart, -berlin, -irgendwas, hast du es sehr häufig vorkommen, dass halt einfach lokal eine andere Adresse rankt. Und das dann halt zu sagen, die konkurrieren gegeneinander, ist ja dann eigentlich gar nicht der Fall, sondern Google hat einfach gesagt: Für diesen Nutzer auf diesem Standort ist das die bessere Einstiegsseite und nicht deine generische Seite zu dem Thema, von mir aus „Wohnwagen mieten“ oder was auch immer.

Markus Hövener: Okay. Ein paar andere Sachen finde ich auch eigentlich relativ ärgerlich und du beschreibst das interessanterweise auch in dem Buch, dass zum Beispiel der Report HTML Verbesserung, der eigentlich ganz gut ist, das Canonical-Tag gar nicht berücksichtigt. Oder es gibt den Indexierungsstatus, da kriege ich halt nur platte Zahlen, aber eigentlich würde ich gerne wissen, okay, welche Seiten hast du denn jetzt im Index? Ist das irgendwie so von deinem Gefühl her, haben die solche Cases einfach nicht auf dem Schirm oder sagen die: Okay wir liefern euch jetzt hier so einen 50 Prozent Happen, das ist vollkommen ausreichend, gerade weil es eh keine Konkurrenz gibt?

Stephan Czysch: Ach, exzellente Frage. John Mueller kriegt die Frage ja relativ häufig auf SEO-Konferenzen auch gestellt und besonders diese Frage „Welche Dokumente sind jetzt eigentlich indexiert?“ wäre schon extrem spannend mal zu sehen, weil man findet auch häufig URLs im Google Index, die über die interne Struktur gar nicht zu finden sind, und man sich dann schon manchmal fragt, wie ist Google überhaupt in diesen Seitenbereich reingekommen? Und du kannst natürlich auch nur Fehler beheben, die du irgendwo sehen kannst. Und wenn du Glück hast oder was heißt Glück, aber manchmal teilen sie sich dann halt den Seitentitel mit anderen Adressen, dann siehst du auf einmal URL-Strukturen, von denen du gar nicht wusstest, dass sie existieren oder wo du auch gedacht hast: Hey, ab einer bestimmten Parameteranzahl habe ich mein Canonical-Tag drauf und ich habe die Hoffnung, Google geht da nicht weiter rein. Und dann guckst du teilweise in die URL-Parameterbehandlung, da sind Adressen, die würden eigentlich einen kompletten Desktop sprengen, wenn sie nicht einen Zeilenumbruch reinsetzen würden. Und die findest du halt eigentlich nicht über SEO-Tools. Von daher ja Google kann da auf jeden Fall an Funktionalitäten auf jeden Fall noch was nachlegen und der Tag, an dem ich so einen Indexierungsstatus mal rausziehen kann, auf den freue ich mich auf jeden Fall.

Markus Hövener: Ja. Da würde ich auch drauf warten. Lass uns mal drüber reden, also ich meine das war jetzt so ein bisschen Rumgemecker, ist ja klar. Ich meine auf der anderen Seite ist das Tool kostenlos, also was will man eigentlich noch erwarten? Lass mal über die Top 5 Features sprechen, also was sollte jemand da draußen, ein Unternehmer, Website-Betreiber, wofür sollte der die Search Console auf jeden Fall nutzen? Sage mal Feature Nummer 1.

Stephan Czysch: Feature Nummer 1 auf jeden Fall die Suchanalyse. Also je mehr … ich habe desto mehr oder desto spannender ist natürlich auch der Blick da rein. Aber das ist auf jeden Fall mein Feature Nummer 1 und ich habe mir ein Bookmarklet zusammengebastelt, mit dem ich halt immer eine Adresse direkt an das Tool übergeben kann, dann ist das halt auch nicht mehr so unhandlich, weil wenn du halt standardmäßig auf die Suchanalyse gehst, dann musst du erstmal Impressionen wieder anwählen, dann vielleicht noch die Position und dann musst du wieder einen Filter. Das ist schon teilweise ein bisschen nervig. Also diese Klickstrecken in der Suchanalyse selbst, die sind so lang, dass es halt schon an vielen Stellen einfach Sinn macht, die API zu nutzen, sich die Daten rauszuziehen und dann einfach mit Excel oder sonstigen Tabellenformaten einfach weiterzuarbeiten. Aber Feature Nummer 1 auf jeden Fall für mich die Suchanalyse.

Markus Hövener: Einschränkung immer noch 90 Tage maximal Daten. Danach sind die Daten weg. Kann man eigentlich nur dadurch beheben, dass man sich die Daten irgendwie zieht, abspeichert, serplorer nimmt, API-Tool, oder irgendwas.

Stephan Czysch: Absolut. Ansonsten ich hatte ja auch im Tool, ach im Tool, im Buch selbst empfohlen Search Analytics for Sheets, gibt’s ja als kostenfrei Google Drive Variante der API, funktioniert ganz wunderbar. Kann man dann auch letztendlich für nutzen. Wäre natürlich schön, wenn Google selbst so eine Funktionalität anbieten würde und nicht sagen: Hey, es gibt hier irgendwo die API. Das kann ich mir als Bäcker Heinz jetzt irgendwo an der Straßenecke, wenn der überhaupt die Search Console aktiviert hat, dann ist er schon relativ mit da vorne und dann noch zu sagen: Baue dir mal selbst eine API-Lösung. Ich glaube spätestens an der Stelle steigt der halt einfach aus.

Markus Hövener: Ja klar. Feature Nummer 2?

Stephan Czysch: Eigentlich die HTML Verbesserung, obwohl es halt so ein relativ einfaches Checking ist von Google, also dass die halt einfach nur sagen, wirklich exakt identische Seitentitel, ist es halt trotzdem ganz spannend zu sehen, was dort so reinläuft, speziell wie ich eben schon gesagt habe, weil ich manchmal gar nicht weiß, welche URL-Strukturen Google eigentlich bei mir so aufruft und da bekomme ich halt ein viel besseres Feedback. Ich habe jetzt beim Kunden, wir wissen heute nicht, wo es herkommt, Varianten entstehen einfach, weil Google irgendwie selbst irgendwas an die URL hinten dranschreibt, das würde ich halt über einen Crawler nie finden können. Aber Google hat offensichtlich damit ein Problem und von daher konnte ich das jetzt identifizieren und jetzt machen wir uns letztendlich an die Lösung.

Markus Hövener: Okay. Und wer natürlich irgendwie mehr davon haben möchte von solchen Auswertungen, muss natürlich auch wieder auf ein, zum Beispiel den Screamingfrog zurückgreifen, der dann auch noch weiter checken kann. (Stephan Czysch: Ja.) Weil schlussendlich ist es ja nur Seitentitel und Meta Description. Ist okay, sollte man sich angucken, aber wenn du jetzt auch noch gucken willst, wie sind meine H1 Überschriften oder H2 oder sonst irgendwas, sind natürlich andere Tool einfach einen Tacken besser.

Stephan Czysch: Ja. Das wäre auch noch cool, wenn Google diese Daten letztendlich einfach zur Verfügung stellen würde. Aber würde natürlich bei denen auch auf der Datenbankseite zu wesentlich mehr Einträgen führen und von daher einigermaßen verständlich, dass sie es auf gewisse Standardsachen, die halt idealerweise auch nur einmal auf der Seite vorkommen, einfach begrenzt. Es wäre natürlich schön Canonical-Tags auch zu sagen, welche Adresse sind sehr ähnlich und so weiter und so fort. Also alles, was man sich als SEO wünscht. Aber wir brauchen ja auch noch kostenpflichtige Tools, die uns irgendwie die Arbeit erleichtern. Wäre natürlich blöd, wenn das alles kostenfrei angeboten werden würde. Und es macht natürlich auch Spaß so ein bisschen in den Daten rumzuwühlen, zu gucken, was gibt es dort draußen und wie kann ich die Probleme dann identifizieren und auch beheben?

Markus Hövener: Obwohl ich die Idee kostenpflichtig gar nicht so schlecht finde. Ich meine, Google könnte ja auch ein Google Search Console Update oder Pro Version rausbringen, die dann eben die Features hat. Ich glaube, dass viele SEOs gerne die 29 Euro im Monat bezahlen würden, wenn sie denn mehr kriegen könnten.

Stephan Czysch: (lachen beide) Oder sie zahlen 29 Euro für SERPs ohne Anzeigen für ihre Keywords. Das wäre glaube ich noch der bessere Deal. Nein, aber auch ein spannender Gesichtspunkt. Gibt’s ja auch bei Analytics letztendlich mit der Premiumversion. Könnte man schon Mueller einfach nochmal drauf ansprechen, ob er nicht Lust hat, da ein paar mehr Daten locker zu machen, wenn jemand dafür bezahlt.

Markus Hövener: Feature Nummer 3?

Stephan Czysch: Feature Nummer 3, ich würde fast sagen die Crawling Fehler. Der Report ist jetzt nicht so wirklich gut, weil er halt dann nicht so super aktuell ist und ich halt auch immer nur so einen Teilausschnitt sehe, aber so wenn ich halt SEO mit einem kleinen Budget mache, vielleicht irgendwie selbstständig bin, hilft mir das auf jeden Fall zu gucken, was ich halt anders machen kann. Ich sehe häufig Webseiten, die URL-Struktur ändern, die Weiterleitungen vergessen und das ist dann letztendlich das einzige Feedback auch, weil du halt ein bisschen historische Daten hast. Wenn du jetzt wieder einen Relaunch machst, vorher keinen Crawl gestartet hast und ihn abgespeichert hast, und dann hast du die neue Version, dann crawlst du halt nur die neue Version und dort sind dann halt vielleicht keine 404, aber diese historischen Daten, die hast du dann halt immer noch in der Search Console ein bisschen drin und würdest da die Sachen auf jeden Fall sehen können.

Markus Hövener: Man könnte natürlich auch in den Server-Logfiles nachgucken, ich glaube das macht der kleine Unternehmer aber in der Regel nicht.

Stephan Czysch: Ach das machen auch die meisten Großen nicht oder ist das bei euch anders? (lachen beide) Also Logfiles zu bekommen, das dauert auch teilweise bei Kunden relativ lange.

Markus Hövener: Stimmt. Sehe ich auch so. Ja. Aber auch, weil die einfach riesig und gewaltig sind und auch weil man sich einfach gewöhnt hat, dass man Logfiles eigentlich gar nicht mehr braucht. Ich meine früher hast du auch über Logfiles deine Webanalyse gemacht, also ganz früher die, für die es noch kennen.

Stephan Czysch: Mit wunderschönen Referrer Spamlinks auf die Public Visible Statistiken. Ja. Ja.

Markus Hövener: Das waren noch schöne Zeiten.

Stephan Czysch: Ja. Waren schöne Linkaufbau Methoden damals.

Markus Hövener: Okay. Feature Nummer 4?

Stephan Czysch: Also eigentlich alle Fehlerberichte, die wir so drin haben, ob das dann halt strukturierte Daten sind oder wer es jetzt hat, Accelerated Mobil Pages, oder natürlich Mobilfreundlichkeit. Wie konnte ich das bis jetzt vergessen? Wahrscheinlich wäre das spätestens auf Platz 3 eigentlich anzusiedeln gewesen. Ja einfach dieses tägliche Monitoring. Was passiert eigentlich bei mir auf der Seite? Sind Seiten, die eben noch getestet wurden, ob Mobilfreundlichkeit, sind sie es genau jetzt nicht mehr. Da wäre es natürlich cool, wenn halt mehr ich sage mal so Push-Feedback aus der Search Console rauskommen würde. Wie halt: Hey, pass mal auf, die und die Seiten, die sind jetzt nicht mehr mobilfreundlich, willst du die optimieren? Weil du musst halt regelmäßig in die Berichte reingucken, sonst siehst du diese Daten halt einfach nicht. Und wenn man halt auch vielleicht diese aggregierten Counts irgendwie noch über eine API rausziehen könnte, wäre das halt auch super hilfreich, um sich daraus Dashboards zu bauen. Wie viele AMP Pages habe ich gerade mit Fehlern? Wie war das zur Vorwoche? Wie viele Crawling Fehler habe ich halt eigentlich? Wobei das ja noch über die API geht. Aber wie ist halt der Indexierungsstatus und so weiter und so fort? Das wäre schon sehr, sehr spannend zu sehen.

Markus Hövener: Feature Nummer 5?

Stephan Czysch: Da nehmen wir natürlich Abruf wie durch Google. Auch speziell dann in Kombination mit den blockierten Ressourcen sehr, sehr hilfreich zu sehen: Hat wieder irgendjemand was umgestellt? Sind die die CSS Files freigegeben oder will ich halt einfach nur einen Inhalt ja aktualisiert bei Google einreichen? Das ist auf jeden Fall sehr, sehr hilfreich und funktioniert auch ganz, ganz wunderbar.

Markus Hövener: Sehe ich auch als einen unglaublich wichtigen Report mittlerweile, weil es schon zu Rendering-Fehlern kommen kann durch Sachen, die du sperrst oder blockierst. Lieblingsfall war ein Kunde, der halt alle Produktbilder auf ein CDN ausgelagert hat und das CDN hat die halt alle gesperrt und die komplette Website sah in der Ansicht einfach komplett weiß aus. Das sind Fehler, die siehst du halt im Browser nicht und auch nur auf diesem einen Weg. Oder auch so ein Lieblingsfall: Ein Shop, der hatte ein Shop-Update bekommen, und der Shop, der hatte jetzt versucht die Sprache des abrufenden zu raten und als der Google-Bot drauf zugegriffen hat, hat der Shop immer gesagt: Oh, du bist ja englischsprachig, also liefere ich dir auch nur die englische Website aus und sämtliche deutschen Inhalte waren gar nicht mehr verfügbar für Google. Gerade für sowas ist das halt ein geniales Tool oder?

Stephan Czysch: Absolut. Ja. Das sind sehr, sehr wichtige Anwendungsfälle, die du gerade genannt hast, auch schon alle erlebt. Und ja, wenn du ganz normal auf der Seite surfst, dann kriegst du es im Zweifelsfall gar nicht mit. Du siehst deine deutschen Inhalte, kommst gerade aus Deutschland auf die Seite und ob der Google-Bot dann da gerade durchkommt oder nicht, das kannst du ja relativ schlecht dann checken.

Markus Hövener: Ja. Es ehrt dich natürlich, dass du unter den Top 5 Features nicht die manuellen Maßnahmen genannt hast. Spricht ein bisschen für eure Kundschaft oder auch für eure Arbeitsweise. Also Search Console ist natürlich auch ein wichtiges Tool, wenn Abstrafungen vorliegen. Kannst du mal so insgesamt den Prozess beschreiben, wenn so eine manuelle Maßnahme reinkommt, was muss man da machen?

Stephan Czysch: Also erstmal wieder gucken, woran liegt es eigentlich? Ich glaube, dass vermutlich 95 Prozent der manuellen Maßnahmen weiterhin auf Links gehen. Wahrscheinlich dann weitere so 2 Prozent würde ich behaupten auf Rich Snippet Spam und der Rest dann letztendlich die anderen manuellen Maßnahmen, klar, die es da draußen so gibt. Erstmal gucken, was mahnt Google dort eigentlich an? Was kann ich letztendlich tun, um dieses Problem zu beheben? Dann das natürlich auch aktiv angehen, speziell wenn es dann um das Thema Links geht. Disavow Tool ist dann das eine, der direkte Abbau immer noch die bessere Variante. Dann halt offen und ehrlich auf jeden Fall Google mit dem Antrag auf erneute Überprüfung einfach sagen, was passiert ist und dann funktioniert das meistens auch ganz gut, dass der im ersten Rutsch dann durchgeht. Man sollte natürlich dann nicht nochmal anfangen den selben Krempel zu machen wie vorher. Die Links kurzzeitig deaktivieren aus dem eigenen Blognetzwerk und die dann wieder online setzen. Das (lacht) ist dann nicht so zielführend.

Markus Hövener: Okay. Wie sind so eure Erfahrungswerte, angenommen man hat jetzt alles aufgeräumt, wie schnell braucht Google bis die manuelle Maßnahme aufgehoben ist?

Stephan Czysch: Das geht sehr, sehr schnell eigentlich. Das reine Aufheben der Maßnahme in der Search Console, das funktioniert normalerweise so innerhalb von maximal 1 Woche, 2 vielleicht. Meistens hast du das Feedback so nach 2 Tagen. Das Problem ist ja dann, geht der Traffic danach hoch? Das hatten wir dann mit den ganzen Pinguin Kandidaten, die dann halt nicht nur eine manuelle Maßnahme hatten, sondern halt auch noch algorithmisch abgestraft waren. Bei denen du halt auch ohne manuelle Maßnahme keine Verbesserung gesehen hast. Und dann war es ja auch gar nicht zwingend der Fall, dass du halt 50 Prozent deiner Backlinks abbauen musstest oder so, sondern vielleicht halt nur wirklich einen ganz, ganz kleinen Teil, der dann halt nicht diesen Unterschied zwischen Traffic-Niveau vorher und Traffic-Niveau jetzt irgendwie 80 Prozent Unterschied dargestellt hat. Und von daher bis du halt wirklich dein voriges Traffic-Niveau erreichen kannst, ist schwierig. Ich hatte auch Kunden in der Betreuung, die hatten keine manuelle Maßnahme und jetzt auch gar nicht, waren auch gar nicht so der typische Pinguin-Kandidat damals gewesen. Aber du hast optimiert und optimiert, onpage alles glattgezogen, es ging halt einfach de facto nicht nach oben und dann kam halt das Pinguin 4.0 Update und obwohl der Kunde halt eigentlich aus deiner Sicht jetzt nicht davon betroffen war, ging’s auf einmal wieder nach oben. Klar, man hat ein paar Links abgebaut, dann so die typischen Verzeichnis-Links von früher, aber eine ganze Zeit lief es letztendlich auf einem niedrigen Niveau durch und das ist dann halt schon sehr, sehr ärgerlich. Zumal es immer objektiv es halt kein massiver Verstoß damals war, so ein paar Verzeichnis-Links mitzunehmen. Und da gab’s sehr viel schlimmere Sachen wie das, was ich jetzt eben gesagt habe, irgendwie mit privaten Blognetzwerken, ich weiß nicht, wer damit da draußen noch rumhantiert, soll ja immer noch ein paar Fälle geben. Auf der Campixx war das ja scheinbar wieder eines der Themen. Ja.

Markus Hövener: Glaubst du dann, dass das eigentlich fast gut ist, wenn man eine manuelle Maßnahme hat statt einfach nur eine algorithmische Abwertung, weil dann hast du es wenigstens schwarz auf weiß was du hast? Ist das noch was Gutes eigentlich?

Stephan Czysch: Das ist echt eine interessante Diskussion. Ab und an so ein Feedback von Google zu bekommen, woran liegt das jetzt eigentlich, wäre schon an der ein oder anderen Stelle extrem hilfreich. Das hast du ja mit Sektion deiner Website, die objektiv genauso gut optimiert sind wie andere, nehmen wir halt jetzt von mir aus irgendwelche Markenbegriffe an, du bist halt ein Saturn oder sonst was und hast halt ganz, ganz viele Marken gelistet und für Electronic Arts wirst du gefunden und für Samsung halt nicht und die beiden Seiten sind auf der selben Domain, inhaltlich ähnlich optimiert und so weiter und die eine rankt, die andere rankt gar nicht, interne Verlinkung auch ungefähr ähnlich. Da ein Feedback zu bekommen wäre natürlich sehr, sehr spannend. Aber auf der anderen Seite irgendwo muss es ja auch lohnen ganz, ganz viele Jahre sich mit dem Thema Suchmaschinenoptimierung zu beschäftigen und dann kannst du letztendlich Hilfestellungen zu solchen Themen geben. Aber also eigentlich weder noch, also ich hätte, wenn möglich weder die manuelle Maßnahme noch hänge ich irgendeinem Filter drin, das ist immer (Markus Hövener: Klar.) die edelste Variante. Ist dann zu sehen, ja schön, ist aber natürlich auch ein Zeichen, dass vorher nicht sauber gearbeitet wurde und das willst du ja eigentlich auch von vornherein vermeiden.

Markus Hövener: Ich habe auch mal mit John Mueller gesprochen und es ging halt um die Frage so: Wäre es nicht schön, wenn man so ein paar Qualitätsmerkmale ablesen könnte? Ob es jetzt Content-Qualität angeht oder Link-Qualität. Ich habe den Eindruck, das wurde schon diskutiert bei Google, aber ich habe auch den Eindruck, dass man das gar nicht möchte, weil Leute dann einfach noch näher die Grenzen austesten würden vielleicht.

Stephan Czysch: Ja. Diese klassischen Kochrezepte und Best Practices, ist immer so ein bisschen schwierig. Ich arbeite auch heute noch mit vielen Redakteuren zusammen, die dann halt sowas wie Keyworddichte und das Keyword muss überall drin vorkommen und so weiter. Das ist halt teilweise ein bisschen schwierig dann aus diesen Köpfen rauszubekommen und wenn du halt dann auch von Google so ein Feedback bekommen würdest, weiß nicht, ob das dann immer für dieses grundsätzliche logische Herangehen an das Thema Suchmaschinenoptimierung hilfreich ist. Ich überlege halt lieber, was haben die Leute für ein Problem? Welche Antworten wollen sie bei dir auf der Seite finden? Wie kannst du das halt strukturieren auf deiner Seite? Gehe halt lieber so ran anstatt halt so checklistenartig vielleicht ein Feedback zu bekommen von Google: Dein Title ist halt irgendwie 108 Prozentpunkte optimiert, du musst da ein bisschen runtergehen oder deine was weiß ich Sätze sind zu lang, deine H1 sind zu keyword-optimiert und so weiter. Müsste man schauen, wie es nachher ausgestaltet werden würde, aber wenn du halt wirklich dann so abhaken kannst und das und das und das muss ich machen und hier jenes, dann hast du halt auch irgendwann die Situation, dass die, die halt viel intensiver sich damit auseinandersetzen können, es noch viel, viel einfacher haben ihre Seiten gut zu optimieren. Dann hast du halt ein Inhouse-Team dasitzen mit 10 Leuten für ein Land und würdest Wettbewerber hat halt nur eins, das macht’s dann natürlich wesentlich schwieriger noch zusätzlich da überhaupt nach oben zu kommen irgendwie in die Ranking-Regionen reinzukommen.

Markus Hövener: Ich glaube das Kernproblem insgesamt ist auch, dass wenn Google immer mehr Richtung künstliche Intelligenz geht, dass so eine Maschine gar nicht mehr sagen kann: Warum habe ich mich jetzt eigentlich so entschieden oder das ist jetzt nur 80 Prozent Qualität von 100 Prozent, die wir gerne hätten. Das kriegst du aus so einem Ding wahrscheinlich einfach gar nicht mehr raus.

Stephan Czysch: Ja. Das kommt glaube ich noch erschwerend hinzu. Ja. Und wo ist der Mehrwert dann letztendlich auch für Google? Warum sollten sie diese Daten aufbereiten? Viele der Search Console Funktionen sind auch da, um letztendlich Google die Arbeit ein bisschen leichter zu machen, wie halt dann die strukturierten Daten. Das ist erstmal, dass es in der Search Console auftaucht, ist ja so ein Trigger, dass du dich überhaupt damit beschäftigst, was ist das überhaupt? Was sind diese Rich Cards? Was sind diese Accelerated Mobile Pages? Es ist halt etwas, was ich bei mir einsetzen würde und das hilft in irgendeiner Art und Weise ja auch Google. Und das andere wären ja dann auch spannend Daten für den Webmaster, aber die halt dann nicht zwingend Google helfen würden, weil sie dann halt einfach die am besten optimierte Seite bekommen, aber halt nicht zwingen die beste Seite dort draußen, die dann vielleicht halt auch diese ganzen klassischen Onpage-Faktoren nicht zu 100, 110 Prozent irgendwie erfüllen, sondern halt einfach wirklich einen guten Inhalt bereitstellen.

Markus Hövener: Man könnte aber auch argumentieren, dass die Google Search Console eher noch in der alten Welt verhaftet ist. Also da wird ein Seitentitel angezeigt, Meta Description und so, aber die ganze neue Welt, also eben Qualität von Sachen, Search Intent und so, das kriege ich nicht mehr in der Search Console.

Stephan Czysch: Das kriegst du nicht, das kriegst du nur über Erfahrungen her. (lachen beide)

Markus Hövener: Ja gut, davon oder so verdienen wir halt unser Geld ne. Wenn das Tool alles könnte.

Stephan Czysch: Es wäre schön ein paar Unterstützungen zu bekommen, aber ansonsten dieses Hereindenken in den Nutzer, was meint der eigentlich mit der Suchanfrage? Hey, ich habe bei dem Keyword verloren, liegt das jetzt daran, dass Google doof ist oder ist meine Seite halt eigentlich so gesehen doof? Und wie kann ich das halt optimieren und auch dieses ganze Thema Republishing, wie kann ich meine Artikel noch besser machen? Wie kann ich vielleicht Seiten zusammenlegen? Das ist ja etwas, wo viele Leute noch viel zu wenig Zeit drauf investieren und dann halt eher zu sagen, wo kriege ich halt den nächsten externen Link auf meine Seite her anstatt halt zu sagen: Wie kriege ich halt eine bessere Nutzererfahrung auf der Seite hin? Ob das dann halt irgendwie A/B Testings nachher sind für Seitenlayout, wie stelle ich das Ganze dar oder halt wirklich dann diese Content Optimierung.

Markus Hövener: Lass nochmal kurz vielleicht das Google Search Console Thema etwas abschließen. Wenn du jetzt weiß nicht, wenn jetzt Weihnachten wäre, was fehlt dir grundsätzlich noch, was hättest du gerne wirklich noch an Daten aus der Google Search Console?

Stephan Czysch: Hinsichtlich Onsite-Optimierung wäre es auf jeden Fall schön nicht nur diese komplett identischen Seitentitel rausfinden zu können, jetzt widerspreche ich mich so ein bisschen mit dem Punkt vorher, mit Erfahrungswerte sind auf jeden Fall ganz hilfreich. Nehmen wir jetzt ein Beispiel, du hast was nehmen wir denn, hier stehen gerade Getränkeflaschen rum. Du hast halt einmal eine Seite zum Thema Getränkeflaschen und dann hast du die andere benannt, Flaschen für Getränke oder so. Das kriegst du dann halt über so ein Tool nicht gematcht, aber obwohl das halt eigentlich derselbe Intent wäre. Und dass dann halt immer wieder so ein bisschen extern zu clustern, die Themen rauszufinden, das ist halt eine relativ zeitaufwendige Sache immer. Und da halt ein bisschen mehr Feedback zu bekommen so Richtung Near Duplicate Content, welche Seiten sind halt ähnlich, das wäre vielleicht schon hilfreich. Ansonsten wie du schon gesagt hast, diesen Indexierungsstatus zu sehen, welche Adressen sind das eigentlich? Vielleicht auch so ein bisschen Crawldaten, was schaut sich Google eigentlich an rein neben diesen numerischen Werten in den Crawling-Statistiken, das wäre vielleicht auch für den ein oder anderen ganz hilfreich. Wobei wir da halt wieder über den Power User sprechen, jetzt nicht wirklich diesen Ottonormalverbraucher-SEO, den halt Google auch auf jeden Fall mit im Boot behalten möchte. Viele Sachen sind da schon relativ technisch formuliert. So ein robots.txt-Tester, auch viele Leute, die schon lange sich mit SEO beschäftigen, die machen auch weiterhin Fehler in ihrer robots.txt, von Laien dann halt ganz zu sprechen, äh ganz zu schweigen. Das wäre auf jeden Fall cool. Ansonsten halt so diese Push-Notifications, dass halt Google irgendwie sagt: Da und da sind halt die Fehler angestiegen. Das hast du zwar für die Crawling-Fehler teilweise, dass du Benachrichtigungen bekommst, aber halt solche Sachen wie halt Nutzerfreundlichkeit auf Mobilgeräten, dort halt irgendwie so einen monatlichen Report, den du automatisch zugeschickt bekommst mit „das sind die Adressen“, wo irgendwas im Argen liegt, das wäre auf jeden Fall super, superhilfreich.

Markus Hövener: Wäre vielleicht noch ein Case für ein neues Tool. Es gibt ja dieses, ich habe den Namen vergessen, was monatlich deine, oder wöchentlich glaube ich deine Google Analytics Daten nimmt und daraus dir einen geschriebenen Report macht. Kwilt heißt das glaube ich. (Stephan Czysch: Ja. Das) Und sowas wäre natürlich für die Search Console auch nochmal ganz cool ne?

Stephan Czysch: Ja. Absolut. Müsste man mal testen, ob das auch irgendwie funktioniert.

Markus Hövener: Du hast auch schon mehrfach das Wort API erwähnt. Jetzt du und ich wissen, was das ist. Eine Programmierschnittstelle. Die meisten da draußen werden natürlich jetzt mit API-Programmierung unglaublich wenig zu tun haben, aber es gibt natürlich auch ein paar Tools wie SEO Tools for Excel, die halt über die API da Daten rausholen können. Warum sollte man das tun und vielleicht so welche Tools findest du wirklich cool?

Stephan Czysch: Der Hauptanwendungsfall ist halt weiterhin die Suchanalyse. Wie du vorhin schon gesagt hast. 90 Tage haben wir relativ häufig als maximaler Datenzeitraum in der Search Console, teilweise auch komplett ohne diese historischen Daten. Also du weißt gar nicht, was können wir denn nehmen, gut bei Accelerated Mobile Pages hast du auch den Graph oben, aber teilweise fehlt dir halt einfach so diese Beziehung, wie groß war die Anzahl an Fehlern zu einem bestimmten Zeitpunkt in der Vergangenheit außerhalb dieser 90 Tage? Von daher Hauptanwendungsfall für die API weiterhin auf jeden Fall die Suchanalyse. Wir haben eigene Schnittstellen bei uns gebastelt, die einfach auf die Daten zugreifen. So out of the box nutze ich die Verknüpfung relativ häufig mit dem Screamingfrog, einfach, um dann zu gucken, welche Adressen bringen dir besonders viele Benutzer? Auf welcher Ebene hängen die eigentlich in deiner Webseite? Wie viele interne Links bekommt die Seite eigentlich ab? Wie viele interne Links gibt sie vielleicht auch weiter? Solche Fragestellungen kann man dort sehr, sehr gut beantworten. Ansonsten ja so viele Ad hoc Reports, einfach, wo du halt sagst: Ich möchte jetzt sehen, welches Keyword gehört zu welcher URL in der Suchanalyse? Das ist halt superhilfreich und da habe ich, ich würde dann wahrscheinlich Search Analytics for Sheets nehmen, einfach weil es halt kostenfrei ist. SEO Tools for Excel hat jetzt ja die neue Version rausgebracht kürzlich, da weiß ich gar nicht, ob, nein da kriegst du ja sowieso die Daten nur in der Pro Version, also da musst du dort auch die Jahresmitgliedschaft letztendlich haben. Ist aber ansonsten auch ein sehr, sehr cooles Tool mit sehr, sehr vielen Funktionalitäten. Wobei ich jetzt nicht 100 Prozent verfolgt habe, was der Unterschied ist zwischen der letzten Version und der aktuellsten, die jetzt gerade rausgekommen ist.

Markus Hövener: Hast du in Google Data Studio reingeschaut? Das hat ja auch die Search Console Anbindung.

Stephan Czysch: Noch nicht. Ist eines von ganz, ganz vielen Tabs in meinem Browser, was aktuell offen ist. (Markus Hövener: (lacht) Okay.) Steht auch gerade da easily build custom reports on dashboards with Google Data Studio. Will ich mir auf jeden Fall anschauen. Wir haben aber hier einen BI-Experten bei uns sitzen, der prädestiniert ist für solche Themen. Dem lagere ich sowas gerne aus. Aber für die eigene Fortbildung möchte ich auf jeden Fall auch nochmal reinschauen. Einfach gucken, was man dort gut visualisieren kann und dann vielleicht auch direkt in Reporting Qualität für den Kunden so aufbereiten kann.

Markus Hövener: Weil auch hier wäre ja das Stichwort wirklich kostenlos. (Stephan Czysch: Ja. Absolut.) Das kostet ja wirklich Null und muss man sich halt mal angucken.

Stephan Czysch: Gab’s zu dem Zeitpunkt als ich es geschrieben habe das Buch leider noch nicht. Da sind wir wieder bei diesem Faktor Aktualität (Markus Hövener: Ja genau.) wie du ganz am Anfang gesagt hattest, aber die Welt dreht sich weiter

Markus Hövener: Dann lass uns nochmal kurz die Bing Webmaster Tools angucken. Ist zwar eigentlich blöd, weil auf dem Cover steht doch Google Search Console. Trotzdem kann man die ja mal ansprechen. Bing hat angeblich die 10 Prozent Marktanteil überschritten, vielleicht mit einer etwas kreativen Definition von Marktanteil, aber okay gönne ich ihnen. Braucht man die Bing Webmaster Tools? Und vielleicht so was haben die, was in der Search Console fehlt?

Stephan Czysch: Was die vor allem haben, ist halt wirklich so ein Onpage-Optimierungsmodul, dass ich halt sehen kann, was bewertet eine Suchmaschine besonders stark, ob es jetzt eine H1 ist, ob das halt dann fehlende ALT-Attribute sind. Sowas hast du halt in der Google Search Console überhaupt gar nicht. Und dann die Kombination aus kostenlosem Tool Google Search Console, was dann halt dir diese Google-Welt sagen wir jetzt mal diese 90 Prozent darstellt plus dann letztendlich von der Logik her eine sehr ähnlich vorgehende Suchmaschine wie Bing, die dir dann halt auch noch Feedback gibt zu, was kannst du an deinem Seitenquelltext optimieren, ist dann eine ganz gute Kombination aus meiner Sicht.

Markus Hövener: Okay. Also würdest du Website-Betreibern empfehlen da auch mal reinzugucken und (Stephan Czysch: Ja. Absolut.) die Reports einfach mal durchzuarbeiten?

Stephan Czysch: Absolut. Ja. Wahrscheinlich werden die meisten aktuell noch nicht 10 Prozent ihres Traffics über Bing bekommen, aber wer weiß, wohin sich das Ganze entwickelt, dann ist es ja auch immer die Aussage, dass die Bing-Nutzer tendenziell eher mit einem oberen Einkommen unterwegs sind, weil sie einfach nicht wissen sie bei der Skype-Installation wieder Bing als Standardsuche deaktiviert bekommen. Also schaden kann es auf jeden Fall nicht und viele der Bewertungskriterien von Suchmaschinen, egal welche es dort draußen ist, ähneln sich ja. Sie müssen den Quelltext anschauen, dann schauen sie sich auch noch so ein bisschen die Verlinkungsstruktur von Webseiten im Netz an. Und da jedes Feedback zu bekommen, was ich von einer Suchmaschine selbst bekommen kann, ist auf jeden Fall sehr, sehr hilfreich. Ich hatte auch noch überlegt die Yandex Webmaster Tools mit reinzunehmen, weil die halt auch noch ein paar coole Funktionen haben, die du jetzt in den beiden, Bing und Google Tools nicht drin hast, aber das hatten wir dann verworfen, weil sonst der Umfang ein bisschen arg über dem gelegen hätte, was wir uns eigentlich vorgenommen hatten mit der 2. Auflage.

Markus Hövener: Ein guter Tipp ist vor allem auch, dass die Bing Webmaster Tools auch ein eigenes Keywordrecherche-Tool liefern, was anders als der Keyword Planner wirklich reale Suchvolumina ausspuckt und vor allem, wenn du halt keinen AdWords Spend hast, ist es glaube ich eine der wenigen guten Datenquellen, die dir zum Teil noch übrigbleiben.

Stephan Czysch: Ja, aber da hast du halt wieder dieses 90 / 10 Problem, wenn wir das so sehen. Für viele Keywords siehst du dann halt einfach nichts, weil es dann relativ schnell Richtung Null geht. Aber ist halt eigentlich eine kleine Zahl mal Neun und das kann dann halt schon in 100er, 1000er Bereiche halt reingehen, wo es dann wieder spannend sein kann als kleiner Webmaster sich einfach rum zu tingeln, weil ich will dann halt oder ich kann mir es nicht erlauben auf die sechsstelligen Suchvolumina Keywords zu gehen und wenn ich halt bei Bing dann sehe, da ist keine Nachfrage nach, dann liegt das halt daran, dass halt nicht 100 Prozent der deutschsprachigen Nutzer dort einfach aktiv sind, sondern halt nur ein kleiner Teil und die suchen scheinbar nicht häufig genug, dass du die Daten halt siehst und bei Google hättest du es. Aber ja ist auf jeden Fall sehr ärgerlich, dass der Keyword Planner standardmäßig bei kleinem Ad Spend nur noch diese Ranges ausgibt. Ist für viele auf jeden Fall ein Problem, auch wenn du so auf Unternehmensebene dann denkst. Du willst nicht jedem Zugriff geben auf dein AdWords-Konto. Dort hast du genug Spends und die Personen vorher hatten halt ihr eigenes AdWords Account, der halt dann nur für die Keyword Planer da war. So ein Redakteur beispielsweise. Das geht dir halt jetzt blöderweise flöten. Ja.

Markus Hövener: Okay. Vielleicht gerade, wo wir nochmal bei Bing waren. Ich meine ihr habt eine Agentur, wir haben eine Agentur, guckt ihr euch Bing wirklich an, also ist das jetzt seit dieser legendären Pressemitteilung, dass sie die 10 Prozent überschritten haben, ist das jetzt irgendwie relevanter geworden? Ich meine jetzt nur den SEO-Bereich.

Stephan Czysch: Bei unseren Kunden nicht. Ich weiß nicht, ob es bei euch anders ist?

Markus Hövener: So richtig um den Hals fällt einem da keiner.

Stephan Czysch: Ja es ist halt, wenn die Leute kommen, dann geht’s immer um Google, um diese 90 Prozent oder ob es 95 Prozent sind. Man schaut so ein bisschen drauf, aber die Rankings sind einigermaßen ähnlich. Ja es kann schon manchmal sein, bei Google bist du auf Seite 1, bei Bing bist du auf Seite 2. Aber, dass es halt wirklich krass unterschiedlich ist zwischen, du bist halt ein bisschen sichtbar oder sehr sichtbar auf Seite 1 und du wirst halt überhaupt nicht gefunden, das ist nicht so häufig der Fall. Zumindest bei den Keywords, die ich mir halt angeschaut habe. Es mag bestimmt Leute geben, die mir andere Beispiele zeigen können, aber grundsätzlich glaube ich schon, dass die Bewertungskriterien einigermaßen vergleichbar sind.

Markus Hövener: Ja. Das war doch ein gutes Stichwort. Wir wollten eigentlich nur eine halbe Stunde, aber ja, super, mein Zähler da oben, der immer weiter brav durchläuft, sagt 40 Minuten, also super. Vielen Dank für die vielen Kommentare, Meinungen, für deine Insides.

Stephan Czysch: Sehr gerne.

Markus Hövener: Ich kann euch da draußen natürlich nur empfehlen das Buch gerne mal zu kaufen. Ist erschienen im O‘Reilly Verlag, sowieso einer meiner Lieblingsverlage schon seit ja, schon seit fast 20 Jahren. Genau. Also guckt mal rein, lest mal rein. Ansonsten ja schaltet bald wieder ein und wie gesagt nochmal vielen Dank für deine Zeit. (Stephan Czysch: Sehr gerne.) Danke für eure Zeit und bis bald. Tschüss!

Stephan Czysch: Alles klar. Danke. Ciao!

Unser nächstes Webinar am 25. Januar 2019: 10 SEO-Mythen: Was stimmt, was stimmt nicht?

Das weiß doch jeder: Duplicate Content führt zu Abstrafungen. Blogs sind gut für SEO. Soziale Signale sind wichtig für organische Rankings. Oder etwa doch nicht? In diesem Webinar gibt es einen differenzierten Blick auf viele bekannte Mythen, denn im manchen Mythos steckt natürlich trotzdem ein bisschen Wahrheit.

Jetzt kostenlos anmelden:
10 SEO-Mythen: Was stimmt, was stimmt nicht?

Alle kommenden Webinare:
Bloofusion-Webinare im Überblick

The following two tabs change content below.

Markus Hövener

Markus Hövener ist Gründer und Head of SEO der auf SEO und SEA spezialisierten Online-Marketing-Agentur Bloofusion. Als geschäftsführender Gesellschafter von Bloofusion Germany ist er verantwortlich für alle Aktivitäten in Deutschland, Österreich und der Schweiz. Markus Hövener ist Buchautor (SEO - Die neuen Regeln), Autor vieler Artikel und Studien rund um SEO und SEA und Chefredakteur des Magazins suchradar.

In seiner Freizeit hat Markus vier Kinder, spielt gerne Klavier (vor allem Jazz) und hört auf langen Autofahrten „Die Drei Fragezeichen“.

3 Kommentare zu “Search Camp 27: Inside Google Search Console – Was man über die GSC wissen muss!”

  1. Yvonne Dambier

    Besten Dank für den klasse Beitrag! Könnt ihr bitte einen Link zu Kwilt zur Verfügung stellen und/oder weitere Tools empfehlen, die ga-Daten wöchentlich automatisiert und grafisch aufbereitet versenden?

  2. Markus Hövener

    Hier ist der Link:
    https://www.quillengage.com/

    Schau Dir das einfach mal an…

  3. Yvonne Dambier

    Vielen Dank, Marcus!

Kommentieren