SEO - Suchmaschinenoptimierung

Die 5 größten SEO-Probleme relevanter Marketing-Agenturen

Reboot hat einen technischen SEO Audit bei renommierten Marketing-Unternehmen vorgenommen und die zentralen Schwachstellen – etwa Page Speed – lokalisiert.

© Web Hosting - Unsplash

Top Rankings bei Google, das ist die Zielvorstellung aller Seitenbetreiber. Wer in der Suchmaschine optimal rankt, erhält fast automatisch mehr Traffic. Natürlich kommt so eine Position nicht von ungefähr und zahlreiche Maßnahmen müssen beachtet werden. Dabei bieten sich oft Marketing-Unternehmen zur Unterstützung an. Allerdings wurde nun genau solchen Unternehmen auf den Zahn gefühlt, um zu analysieren, wo sie selbst in Sachen SEO die größten Nachlässigkeiten aufweisen.

Die größten Probleme der untersuchten Top Marketing-Unternehmen

Für die Studie hat Reboot 30 Marketing-Unternehmen mithilfe von SEMrush ermittelt, die für die Key-Phrase „digital marketing agency“ gerankt haben. Dabei wurden die ersten drei Seiten der SERPs miteinbezogen und Reboot selbst gehört ebenso zu den untersuchten Unternehmen.

Für jede Website wurden in der Folge eine Reihe von Metriken analysiert:

  • Page Speed
  • die Zahl der indexierten Seiten
  • UX
  • Meta Tags
  • Keyword-Optimierung
  • interne Verlinkung
  • Duplicate Content
  • Ankertext, der zur Seite verlinkt
  • etwaige Google Penalties
  • bei Google falsch indexierte Seiten
  • Expertise, Authoritativeness and Trust (E-A-T)-Signale
  • die Backlink-Qualität
  • die Domain-Authorität

In der folgenden Analyse zeigte sich dann: die größten Probleme liegen im Bereich Page Speed und einem Mangel an interner Verlinkung.


 

 

Damit auch du realistische Chancen auf ein Top Ranking bei Google hast, ist die SEO-Vorbereitung unerlässlich. Analysiere und optimiere deine Seite mit dem Guide zu Rankingfaktoren und der Konkurrenzanalyse. 

 

Jetzt Whitepaper downloaden


Die 5 zentralen SEO-Probleme der Marketing-Agenturen

In der von Reboot ausgeführten Studie, die exemplarisch wirkt, sind fünf SEO-Probleme aufgetreten, die recht geläufig sind:

  1. 70 Prozent der Agenturen hatten eine zu geringe Ladegeschwindigkeit mit einem Durchschnitts-Score von 41/100.
  2. Bei 63 Prozent der Agenturen war die interne Verlinkung mangelhaft.
  3. 57 Prozent der Agenturen hatten unerwünschte Seiten bei Google indexiert.
  4. Bei 52 Prozent der Agenturen galt, dass Thin Content auf den Seiten vorhanden ist.
  5. 47 Prozent der Agenturen hatte eine schwache Keyword-Optimierung für die Seiten aufzuweisen.

Wie Reboot herausfand, rankten viele der Agenturen im Marketing-Bereich, die eine enttäuschende Ladegeschwindigkeit hatten, sogar auf Seite eins. Bei Google gelten alle Werte unter 50 bei der Einstufung des Page Speed als langsam. Zu prüfen ist die eigene Ladegeschwindigkeit übrigens bei Google PageSpeed Insights. Die Ergebnisse der Analyse der Agenturen sind jedoch erschreckend, vor allem deshalb, weil die Marketing-Unternehmen selbst Expertise bei der Optimierung für ein schnelleres Laden aufweisen sollten.

In Sachen interne Verlinkung besteht ebenfalls Aufholbedarf. So können durch Verlinkungen die Seitenstrukturen von Google besser nachvollzogen werden. Außerdem werden Verweise auf andere relevante Seiten genutzt, um einen zu starken internen Seitenwettbewerb zu unterbinden. Reboot gibt als Beispiel die Agentur Impression an, die es versäumt, auf den eigenen SEO- oder PR-Bereich zu verlinken, obwohl diese im Text auftauchen und in den Reitern der Seite gespiegelt werden.

Verpasste Chance zur internen Verlinkung bei Impression (mit einem Klick aufs Bild gelangst du zur größeren Ansicht), Quelle: Reboot

Impression könnte beispielsweise dank mehr interner Verlinkung das eigene Ranking optimieren, so die Studie.

Probleme auch bei der Indexierung und mit Thin Content

Mehr als die Hälfte (57 Prozent) der Agenturen hatte Seiten bei Google indexiert, von denen sie es gar nicht wollten, etwa Blank Pages oder Dankesseiten nach Formularen. Bei Websites auf der zweiten und dritten Seite der Suchergebnisse war der Anteil sogar deutlich höher, lag bei 70 und 75 Prozent. Bei einigen Agenturen wurden Seiten gefunden, die nur ein Bild, aber keine weiteren Inhalte zeigten. Allerdings wurden auch diese gecrawlt. Bei Reboot selbst kam zutage, dass Seiten aus dem Segment Press Placements zuhauf indexiert wurden.

Press Placements, indexierte Seiten bei Google von Reboot, Quelle: Reboot

Reboot gab an, dass man nach der Erkenntnis ein „noindex“ Tag gesetzt hatte; was künftig nicht mehr funktionieren dürfte, da Google robots.txt zum Standard macht und nicht unterstützte Tags wie „noindex“ bald nicht mehr genutzt werden können. Auch Seiten für ehemalige Mitarbeiter, die nicht zu einem 404 geändert wurden, können problematisch sein.

Auch sogenannter Thin Content oder Inhalte, die für die Suchenden einfach nicht relevant sind, waren für 52 Prozent der analysierten Agenturen ein Problem. Eine solche Seite gibt Reboot bei der Analyse von Brainlabs an:

Diese Seite von Brainlabs hat keinerlei inhaltliche Informationen (mit einem Klick aufs Bild gelangst du zur größeren Ansicht), Quelle: Reboot

Keyword-Optimierung ist ebenfalls oft noch ausbaufühig

47 Prozent der Marketing-Agenturen in der Analyse hatten ihre Seiten nicht bestmöglich für relevante Keywords optimiert. So wurden Potentiale bei H1-Überschriften und Landing Pages nicht so genutzt, wie es möglich gewesen wäre.

Die Möglichkeiten, verwandte Keywords einzusetzen, etwa neben „Digital PR“ auch „Digital Agency“ oder „Digital PR Services“, wurde des Öfteren versäumt. Reboot argumentiert auch, dass eine H1-Überschrift wie „Digital PR“ Google nicht ausreichend erklärt, was die Seite eigentlich liefert. Einen Service oder einen Guide oder vielleicht nur eine Definition?

Neben den Top Fünf SEO-Problemen wurden in Reboots Analyse jedoch andere Bereiche gefunden, die für die Agenturen problematisch waren. Dazu zählen schwache Meta Titles bei Landing Pages, eine Problematik bei immerhin 20 Prozent der Websites. Für sogar 27 Prozent galt, dass sie aufgrund von Duplicate Content Einbußen bei ihrer SEO-Kredibilität hinnehmen müssen. Die Backlink-Qualität ließ auch häufiger zu wünschen übrig, bei insgesamt 33 Prozent.

Bei all den Negativaspekten, die Reboot aufzeigt, wurden jedoch auch Momente hervorgehoben, die die Marketing-Agenturen besonders gut machen. Dazu zählen die Trust-Signale, die an Google gesendet werden. So haben von den untersuchten Unternehmen alle einen Marketing Blog und alle HTTPS. 29 von 30 Unternehmen hatten eine Social Media-Präsenz vorzuweisen, alle hatten Kontaktinformationen parat und immerhin 83 Prozent haben eine „About“- oder „Meet the Team“-Seite.

Die Analyse von Reboot, wenngleich sie nur einen Ausschnitt einer Branche abbildet, zeigt, dass Webmaster ihre Seiten stets optimieren können, insbesondere in Sachen Page Speed und interne Verlinkung. Google selbst gibt hierfür oft Informationen preis, zudem unterrichtet beispielsweise der Twitter Account von Google Webmasters über Neuigkeiten bei der Search Console, zu robots.txt usw. Egal ob Testtools und Seitenreview oder Qualitätssteigerung bei den Inhalten. Es gibt immer noch Möglichkeiten, um die eigenen SEO-Probleme zu lokalisieren und zu beheben. Prüft doch direkt mal eure eigene Ladegeschwindigkeit oder setzt den einen oder anderen internen Link mehr.

Über Niklas Lewanczik

Niklas Lewanczik

Niklas hat an der Uni Hamburg Deutsche Sprache und Literatur sowie Medien- und Kommunikationswissenschaften studiert und schreibt als Redakteur über Social Media, SEO und innovative Themen im Kontext des digitalen Marketing. Wenn er sich nicht gerade dem Marketing zuwendet, dann womöglich den Entwicklungen im modernen Fußball oder dem einen oder anderen guten Buch.

3 Gedanken zu „Die 5 größten SEO-Probleme relevanter Marketing-Agenturen

  1. Björn

    „Reboot gab an, dass man nach der Erkenntnis ein „noindex“ Tag gesetzt hatte; was künftig nicht mehr funktionieren dürfte, da Google robots.txt zum Standard macht und nicht unterstützte Tags wie „noindex“ bald nicht mehr genutzt werden können. Auch Seiten für ehemalige Mitarbeiter, die nicht zu einem 404 geändert wurden, können problematisch sein.“

    Warum sollte es, auch wenn die robots.txt Standard wird, nicht mehr funktionieren, in die Meta-Daten einer Seite ein Tag nach dem Muster “ “ zu setzen ist ja auch weiterhin das von Google gewünschte Vorgehen.

    Antworten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.