Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
SEO - Suchmaschinenoptimierung
Das sind die 15 schlimmsten SEO-Fehler auf Webseiten

Das sind die 15 schlimmsten SEO-Fehler auf Webseiten

Andreas Wieland | 07.06.17

Was sind die nachweislich größten SEO-Fehler auf Webseiten? Ein Seo-Audit für über eine Million Webseiten verrät es. Wie ist diese Studie zu interpretieren und wie gehst du damit um?

Wenn du von Zeit zu Zeit Webseiten auf SEO-Qualität hin untersuchst, wirst du sicher den einen oder anderen SEO-Fehler feststellen. Dazu brauchst du nicht einmal ein Profi-Tool. Es reichen Browser-Extensions, um einer Website auf den Zahn zu fühlen. Andere wollen es ganz genau wissen. Jüngst erschien ein Beitrag von Mysiteauditor, die mehr als 1 Millionen Seiten auf SEO-Qualität hin untersuchten. Die Ergebnisse präsentieren wir dir in diesem Beitrag.

Wie wurde die Analyse durchgeführt?

Grundlage der Analyse waren Audits von mehr als 1 Million Webseiten, jeweils auf der Grundlage eines Zielkeywords. Für ein Audit benötigte das System 30 Sekunden, wobei 60 SEO Signale abgefragt wurden. Bei den Bewertungskriterien stützten sich die Analysten im Wesentlichen auf die aktuellen MOZ-Ranking-Faktoren und auf den eigenen Erfahrungshintergrund von 12 Jahren SEO-Praxis. Hier die 15 wesentlichsten Ergebnisse der Studie.

Was waren die schlimmsten SEO-Content Fehler?

#1: Fehler im Domain-Namen

32 Prozent aller Webseiten haben zu lange Domain-Namen. Und nur 20 Prozent aller Domains haben das Keyword im Domain-Namen. Ob Letzteres tatsächlich ein gravierender Fehler ist, darf bestritten werden. Wer wie Zalando & Co. entschlossen auf Branding setzt, braucht kein Zielkeyword im Domain-Namen. Hauptsache, der Markenname setzt sich durch.

Generell werden wir die in der Studie aufgeführten Keyword-Fehler am Schluss kommentieren. Seid gespannt.

#2: Fehlerhafte Title-Tags

Die Hauptfehler hier waren fehlende Zielkeywords (38 Prozent der Webseiten) und zu lange Titel in 34 Prozent der Webseiten.

#3: Fehler in der Description

Nur 32 Prozent der Webseiten hatten das Zielkeyword in der Beschreibung. In 19 Prozent aller Fälle war die Description zu lang. Wer diese Fehler begeht, setzt seine Click-Through-Rate aufs Spiel und auf Dauer seine Rankings.

# 4: Fehler bei der Bildoptimierung

Welche Probleme traten hier auf?

  • 67 Prozent aller Webseiten hatten keine Bilder mit Alt-Tags.
  • In 76 Prozent fehlten Ziel-Keywords in den Alt-Tags.
  • In 81 Prozent aller Fälle fehlte das Keyword im Bildnamen.
  • Zu 61 Prozent werden bei den Bildnamen Underscores anstelle von Bindestrichen benutzt.

Bildoptimierung ist wichtig für Rankings und für Traffic. Ein guter Workflow bei der Bildoptimierung ist daher notwendig.

#5: Inkonsistente Überschriften-Struktur

Fehler in der Struktur der HTML-Überschriften sind ein Klassiker. So ging die Studie explizit auf fehlende H1-Überschriften ein, die bei 31 Prozent aller Seiten fehlte. Ebenfalls zu erwähnen sind Inkonsistenzen in den Überschriften. Wie oft erlebst du es, dass auf eine H1 eine H3-Überschrift folgt?

Diese Inkonsistenzen erschweren den Suchcrawlern das Erfassen der Seiten und bringen Ranking-Probleme mit sich.

#6: Dünner Content

Hier ist die Studie sehr anspruchsvoll. Sie moniert, dass 95 Prozent aller Webseiten einen Umfang von weniger als 2000 Wörtern aufweisen. Andere SEO-Tools fordern hier 300 bis 400 Wörter. Zwar rankt Content mit hohem Wortumfang nachweislich besser und wird häufiger verlinkt. Aber es kommt sicher auf die Funktion der Seite auf einer Website an. Startseiten mit reiner Übersichts- und Teaser-Funktion kommen selten auf 2000 Wörter und mehr.

#7: Ziel-Keywords werden nicht hervorgehoben

Weiter kritisiert die Studie an 85 Prozent aller Fälle, dass Ziel-Keywords im Textfluss optisch untergehen. Fettdruck, Unterstreichen oder Kursiv-Schrift wird gefordert.

Wer das geschickt macht, erhöht die Lesbarkeit für Mensch und Suchmaschine. Wer das übertreibt, bringt Unruhe in sein Schriftbild.

#8: Fehlende Ziel-Keywords am Beginn des Textes

60 Prozent aller Webseiten unterlassen es, das wichtige Ziel-Keyword im ersten Satz bzw. im ersten Absatz zu platzieren. Das kann zu einem Relevanz-Problem führen, wenn der Text darauf verzichtet, das Schwerpunkt-Thema der Seite klar zu kommunizieren.

Kommen wir nun zu Fehlern im Bereich der technischen Onpage-Optimierung.

Was sind die schlimmsten technischen Fehler?

#9: Flash ist immer noch nicht ausgestorben

Offenbar basieren 7 Prozent der untersuchten Webseiten auf Flash. Damit sind diese Seiten für Suchmaschen und für die User auf einigen Mobilgeräten nicht lesbar. Diese 7 Prozent stellen vielleicht auch noch auf HTML5 um.

#10: Nur 47 Prozent der Webseiten sind W3C-validiert

Hier haben wir einen Fehler, bei dem sich Experten trefflich streiten. Ist er relevant oder nicht? Und wann ist er relevant? Viel zitiert wird hier ein Matt-Cutts-Video, nach dem ein W3C-valider Code kein Ranking-Kriterium darstellt.

#11: 89 Prozent aller Webseiten haben inline CSS

Das ist schon eher ein Kriterium, denn Codemonster gehen in der Regel zu Lasten der Geschwindigkeit. Speed ist ein Ranking-Kriterium und außerdem wichtig für die Usability.

#12: 38 Prozent aller Webseiten nutzen keine Serverkomprimierung

Ein weiterer Fehler, der die Webseite langsam macht. Sollte für bessere Rankings und bessere Usability abgestellt werden.

#13: Bei 25 Prozent aller Webseiten fehlt eine Mobile Sitemap

Dadurch werden mobile Webseiten langsamer indiziert. Allerdings nur dann, wenn es für eine Webseite eine eigene mobile Version gibt. Responsive Webseiten brauchen keine eigene mobile Sitemap, so die Experten.

#14: Bei 64 Prozent aller Seiten fehlt das Viewport Metatag im < head >

Das kann zu Darstellungsproblemen bei mobilen Endgeräten führen und die Responsivität einschränken. Darauf sollten die Entwickler also gebrieft werden.

#15: Nur 23 Prozent aller Seiten nutzen https

Https ist eher ein Sicherheits-Thema. Wer sensible Kundendaten einsammelt, sollte darauf setzen. Experten bezeichnen HTTPS als schwach gewichteten Ranking-Faktor.

Fazit – Beurteilung der Studie

Die genannten Schwachstellen, die dieses Massen-Audit aufdeckte, sollte jeder gute SEO bzw. Content-Marketer vermeiden.

Bei den Keyword-Fehlern (Title, Description, Bildoptimierung,) stellt sich allerdings einem kritischen Betrachter die Frage nach der Validität des Audit-Tools. Die Frage, die du dir stellst, ist: „Kann dieses Audit-Tool Synonyme erkennen und diese Synonyme als gleichwertigen Keyword-Ersatz bewerten?“ Wenn ja, sind die hier gezeigten Keyword-Fehler im Content der Webseiten in ihrer Häufigkeit erschreckend. Eine Rückfrage bei MySiteAuditor, ob das Audit-Tool in der Lage ist, Synonyme zu Zielkeywords als solche zu erkennen, wurde bisher nicht beantwortet. (Stand: 10.1.2017)

Im Prinzip ist das für deinen SEO-Alltag auch nicht relevant. Denn da kommt es nur auf deine ärgsten Wettbewerber an. Deren SEO-Stärken und SEO-Schwächen identifizierst du, baust deine Seiten mindestens gleichwertig, was die SEO-Stärken angeht, und besser, wenn sich dein Konkurrent Blößen gibt.

Was sind euerer Meinung nach die schlimmsten SEO-Fehler? Schreibt mir gerne einen Kommentar.

Quelle: Mysiteauditor

Kommentare aus der Community

Oevermann - SEO Consulting am 27.12.2017 um 15:05 Uhr

Ein sehr wertvoller Beitrag und guter Einstieg in die SEO-Materie. Die genannten Punkte bieten zwar keine Überraschungen für die alten SEO-Hasen, zeigen aber kurz und bündig, was die wichtigsten Onpage-Faktoren sind.

Fehlt eigtl. nur noch Usability-Optimierung und Verlinkungsstrukturen.

Antworten
Kathinka am 25.09.2017 um 08:54 Uhr

Ich finde immer noch viele Kuden bei denen tatsächlich die „robots.txt“ im Quellcode fehlt, ohne die sinkt die Chane ganz gewaltig, dass ein crawler sich die Seite überhaupt vornimmt.

Antworten
Dominikus Biermann von szeneputzen.de am 16.06.2017 um 18:50 Uhr

Ich als nicht SEO Profi halte die Optimierung der internen linkstruktur auch als wesentlich an.

Zudem bin ich der Überzeugung, dass das Nutzerverhalten entscheidend ist. Die Besucher müssen also zunächst einmal positiv positiv reagieren. Das bedeutet: Conversion Optimierung ist das Zauberwort!

Auch für ein gutes SEO!

Aber ansonsten lieben Dank für die Liste! Ich werde auch auf meinem Portal noch so einiges zu optimieren haben.

Antworten
Peter am 18.01.2017 um 17:36 Uhr

„Zu 61 Prozent werden bei den Bildnamen Underscores anstelle von Bindestrichen benutzt.“
Das ist m.E. völlig egal, bzw Google behandelt es gleich.

Antworten
Sebastian am 08.06.2017 um 19:19 Uhr

Dem ist nicht so. Es sollten immer Bindestriche genutzt werden. Google sieht den „_“ immer noch als verbindendes Element an, während der Bindestrich ein teilendes Element ist. John Müller, der das Gegenteil behauptet, gibt manchmal sehr spontane, schwammige und willkürliche Antworten, die teilweise sogar den Google-Richtlinien widersprechen.

Antworten
Setzfehler am 21.06.2017 um 11:07 Uhr

Interessant! Das widerspräche den amtlichen (Duden-)Orthografieregeln, nach denen ein Bindestrich verbindet (deshalb heißt er ja so!) und ein Leerzeichen, die Entsprechung des Unterstrichs also, trennt: Ein „Leer Zeichen“ ist nun einmal etwas anderes (und zwar etwas Falsches!) als ein Leerzeichen, auch wenn sich diese Unsitte der Deppenleerzeichen dank der Werbung leider immer mehr durchsetzt (und mitunter geradezu lächerliche Züge annimmt).

Antworten
sunderland am 18.01.2017 um 09:12 Uhr

Tolle Zusammenstellung, das muss ich bei meiner Seite wohl noch einiges ändern, Super!

Antworten
Franz am 12.01.2017 um 18:52 Uhr

Der allerallerschlimmste Fehler ist aber, wenn man 14 schlimmste SEO-Fehler in der Head ankündigt, in Wahrheit aber 15 Fehler bespricht. #2×5. ;)

Antworten
Tina Bauer am 13.01.2017 um 10:05 Uhr

Ups, danke für den Hinweis. Der ist uns durchgerutscht! :)

Schönen Gruß,
Tina

Antworten
SEOCouch - Heiko am 12.01.2017 um 16:03 Uhr

Ein weiterer wichtiger Aspekt der OnPage-Optimierung, der in der Suchmaschinenoptimierung oftmals sehr stiefmütterlich behandelt wird aber einen großen Impact haben kann, ist der der internen Verlinkung! Wesentliches Ziel eines Verlinkungskonzeptes ist es, eine zielgerichtete Verteilung des Linkjuice innerhalb der gesamten Website zu ermöglichen.

Antworten
Piero Adamo am 12.01.2017 um 14:20 Uhr

Danke für den tollen Beitrag!
Kleine Anmerkung:
#13: Bei 64 Prozent aller Seiten fehlt das Viewport Megatag im ???
Sollte hier nicht stehen? ;-)

Liebe Grüße
Piero Adamo

Antworten
Tina Bauer am 13.01.2017 um 10:06 Uhr

Hi Piero,

Habe ich geändert. Sollte < head > heißen, wird ohne Leerzeichen aber scheinbar nicht angezeigt.

Viele Grüße,
Tina

Antworten
Sabine am 03.04.2017 um 09:55 Uhr

Hallo Tina, ihr habt die Überschrift geändert, aber in der URL ist immer noch von 14 Fehlern die Rede… Ansonsten finde ich den Artikel sehr gut, danke für diese gute Zusammenfassung!
Viele Grüße, Sabine

Antworten
Dennis Tröger am 11.01.2017 um 14:57 Uhr

Ha, vielen Dank für die Infos.

Da denkt man, man hat alles implementiert und dann sieht man, dass doch wieder etwas fehlt. Selbst eine gute Checkliste muss ständig optimiert und verbessert werden.

Ich bin gerade auf Digital Ocean migriert und habe direkt die Einrichtung von SSL vergessen!

Danke für den Tipp :)

Antworten
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.

*
*