SEO - Suchmaschinenoptimierung

Typische Duplicate-Content-Fallen und sinnvolle Gegenmaßnahmen

Probleme mit Duplicate Content können in den Google SERPs zu herben Abstrafungen führen. Diese typischen Fallen gilt es unbedingt zu vermeiden.

© RATOCA - Fotolia.com

© RATOCA - Fotolia.com

Typische Onsite Duplicate-Content-Probleme auf (fast) jeder Website

Duplicate Content innerhalb meiner eigenen Website? Kann mir nicht passieren. Wie denn auch? Schließlich sind meine Inhalte doch alle unique… oder?

Anzeige:

Auch wenn der Glaube, innerhalb der eigenen Website keine Duplicate Content Probleme zu haben, nur allzu naheliegt, ist er doch meist fern der Realität. Dabei sind die Folgen für die Platzierung in den Suchergebnissen von Suchmaschinen wie Google meist nur schwer abzusehen – zwischen bestenfalls keiner Auswirkung und empfindlichen Abstrafungen ist fast alles möglich. Dabei sind die meisten Duplicate Content Probleme allerdings weniger auf offensichtlich doppelte, etwa redaktionelle Inhalte zurückzuführen, sondern vielmehr fast schon technischer Natur. Doch was sind die Folgen von doppelten Inhalten?

Ein Aufstellung aus der Feder von Navneet Kauschal von Search Engine Watch in einem aktuellen Artikel zeigt folgende, möglicherweise aufkommende Probleme auf:

  • Der Crawling Rhythmus des Google Bots kann sich verringern, da unnötig viele, aber ähnliche Seiten gecrawlt werden
  • Neue Inhalte werden nur verlangsamt in den Google Index aufgenommen
  • Von bestehenden, teilweise doppelten Inhalten werden möglicherweise die nicht gewünschten indexiert

Dabei sind die Ursachen für doppelte Inhalte durchaus vielfältig. Zu den typischen Ursachen gehören URLs, die mit und ohne www erreichbar sind oder auch solche, die mal mit angehängten Parametern, mal ohne angehängte Parameter als Backlinks existieren. Blogs produzieren außerdem durch Artikelsammlungen über Kategorien und Schlagworte doppelte Inhalte, Online Shops über ähnliche Produkte mit ähnlichen Produktbeschreibungen auf unterschiedlichen URLs. Doch wie lassen sich diese Duplicate Content Probleme eindämmen oder gar komplett umgehen?

Sechs Tipps – So lassen sich doppelte Inhalte vermeiden

Duplicate Content innerhalb einer Website komplett zu vermeiden, dürfte nur schwer sein. Zu viele potenzielle Möglichkeiten gibt es, doppelte Inhalte aufzuweisen, zu stark sind viele Online Händler und Blogs von ihren Shop- und Content Management Systemen abhängig. Grundsätzlich können allerdings folgende sechs Tipps weiterhelfen:

  1. Einrichten einer 301 Weiterleitung von einer Seite mit doppelten Inhalten auf das Original
  2. Kennzeichnung einzelner doppelter Inhalte mit dem rel=canonical Tag
  3. Auflistung nicht zu indexierender Seiten (etwa aufgrund doppelter Inhalte) in der robots.txt
  4. Implementierung von Responsive Design anstatt einer gesonderten Ausweisung mit einer mobilen Website durch m.beispiel.de
  5. Kontrolle von Gastartikeln und Kommentaren auf doppelte Inhalte
  6. Setzen auf softwareseitige Unterstützung etwa durch die Google Webmaster Tools, Siteliner oder Virante Duplicate Content Checker

Wie vermeidet ihr doppelte Inhalte? Und wie empfindlich ist speziell Google wirklich bei dem ganzen Thema?

Über Atilla Wohllebe

Atilla Wohllebe

Atilla Wohllebe berichtet für OnlineMarketing.de über aktuelle Entwicklungen der Branche mit Fokus auf Webanalyse, SEO und Datenschutz. Parallel zu seinem Studium zum Master of Science in E-Commerce an der FH Wedel ist er im Bereich E-Mail Marketing Consulting tätig.

5 Gedanken zu „Typische Duplicate-Content-Fallen und sinnvolle Gegenmaßnahmen

  1. Utku

    Guter kurzer Artikel, es sollte jedoch klar gesagt werden, dass es durchaus erlaubt ist, gleiche Artikel auf zig anderen Portalen/Seiten zu veröffentlichen.

    Antworten
    1. Kai

      Ähm, Entschuldigung, das stimmt leider absolut nicht. Denn das ist dann duplicate content in seiner reinsten Form.

      Google wird immer „menschlicher“ und verlangt von ehrlichen Bloggern und sonstigen Content-Produzenten, dass sie einmaligen Inhalt liefern und auch verbreiten. Genauso erwarten es ja auch die Nutzer – denn es wäre ja komplett beliebig, wenn mein Lieblingsblog seine Artikel nun plötzlich auch auf x verschiedenen anderen Blogs veröffentlichen würde, so wie es gerade passt.

      Also: wenn man sich selbst einen Gefallen tun möchte, lieber die Texte umschreiben, auf das jeweilige Publikum anpassen und so keine Google-Strafe riskieren.

      Antworten
  2. RankHero

    Ich denk, dass man Nr. 3 eher etwas für erfahrenere Menschen ist. Denen von Anfang an klar ist, dass auf der Seite duplizierte Inhalte präsentiert werden.
    Generell ein schwieriges Thema vor allem für Online Shops.

    Antworten
  3. Markus Sommer

    Den Einsatz von Punkt 3 sollte man sich allerdings immer genau überlegen, gerade bei bereits bestehenden Problemen stellt dieser nicht unbedingt eine sinnvolle Lösung dar. Eine Sperrung per Robots.txt führt hier nicht zu einer Deindexierung, sonder verhindert lediglich ein erneutes Crawling (was wiederum dazu führen kann, dass nachträglich eingefügte noIndex, canonical usw. Anweisungen im Head der entsprechenden Dokumente nicht mehr bearbeitet werden und somit wirkungslos bleiben.

    Antworten

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *