Dein wichtigster Touchpoint zur Digitalbranche.
Dein wichtigster Touchpoint zur Digitalbranche.
SEO - Suchmaschinenoptimierung
Typische Duplicate-Content-Fallen und sinnvolle Gegenmaßnahmen

Typische Duplicate-Content-Fallen und sinnvolle Gegenmaßnahmen

Atilla Wohllebe | 21.10.14

Probleme mit Duplicate Content können in den Google SERPs zu herben Abstrafungen führen. Diese typischen Fallen gilt es unbedingt zu vermeiden.

Typische Onsite Duplicate-Content-Probleme auf (fast) jeder Website

Duplicate Content innerhalb meiner eigenen Website? Kann mir nicht passieren. Wie denn auch? Schließlich sind meine Inhalte doch alle unique… oder?

Auch wenn der Glaube, innerhalb der eigenen Website keine Duplicate Content Probleme zu haben, nur allzu naheliegt, ist er doch meist fern der Realität. Dabei sind die Folgen für die Platzierung in den Suchergebnissen von Suchmaschinen wie Google meist nur schwer abzusehen – zwischen bestenfalls keiner Auswirkung und empfindlichen Abstrafungen ist fast alles möglich. Dabei sind die meisten Duplicate Content Probleme allerdings weniger auf offensichtlich doppelte, etwa redaktionelle Inhalte zurückzuführen, sondern vielmehr fast schon technischer Natur. Doch was sind die Folgen von doppelten Inhalten?

Ein Aufstellung aus der Feder von Navneet Kauschal von Search Engine Watch in einem aktuellen Artikel zeigt folgende, möglicherweise aufkommende Probleme auf:

  • Der Crawling Rhythmus des Google Bots kann sich verringern, da unnötig viele, aber ähnliche Seiten gecrawlt werden
  • Neue Inhalte werden nur verlangsamt in den Google Index aufgenommen
  • Von bestehenden, teilweise doppelten Inhalten werden möglicherweise die nicht gewünschten indexiert

Dabei sind die Ursachen für doppelte Inhalte durchaus vielfältig. Zu den typischen Ursachen gehören URLs, die mit und ohne www erreichbar sind oder auch solche, die mal mit angehängten Parametern, mal ohne angehängte Parameter als Backlinks existieren. Blogs produzieren außerdem durch Artikelsammlungen über Kategorien und Schlagworte doppelte Inhalte, Online Shops über ähnliche Produkte mit ähnlichen Produktbeschreibungen auf unterschiedlichen URLs. Doch wie lassen sich diese Duplicate Content Probleme eindämmen oder gar komplett umgehen?

Sechs Tipps – So lassen sich doppelte Inhalte vermeiden

Duplicate Content innerhalb einer Website komplett zu vermeiden, dürfte nur schwer sein. Zu viele potenzielle Möglichkeiten gibt es, doppelte Inhalte aufzuweisen, zu stark sind viele Online Händler und Blogs von ihren Shop- und Content Management Systemen abhängig. Grundsätzlich können allerdings folgende sechs Tipps weiterhelfen:

  1. Einrichten einer 301 Weiterleitung von einer Seite mit doppelten Inhalten auf das Original
  2. Kennzeichnung einzelner doppelter Inhalte mit dem rel=canonical Tag
  3. Auflistung nicht zu indexierender Seiten (etwa aufgrund doppelter Inhalte) in der robots.txt
  4. Implementierung von Responsive Design anstatt einer gesonderten Ausweisung mit einer mobilen Website durch m.beispiel.de
  5. Kontrolle von Gastartikeln und Kommentaren auf doppelte Inhalte
  6. Setzen auf softwareseitige Unterstützung etwa durch die Google Webmaster Tools, Siteliner oder Virante Duplicate Content Checker

Wie vermeidet ihr doppelte Inhalte? Und wie empfindlich ist speziell Google wirklich bei dem ganzen Thema?

Kommentare aus der Community

Ihor am 28.03.2017 um 13:19 Uhr

Danke für den Artikel.

Antworten
Markus - SEO Agentur seomatik am 24.10.2014 um 13:03 Uhr

Kai hat Recht !

Antworten
Utku am 22.10.2014 um 09:06 Uhr

Guter kurzer Artikel, es sollte jedoch klar gesagt werden, dass es durchaus erlaubt ist, gleiche Artikel auf zig anderen Portalen/Seiten zu veröffentlichen.

Antworten
Kai am 22.10.2014 um 16:16 Uhr

Ähm, Entschuldigung, das stimmt leider absolut nicht. Denn das ist dann duplicate content in seiner reinsten Form.

Google wird immer „menschlicher“ und verlangt von ehrlichen Bloggern und sonstigen Content-Produzenten, dass sie einmaligen Inhalt liefern und auch verbreiten. Genauso erwarten es ja auch die Nutzer – denn es wäre ja komplett beliebig, wenn mein Lieblingsblog seine Artikel nun plötzlich auch auf x verschiedenen anderen Blogs veröffentlichen würde, so wie es gerade passt.

Also: wenn man sich selbst einen Gefallen tun möchte, lieber die Texte umschreiben, auf das jeweilige Publikum anpassen und so keine Google-Strafe riskieren.

Antworten
RankHero am 21.10.2014 um 12:41 Uhr

Ich denk, dass man Nr. 3 eher etwas für erfahrenere Menschen ist. Denen von Anfang an klar ist, dass auf der Seite duplizierte Inhalte präsentiert werden.
Generell ein schwieriges Thema vor allem für Online Shops.

Antworten
Markus Sommer am 21.10.2014 um 10:09 Uhr

Den Einsatz von Punkt 3 sollte man sich allerdings immer genau überlegen, gerade bei bereits bestehenden Problemen stellt dieser nicht unbedingt eine sinnvolle Lösung dar. Eine Sperrung per Robots.txt führt hier nicht zu einer Deindexierung, sonder verhindert lediglich ein erneutes Crawling (was wiederum dazu führen kann, dass nachträglich eingefügte noIndex, canonical usw. Anweisungen im Head der entsprechenden Dokumente nicht mehr bearbeitet werden und somit wirkungslos bleiben.

Antworten
Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

*
*