Die "Duplicate Content-Penalty" - entmystifiziert!

Mit Sammlungen den Überblick behalten Sie können Inhalte basierend auf Ihren Einstellungen speichern und kategorisieren.

Freitag, 12. September 2008

Duplicate Content. Ein andauerndes Thema. Wir schreiben ständig darüber , und User fragen ständig danach . Vor allem höre ich noch immer, dass viele Webmasters besorgt darüber sind ob ihre Site möglicherweise die "Duplicate Content-Penalty" hat.

Lasst uns also eines ein für alle Mal klarstellen: Es gibt keine "Duplicate Content-Penalty".

Zumindest nicht in der Art und Weise, wie es die meisten User beschreiben, wenn sie darüber sprechen.

Es gibt einige Penalties, die mit dem Konzept zusammenhängen, dass eine Site den gleichen Content hat wie eine andere Site. Wenn ihr beispielsweise Content von anderen Sites unerlaubt übernehmt und diesen wieder veröffentlicht, oder falls ihr Content wiederveröffentlicht ohne Mehrwert hinzuzufügen. Diese Techniken sind in folgendem Auszug aus unseren Richtlinien für Webmaster klar (und als nicht empfehlenswert) beschrieben:
  • Erstellen Sie keine doppelten Seiten, Sub-Domains oder Domains, die im Grunde denselben Inhalt haben.
  • Vermeiden Sie [...] die Verwendung anderer vorgefertigter Techniken wie z. B. Partnerprogrammen ohne oder mit nur geringem eigenem Inhalt.
  • Falls Sie mit Ihrer Website an einem Partnerprogramm teilnehmen, prüfen Sie, ob Ihre Website einen wirklichen Wertgewinn darstellt. Stellen Sie speziellen und relevanten Content bereit, der Nutzer zum Besuch Ihrer Website veranlasst.
Die meisten Webmaster, die sich über Duplicate Content sorgen, reden jedoch nicht von Scraping oder Domainfarms; sie beziehen sich eher auf mehrfache URLs auf derselben Domain, die denselben Content aufweisen, wie beispielsweise www.example.com/skates/black/riedell/ und www.example.com/riedell/skates/black/ . Diese Art von Duplicate Content kann möglicherweise Einfluss darauf haben, wie eure Site in den Suchergebnissen erscheint - sie verursacht jedoch keine Penalties. Ein Auszug aus unseren Richtlinien für Webmaster zum Thema Duplizierter Content :
    Duplizierter Content auf einer Website ist kein Grund für Maßnahmen gegen diese Website, außer es scheint, dass mit diesem duplizierten Content Nutzer getäuscht bzw. Suchmaschinenergebnisse manipuliert werden sollen. Falls Ihre Website duplizierten Content enthält und Sie nicht den oben beschriebenen Tipps folgen, tun wir unser Bestes, eine Version des Contents in unseren Suchergebnissen anzuzeigen.
Diese Art von Duplizierung ohne bösen Hintergedanken ist recht häufig, insbesondere da viele CMS damit oft nicht gut umgehen können. Wenn Leute also sagen, dass diese Art von Duplicate Content einen Einfluss auf ihre Site haben kann, dann nicht etwa deshalb, weil gezielte Maßnahmen dagegen ergriffen werden, sondern schlicht aufgrund der Tatsache, dass Websites und Suchmaschinen in einer bestimmten Art und Weise funktionieren.

Die meisten Suchmaschinen streben ein gewisses Maß an Vielfalt an; sie möchten euch zehn verschiedene Ergebnisse auf einer Ergebnisseite zeigen anstelle von zehn verschiedenen URLs, die alle denselben Content haben. Aus diesem Grund versucht Google Duplikate herauszufiltern, damit Usern so wenig wie möglich redundante Ergebnisse angezeigt werden. Mehr dazu könnt ihr in diesem Blogpost erfahren, der u. a. sagt:
  1. Wenn wir feststellen, dass Duplicate Content vorliegt, der beispielsweise durch Variationen von URL-Parametern hervorgerufen wird, dann fassen wir diese duplizierten URLs zu einer Gruppe zusammen.
  2. Wir wählen dann jene URL aus, die als am besten geeignet erscheint, die jeweilige Gruppe in den Suchergebnissen zu vertreten.
  3. Schließlich werden bestimmte Eigenschaften der URLs aus der Gruppe, wie z. B. die Link-Popularität, vereinigt und auf die im vorigen Schritt ermittelte URL übertragen.
Mögliche Konsequenzen für euch als Webmaster sind:
  • Bezüglich Schritt 2: Googles Auffassung davon, was die "am besten geeignetste" URL ist, stimmt eventuell nicht mit eurer Auffassung überein. Wenn ihr mehr Kontrolle darüber haben möchtet, ob www.example.com/skates/black/riedell/ oder www.example.com/riedell/skates/black/ in unseren Suchergebnissen angezeigt wird, dann lohnt es sich für euch darüber nachzudenken, wie ihr diese Duplizierung vermindern könnt. Ein Weg uns wissen zu lassen, welche URL ihr bevorzugt, besteht darin, diese in eurer Sitemap anzugeben.
  • Bezüglich Schritt 3: Wenn wir nicht in der Lage sind, alle Duplikate einer bestimmten Seite zu identifizieren, dann können wir diese nicht entsprechend zusammenfassen. Dies könnte die St ä rke der einzelnen Rankingsignale dieses Contents mindern, da sie über verschiedene URLs aufgeteilt sind.
In den meisten Fällen handhabt Google diese Art von Duplizierung sehr gut. Es lohnt sich für euch jedoch auch auf Duplicate Content zu achten, der eventuell über verschiedene Domains verteilt ist. Insbesondere wenn ihr euch dafür entscheidet, eine Site zu erstellen, die in erster Linie auf Contentduplizierung basiert, dann solltet ihr dies überdenken, falls euer Geschäftsmodell auf Suchtraffic abzielt. Wir hören beispielsweise mitunter von Amazon.com-Affiliates, die es schwer haben für ihren Amazon-Content zu ranken. Will Google sie dafür bestrafen, dass sie versuchen Everyone Poops zu verkaufen? Nein - nur, weshalb sollten sie besser ranken als Amazon selbst, wenn sie genau die gleichen Einträge bieten? Amazon besitzt eine sehr große Autorität als Onlinebusiness (die sehr wahrscheinlich wesentlich größer ist, als die einer typischen Amazonaffiliate-Site) - üblicherweise werden User der Google-Suche daher wohl die Originalinformationen auf Amazon bevorzugen, zumindest solange die Affiliate-Site nicht einen erheblichen Mehrwert bietet.

Es lohnt sich nicht zuletzt auch, die Auswirkungen zu beachten, die Duplizierung auf die Bandbreite eurer Site haben kann. Duplicate Content kann zu ineffizientem Crawling führen: Wenn Googlebot zehn URLs auf eurer Site entdeckt, dann muss er jede dieser URLs crawlen, um herauszufinden, ob sie denselben Content beinhalten (und sie entsprechend, wie oben beschrieben, zusammenzufassen). Je mehr Zeit und Ressourcen Googlebot darauf verwenden muss um duplizierten Content auf mehrfachen URLs zu crawlen, desto weniger Zeit hat er, den Rest eures Contents zu erfassen.

Zusammenfassend: Duplicate Content kann eure Site auf verschiedene Arten beeinflussen; solange ihr jedoch nicht absichtlich Duplizierungen erzeugt, ist es unwahrscheinlich, dass eventuelle unerwünschte Auswirkungen aufgrund einer Penalty entstehen. Dies bedeutet, dass:
  • ihr keinen Antrag auf erneute Überprüfung einreichen m ü sst, wenn ihr unbeabsichtigte Duplikate entfernt habt.
  • ihr, falls ihr Webmaster im Anfangsstadium seid, wohl nicht zu viel Energie darauf verwenden m ü sst, ü ber Duplicate Content besorgt zu sein, da die meisten Suchmaschinen damit umgehen k ö nnen.
  • ihr anderen Webmastern helfen könnt, indem ihr den Mythos der Duplicate Content-Penalties nicht weiter verbreitet! Ihr habt alle Mittel zur Hand, um gegen Duplicate Content vorzugehen. Hier sind einige gute Hinweise um anzufangen .
Demystifying the "duplicate content penalty" (English version)

Post von Susan Moskwa, Webmaster Trends Analyst (Übersetzung von Claudia, Search Quality)