Professionelle Webdesign und Online Marketing

Methoden um Duplicate-Content Vermeidung
Copy me: Doppelt gemoppelt hält besser?!
Erfolg Ihrer Seiten bei den Suchmaschinen
Suchmaschinenmarketing und -Optimierung

...Suchmaschinen und Duplicate Content

Instant-Werbung mit Google Adwords... Werbung für die eigene Homepage in einer Suchmaschine mit Google Sponsored-Links!

Content KlauContentduplikate - Content Klau

Kopierte Webinhalte weiten sich mittlereweile zu einer richtigen Plage aus. Worum geht es? Unseriöse Zeitgenossen lassen zu wertvollen (sprich kommerziell gut nutzbaren) Suchbegriffen bei Suchmaschinen automatisierte Abfragen laufen und kopieren anschließend einfach die Inhalte der gut gerankten Websites.

 

Diese Inhalte stellen sie dann auf Ihre eigene Website. Damit hofft man, ebenfalls durch den anscheinend guten Text der kopierten Seiten an gute Positionen in Suchmaschinen zu kommen. Haben Sie bisher nur eine kleine und recht unbedeutende Website, kann Ihnen dieses parasitäre Vorgehen durchaus Probleme machen.

 

Suchmaschinen sind ständig intern auf der Suche nach Duplikaten und Fast- Duplikaten in ihrem eigenen Index und eliminieren diese. Dem Suchenden soll nur ein Ergebnis für einen bestimmten Inhalt angezeigt werden. Existieren noch mehrere Kopien, werden diese im Suchergebnis unterdrückt. Dazu aber später mehr...

 

Was ist Duplicate Content?

Zunächst stellt sich die Frage: Was genau ist eigentlich "Duplicate Content"? Als Duplicate Content werden üblicherweise Seitenbereiche bezeichnet, die anderem Content - domainintern oder domainübergreifend - entweder genau gleichen oder diesem deutlich ähnlich sind. Meistens ist dies unbeabsichtigt oder zumindest kein böser Wille: Foren, die sowohl reguläre als auch für Handys optimierte Seiten generieren, Artikel in Onlineshops, die unter mehreren URLs gelistet (und – schlimmer noch – verlinkt) werden, usw. In manchen Fällen wird versucht, Content domainübergreifend zu duplizieren, um Suchergebnisse zu manipulieren oder um mehr Traffic mittels populärer oder „long-tail“ Suchanfragen zu generieren.

 

Beispiele für Duplicate Content

Ein klassisches Beispiel für "Duplicate Content" ist die Syndizierung von Artikeln. Viele Autoren stellen Ihre Artikel mehreren Online-Medien zur Verfügung, so dass es Seiten auf verschiedenen Websites gibt, die denselben Artikel zeigen. Die jeweiligen Seiten unterscheiden sich nur durch das Layout und eventuelle marginale Textänderungen.

 

Es geht aber auch um andere Situationen. So kann es passieren, dass auf einer Website ein Artikel zweimal vorkommt: in der normalen Web-Version und in der Print-Version. Wenn beide Seiten vom Google-Spider erfasst werden können, befindet sich ein Artikel zweimal im Index.

 

Die Frage, wann eine Seite "duplicate" ist, ist nicht einfach zu beantworten. Laut Google gibt es zumindest keinen Prozentsatz, der als Kriterium dienen kann (X Prozent der Wörter zweier Seiten sind identisch). Auch weist Google darauf hin, dass "duplicate" nicht unbedingt semantisch gemeint ist: Ein Artikel, der in mehreren Sprachen vorliegt, wird nicht als Dublette erkannt.

 

Ist Ihre Website von Kopien betroffen?

Ob und in welchen Maße Ihre Webseite vonKopierern betroffen ist, könnenSie recht schnell und bequem bei Copyscape überprüfen. Geben Sie einfach in den dc ueberprüfenSuchschlitz Ihren Domainnamen (www.domain.de) oder gezielt eine bestimmte Seite Ihres Websuftritts ein.
(siehe bitte Abbildung)

 

Sie sehen nun Webseiten aufgelistet, die mit hoher Wahrscheinlichkeit Inhalte oder Ihre komplette Webseiten abkopiert (hier im Beispiel von www.baw-online.de) und mehr oder weniger getarnt als eigenen Content präsentieren. Dominiert eine kopierende Webseite Ihre eigene in der Suchmaschine, wird möglicherweise die fremde Site statt der Ihren angegeben. Schliesslich kann die Suchmaschine nur anhand weniger Kriterien automatisiert feststellen, wem der Content denn nun wahrscheinlich tatsächlich gehört. Die Urheber sitzen meist im Ausland und sind rechtlich schwer zu greifen.

 

Methoden um Duplicate-Content zu verhindern

Das Thema "Duplicate Content" hat zwei Facetten: die vorsätzliche Erstellung von Dubletten zur Verbesserung des Suchmaschinen-Ranking und das versehentliche mehrfache Anbieten derselben Inhalte.

 

Sollten Sie von diesem Problem (dass eine fremde Seite Ihre dominiert, das »Kopiertwerden« ist an sich alleine noch nicht Besorgniserregend) betroffen sein, würde ich Ihnen empfehlen, entweder den Content auf Ihren Seiten zu ändern oder beim Google einen DMCA Antrag zu stellen. Mit der Änderung würden Sie eine inhaltliche Differenz zu den Kopien herstellen und tauchen sicherlich bald in den Suchergebnissen wieder auf.

 

Gegen die zweite Variante geht Google manuell vor und bestraft die in Frage kommenden Websites manuell durch Ausschluss aus dem Suchmaschinen-Index. Hinweis: Sie können diesen Ausschluss wohl kaum herbeiführen, wenn man nicht versucht hat, Google in die Irre zu führen. Es kann auch sein, das hier nicht das Entfernen aus dem Index oder eine Abstrafung durchgeführt wird, sondern "nur" ein Ausfiltern der angezeigten Ergebnisse: Die Kopien werden algorithmisch aus der Ergebnisliste herausgenommen, bleiben aber dennoch im Suchmaschinen-Index und können so für andere Suchanfragen gefunden werden.

 

Eine Lösung auf Dauer ist es aber sicherlich nicht, denn die Kopierer kommen möglicherweise wieder vorbei. In diesem Fall hilft nur, die Logfiles auf ungewöhnlichen Traffic zu überwachen, so die IP-Adressen der Websauger ausfindig zu machen und diese anschliessend zu sperren.

 

Hier ein Beispiel:

#Spammer aussperren
order allow,deny
allow from all
deny from 202.54.122.33
deny from 8.70.44.53
deny from .spammers.com
deny from 217.68.165. #gizliweb
deny from 217.20.117. #gizliweb
deny from 89.149.194. #gizliweb
deny from 208.101.13.210 #gizliweb
deny from 66.150.225.84 #redime.com
deny from 69.41.173.145 #webwarper
deny from 69.41.165.155 #webwarper mirror
deny from 203.66.143.125 #tc2en.mojolingo.com.tw
deny from 202.125.39.37 #webproxy.250.com
deny from 208.53.138.133 #78y.net

 

Erstellen Sie eine .htaccess-Datei mit der oben gennanten Code oder Sie laden unsere fertige .htaccess runter. Jetzt müssen Sie noch die fertige .htaccess (per FTP) auf den Webspace laden. Es muß in das Rootverzeichnis Ihres Website gelegt werden (i.d.r. ist das gleiche Verzeichnis, in dem Ihre Index-Datei gesetzt ist).

 

Gegenmaßnahmen für eigene DC-Seiten

Google zeigt auch einige Gegenmaßnahmen auf, die Webmaster ergreifen sollten, um negative Effekte gezielt auszuschließen, z.B.:

 

  • 301 Redirects nutzen: Wenn ihr eine Website umstrukturiert habt, nutzt 301 Redirects (Permanent Redirect) in eurer .htaccess-Datei, um User, den Googlebot und andere Spider elegant weiterzuleiten.
  • Syndicaten: Wenn ihr Content auf anderen Websites mittels Feeds zur Verfügung stellt, dann achtet darauf, dass immer ein Backlink zum Original-Artikel vorhanden ist. Idealerweise sollten syndizierte Artikel immer auf den Original-Artikel zurückverlinken.
  • Konsistenz: versucht bei der internen Verlinkung einheitlich zu bleiben; linkt nicht zu /seite/ , /seite und /seite/index.htm.
  • Das „Bevorzugte Domain“ definieren: Andere Websites, die euch verlinken, geben vielleicht eure URLs sowohl mit als auch ohne www an. Ihr könnt mit Mod Rewrite Sumas die richtige bzw. (z.B. http://www.domain.de oder http://domain.de ) die bevorzugte Version (was ihr im Index sehen möchtet) mitteilen.
  • Wiederholung von Textstücken vermeiden: Fügt z. B. anstelle eines langen Copyright-Textes am Ende jeder Seite eine kurze Zusammenfassung ein und linkt dann zu einer Seite, die alle Details enthält.
  • Richtig blockieren: Anstatt die Algorithmen von SUMAS bestimmen zu lassen, welches die „beste“ Version eines Dokuments ist, könnt ihr SUMAS bei der Auswahl der von euch bevorzugten Version helfen. Wenn ihr beispielsweise nicht möchtet, dass Sumas die Druckansichten eurer Artikel indexieren, dann setzt ein Disallow für die entsprechenden Verzeichnisse oder verwendet reguläre Ausdrücke in der robots.txt-Datei.

 

Zusammenfassend kann man also vor allem sagen, dass "Duplicate Content" in der Regel kein Problem ist - solange man einige Grundregeln beachtet und Inhalte nicht absichtlich mehrfach verwendet. Durch ein generelles Bewusstsein für den Umgang mit Duplicate Content und ein paar Minuten für durchdachte, präventive Pflege eurer Website seit ihr auf der sicheren Seite.