SEO Mythen und Gerüchte – [Duplicate Content]

23 Dez
2015
seo

Das Jahr 2015 neigt sich dem Ende, was aber scheinbar niemals dem Ende entgegen geht, sind die unzählige Mythen und Gerüchte über die Google SEO, welche vor Abstrafung warnen und gewisse Methoden verteufeln.

So, was ist denn nun wirklich dran?

Ist der doppelte Inhalt, also der Duplicate Content wirklich so ein Monster? Und, sind die vielbeschworenen Backlinks jetzt plötzlich schädlich für das Ranking? Was hat das Domainalter mit dem Ranking zu tun? Unterscheidet Google qualitativen von schlechten Inhalt? Benötige ich noch Keywörter?
Zum Start unserer Gerüchte-Serie rund um Google nehmen wir den wohl bekanntesten und sogleich auch beliebtesten Klassiker aus den letzten Jahren.

Duplicate Content

Die Küche der Geschichten brodelt in etwa seit dem Jahre 2005. Zu dieser Zeit war es eine der beliebtesten SEO Strategien, komplette Inhalte auf X Server zu kopieren, um damit die Suchergebnisse zu manipulieren. Google updatete daraufhin seinen Algorithmus um den manipulativ erzeugten Inhalte aus dem Index verschwinden zu lassen.
Dieses Update wurde übrigens nach dem gemütlich aussehenden, Eukalyptus fressenden Bären benannt, dem Panda.
Selbst Fachartikel renommierter Zeitschriften waren sich darüber einig – doppelter Inhalte ist schädlich und hat negative Auswirkungen auf das Ranking. Punkt, Punkt, Punkt und noch zusätzlich in Stein gemeißelt.

Aber das war und ist nach wie vor absoluter Quatsch!

Der Bequemlichkeit wegen zitiere ich an erster Stelle einfach Susan Moskwa vom Google International Communications Team:
Jetzt lasst es uns ein für alle Mal klären, es gibt keine Duplicate Content Strafe

Zur absoluten Sicherheit nehmen wir noch Matt Cutts, hier in der bescheidenen Position als Chef des Webspam Teams von Google, der gefragt wurde:
How does Google handle duplicate content and what negative effects can it have on rankings from an SEO perspective?
(Sinngemäß: Wie handhabt Google Duplicate Content und welche negativen Auswirkungen hat es auf das Ranking?)

Matt gab gleich zu Beginn eine Schätzung ab, nach der 25%-30% des Webs aus doppelten Inhalten besteht. Er verwies ebenso auf die Tatsache, dass nicht jeder kopierte oder zitierte Absatz in einem Blog/Artikel gleich als doppelter Inhalt (DC) gewertet wird — es kommt ganz klar auf die Verhältnismäßigkeit an.

[…] Duplicate Content wird nicht als Spam betrachtet […], […] Google versucht Doppelte Inhalte zu gruppieren. […]
Das ganze wurde übrigens im Jahr 2013 auf dem Webmaster-Help-Channels ausgesprochen.
Quelle: Matt Cutts
Google Webmaster Help

Ich denke das es nicht betont werden muss, zur Erinnerung sei trotzdem gesagt, das ist natürlich kein Freibrief um wie ein Japanischer Fischerkutter durchs Web zu ziehen um Schleppnetzartig fremden Content zu saugen und diesen dann, genüsslich und einfach auf die eigene Webseite zu packen.
Das klappt auf Dauer nicht im Meer und ebenfalls nicht auf der Webseite.
Wenn Sie nicht die Zeit und Muße haben, schreiben Sie uns an, wir kümmern uns auch um Ihren Inhalt.

Leave a reply