Is duplicate content schadelijk?

Door Thomas van EldijkBijgewerkt op 3 mei 2024 2 Reacties

Duplicate content ontstaat vrij snel omdat:

Als je googelt op ‘duplicate content’ vind je een woud van meningen en vooral tips om de ‘gevaarlijke’ duplicate content te voorkomen. Ik ben daarom maar naar de bron gegaan. Wat zegt Google zelf over duplicate content?

In dit artikel laat ik quotes zien van Google die over duplicate content gaan en leg ik uit wat dit voor ons als website-eigenaar of beheerder betekent.

Is duplicate content schadelijk voor je vindbaarheid?

"Duplicate content on a site is not grounds for action on that site unless it appears that the intent of the duplicate content is to be deceptive and manipulate search engine results."

Nee, duplicate content schaadt niet de vindbaarheid van je website. Duplicate content wordt pas schadelijk wanneer je dit zeer bewust en kwaadwillend inzet.

Dat betekent niet dat duplicate content goed is voor je vindbaarheid. Sinds de Panda Update (een update in het zoekalgoritme van Google) in 2011 kijkt Google strenger naar hoe uniek een tekst is. Hierbij wordt de tekst vergeleken met andere pagina’s op het internet, inclusief de pagina’s op je eigen website.

Op de hoogte blijven van de laatste internet trends? Meld je aan op onze nieuwsbrief

Tips van Google om duplicate content te voorkomen:

Stel dat je een pagina een andere titel geeft waardoor de URL verandert, maak dan een redirect aan van de oude URL naar de nieuwe URL via een 301redirect. Een 301 redirect geeft bij Google aan dat het gaat om een permanente omleiding. Je kunt dit proces het beste zoveel mogelijk automatiseren en direct vanaf het begin goed opzetten. Binnen Drupal is het bijvoorbeeld mogelijk om direct bij het aanpassen van de titel (en dus de URL) een 301 redirect aan te laten maken.

Use Search Console to tell us how you prefer your site to be indexed: You can tell Google your preferred domain (for example, https://www.example.com or https://example.com).

Technisch gezien, en dus in de ogen van Google, is er een verschil tussen deze URL’s. Zorg dus voor een goede redirect die er voor zorgt dat je website altijd verspringt naar www.example.com als iemand toch https://example.com gebruikt.

"Minimize boilerplate repetition: For instance, instead of including lengthy copyright text on the bottom of every page, include a very brief summary and then link to a page with more details."

Dit heeft te maken met de uniekheid van een pagina waar ik het eerder over had. Je kunt elke pagina meer uniek maken door de elementen die herhaald worden kleiner te maken. Stel dat je bijvoorbeeld een groot footermenu gebruikt met heel veel links en tekst. Dan wordt elke pagina van je website minder uniek omdat ze een groot gedeelte met elkaar gemeen hebben.

Understand your content management system: Make sure you're familiar with how content is displayed on your website. Blogs, forums, and related systems often show the same content in multiple formats. For example, a blog entry may appear on the home page of a blog, in an archive page, and in a page of other entries with the same label.

Ook hierbij gaat het weer om de uniekheid van een pagina en dit verklaart waarom overzichten het vaak zo slecht doen in Google. Een overzicht van blogartikelen laat meestal een stukje introtekst zien die al op het blogartikel zelf staat. In feite bestaan veel overzichtspagina’s uit duplicate content. Dit geldt ook voor dienstenpagina’s, evenementenoverzichten, etc. Je kunt en hoeft dit niet per se te voorkomen, alleen moet je geen hoge verwachtingen hebben van deze overzichtspagina’s. Wil je dat deze pagina’s het toch goed doen in Google? Dan zul je dus meer unieke content op deze pagina’s moeten plaatsen.

Minimize similar content: If you have many pages that are similar, consider expanding each page or consolidating the pages into one.

Dit komt overeen met een trend die al langer gaande is, en dat is dat langere artikelen (meer dan 2000 woorden) het beter doen in Google. Dit is geen SEO-verzinsel maar iets wat al langer onderzocht en bewezen wordt. Wil je hier meer over weten, lees dan ook mijn artikel ‘Waarom worden lange artikelen beter gevonden in Google?’.

Google does not recommend blocking crawler access to duplicate content on your website, whether with a robots.txt file or other methods. If search engines can't crawl pages with duplicate content, they can't automatically detect that these URLs point to the same content and will therefore effectively have to treat them as separate, unique pages. A better solution is to allow search engines to crawl these URLs, but mark them as duplicates by using the rel="canonical" link element, the URL parameter handling tool, or 301 redirects. In cases where duplicate content leads to us crawling too much of your website, you can also adjust the crawl rate setting in Search Console.

Soms komt het voor dat je duplicate content creëert in je website. Bijvoorbeeld bij een multisite-omgeving waarbij je content deelt over meerdere websites vanuit één CMS. In dat geval raadt Google het dus af via de robots.txt in te stellen dat Google niet bij deze duplicate content mag kijken, maar is het gebruik van een canonical URL aan te raden. De canonical URL geeft de originele URL weer. Op die manier weet Google dat het om duplicate content gaat en weet Google ook waar de bron staat.

Wil je weten hoeveel tekst binnen jouw eigen website uniek is? En welke pagina’s te veel duplicate content bevatten? Probeer dan eens deze tool: https://www.siteliner.com

Heb je vragen of tips over duplicate content? Dan lees en beantwoord ik ze graag hieronder in het reactiegedeelte.

Meer inzichten over SEO