Schrik niet van deze conclusie. Ongeveer 25 tot 30% van alle content op het internet is duplicate en dit zorgt niet voor zware Google penalty’s. Wel beïnvloed het je positie in de zoekresultaten potentieel ernstig.

Wat is duplicate content?

Google heeft voor ons het antwoord wat duplicate content is: “Dubbele content verwijst gewoonlijk naar substantiële blokken content binnen of tussen domeinen die ofwel volledig gelijk zijn of aanzienlijk op elkaar lijken” (bron).

Hoeveel het dan exact is, is niet helemaal duidelijk. Google bekijkt de hele pagina, zoals de header, footer, sidebar, afbeeldingen, video’s etc. Het is duidelijk dat Google het geen probleem vindt als je een aantal zinnen kopieert in een lange tekst vanuit een andere bron (auteursrechtelijk kan dit anders zijn!). Zijn het hele paragrafen, dan valt het Google waarschijnlijk wel op en heeft het invloed op je vindbaarheid.

Wat voor soorten duplicate content zijn er?

Meta titels en meta descriptions

Dubbele meta titles, ook wel title tags genoemd, en meta descriptions zijn een signaal voor duplicate content. Grotere website hebben enorm veel pagina’s en bijna altijd een script voor het genereren van geautomatiseerde meta titles en meta descriptions die niet zijn ingevuld. Vaak wordt ervoor gekozen om alle meta tags hetzelfde te laten op de pagina’s waar geen handmatige tag is ingevuld. Op deze manier lijkt het voor zoekmachines dat deze pagina’s hetzelfde zijn. Ook kan het zijn dat alle pagina’s of een groep pagina’s per ongeluk van dezelfde meta titel of meta description worden voorzien.

Voorbeeld van Duplicate content bij meta descriptions bij het AD

Zo heeft het AD.nl bijvoorbeeld een meta description die op bijna alle pagina’s hetzelfde is. Niet per sé een groot probleem, maar Google heeft wel meer moeite met onderscheid maken tussen jouw content. Dit is vaak relatief eenvoudig op te lossen.

Meerdere URL’s met hetzelfde doel (URL duplicates)

Interne URL duplicates zijn altijd een lastige. Deze worden vaak vergeten door webdevelopers en online marketeers, maar zijn erg belangrijk om op te lossen. En gelukkig is het meestal nog relatief simpel ook.

In de basis komt het hierop neer: wanneer je twee of meer versies van een URL hebt, wordt dit gezien als verschillende pagina’s en dus duplicate content. Je hebt namelijk twee of meer pagina’s waar exact hetzelfde op staat of die hetzelfde doel hebben. Stel, je verkoopt bijvoorbeeld fietsen, dan is het waarschijnlijk dat onderstaande URL’s dezelfde pagina of dezelfde content (o.a. producten) laten zien:

  • https://fietsenshop.nl/stadsfietsen/gazelle/primeur
  • https://fietsenshop.nl/merken/gazelle/primeur/

Om Google te laten weten welke pagina moet gaan ranken, werk je met een canonical tag. Later in de blog lees je hier meer over. Ook kan het zijn dat alle pagina’s op je website duplicate zijn. Vaak is dat het geval als je jouw website op de volgende manier kunt benaderen:

  • https://fietsenshop.nl
  • https://fietsenshop.nl
  • https://www.fietsenshop.nl
  • https://www.fietsenshop.nl

Als je op elke manier je website kan benaderen zonder 301 redirect en de URL blijft exact hetzelfde, dan zijn alle pagina’s op je website vier keer duplicate! Reden voor extreem snelle actie dus Laat alle domeinen doorverwijzen naar de URL van jouw voorkeur. Voor zoekmachine optimalisatie maakt het niet heel erg uit welke optie je kiest. Als je maar kiest!

Filter pagina’s, zoekresultaten pagina’s, AMP pagina’s, printvriendelijke pagina’s, tag pagina’s, mobile friendly pagina’s, tracking parameters pagina’s en sessions ID pagina’s zijn allemaal voorbeelden van pagina’s die zeer waarschijnlijk duplicate zijn, maar niet de hoofdpagina zijn. Je kunt je voorstellen dat deze URL’s niet SEO-vriendelijk zijn. Zorg ervoor dat je goede canonical tags hebt, je robots.txt bestand op orde hebt of de parameters afvangt in Google Search Console. Wil je zeker weten of een pagina wordt geblokkeerd via je robots.txt-bestand? Gebruik dan onze robots.txt checker tool.

Locatiepagina’s

Stel, je hebt een website in Nederland en in Vlaamstalig België met dezelfde producten en content. Er zijn kleine verschillen die zijn toegespitst op het land zelf, bijvoorbeeld de betalingspagina en de algemene voorwaarden. Zoekmachines raken hierdoor in de war en laten de Vlaamse site ranken in Nederland en andersom. Dat wil je niet. Hiervoor zet je een hreflang-tag in. Voeg dit aan je website toe en zoekmachines snappen dat het gefocust is op een bepaald land en geen duplicate content is.

Handig? Ja! Want met jouw website verover je dus vrij makkelijk ook de Vlaamse zoekmachines. En dat kost je geen extra SEO inspanningen! Let wel op, zelfs met een hreflang-tag raakt Google soms in de war en pagina’s als duplicate beschouwen of in verkeerde regio’s laten ranken.

Externe duplicate content

De eerste drie genoemde oorzaken voor duplicate content waren voorbeelden interne duplicate content. Externe duplicate content komt bijvoorbeeld voor als verschillende bronnen een persbericht overnemen, er gestandaardiseerde productinformatie wordt overgenomen of als iemand te kwader trouw lappen tekst klakkeloos kopieert. Ranken in de zoekmachines is in al deze gevallen lastig, want Google zal vaak kiezen voor de “oudste” bron.

Duplicate content in de vorm van productteksten

Is duplicate content slecht voor je SEO?

Een eenduidig antwoord is er niet, maar in veel gevallen remt duplicate content je SEO-resultaten. Je maakt het zoekmachines in ieder geval niet makkelijker, want je laat de keuze bij hen welke pagina er moet ranken. Hier heb je zelf minder invloed op, en dan kan het zomaar zijn dat de “verkeerde” pagina wordt opgepikt door Google. Dit ondervang je met een redirect, maar dan verlies je wel enige autoriteit. Geen ideale oplossing dus.

Ook je duplicate pagina’s worden geïndexeerd door Google, maar worden lager weergegeven in de zoekresultaten dan de duplicate die Google in haar armen heeft gesloten als de top pick. Let op: op deze manier verspil je je kostbare crawl budget, zeker als je website alle pagina’s bijvoorbeeld drie of vier keer duplicate heeft! Iedere website heeft een bepaald crawl budget van Google. Is dit op, dan zal Google niet alle pagina’s crawlen. En met veel dubbele content gebeurt dit veel sneller.

Bovendien krijg je met duplicate content interne kannibalisatie. Meerdere pagina’s worden op dezelfde zoektermen gerankt, wat ten koste gaat van de prestatie op die zoektermen. Je zult dus nooit een toppositie behalen. Daarbij komt ook nog dat je met duplicate content kans hebt op een algoritmische duplicate content penalty. Hierdoor komen één of meerdere pagina’s niet meer in de zoekresultaten te staan.

Tot slot is duplicate content voor je interne linkstructuur niet optimaal. Jij bepaalt op je website aan welke pagina’s je link juice doorgeeft. Geef je link juice door aan duplicates? Dat is zonde! Want op deze manier verspil je kostbare link juice aan een pagina die niet bedoeld is om te ranken.

Hoe los je duplicate content issues op?

Gelukkig zijn er een aantal manieren om jouw duplicate content issues te fixen. Hieronder leggen wij de vijf belangrijkste oplossingen voor duplicate content issues uit. Voor specifieke uitleg hierover: neem gerust contact met ons op, we helpen je graag!

Het rel=”canonical” attribuut

Hierboven werd het al kort aangestipt: de canonical tag. Dit is een tag die aan de zoekmachines aangeeft welke pagina de oorspronkelijke bron van je duplicate content is.

Als URL #1 de hoofdpagina is, dan kun je aan URL #2 een canonical tag toevoegen met URL de oorspronkelijke pagina. Met een canonical URL geef je dus aan dat https://fietsenshop.nl/stadsfietsen/gazelle/primeur de oorspronkelijke pagina is. Aan de pagina https://fietsenshop.nl/merken/gazelle/primeur/ voeg je een canonical tag toe met de eerste URL.

Dan weten de zoekmachines dat de eerste URL de hoofdpagina is. Overigens is het voor SEO sowieso goed om op alle pagina’s een canonical tag te hebben, een self referencing canonical tag. Dat is niks anders dan een pagina die naar zichzelf verwijst en daarmee bij de zoekmachine aangeeft dat dit de oorspronkelijke pagina is. Dit is belangrijk, zodat Google URL’s met parameters (bijvoorbeeld utm-codes) niet als duplicates gaat zien.

Een 301 redirect

Je lost duplicates ook gemakkelijk op met een 301 redirect. Op deze manier behoud je één pagina en geef je alle link juice van de duplicate pagina’s aan deze pagina. Dit is de meest krachtige en makkelijkste manier om duplicate pagina’s te verminderen. Vaak is dit echter niet mogelijk door unieke parameters die in een URL staan en nodig zijn voor het optimaal functioneren van een pagina, zoals bij een filterpagina.

Een noindex-tag toevoegen

Je kan pagina’s op jouw website uiteraard ook uit de index van Google halen door middel van een noindex-tag. De noindex-tag is een meta robots tag die aangeeft dat een pagina niet in de SERP moet worden opgenomen en ziet er als volgt uit:

Op deze manier crawlt de zoekmachine je pagina wel, maar indexeert hem niet. Je zou hem ook op content=”noindex,nofollow” kunnen zetten, maar dat heeft niet Google’s voorkeur. Een content=”nofollow” tag betekend dat Google de links op die pagina niet mag volgen. Google wil graag zien wat er allemaal op een website gebeurt en wil graag de links op een pagina volgen.

Uitsluitingen via het robots.txt-bestand

Een andere goede oplossing om ervoor te zorgen dat Google geen pagina’s met duplicate content crawlt is het robots.txt-bestand. Met dit bestandje kun je de crawlers over je website sturen en de toegang tot bepaalde delen van je website ontzeggen. Dit scheelt je crawl budget omdat de gehele pagina niet opgevraagd hoeft te worden en zorgt ervoor dat je grote delen van je duplicate content makkelijk oplost. Voor webshops is het bijvoorbeeld een aanrader om alle filterparameters uit te sluiten via het robots.txt-bestand.

Unieke content schrijven

De laatste, en meest voor de hand liggende, oplossing is het uniek maken van je content. Sowieso is unieke content die aansluit bij de behoefte van de bezoeker altijd belangrijk. Heb je dezelfde content op meerdere pagina’s staan? Herschrijf de content en zorg ervoor dat dit aansluit op de zoekintentie en de zoekvraag die je bezoeker heeft. Dit komt niet alleen je posities ten goede, maar zorgt ook voor een hogere conversie.

Hoe controleer ik of er duplicate content op mijn website staat?

Het is vrij eenvoudig om te checken of er duplicate content op jouw website staat. Er zijn een aantal gratis tools beschikbaar, maar betaalde tools zoals Ahrefs, Semrush of Deepcrawl zijn een noodzakelijke aanvulling. Het voordeel van het werken met een SEO bureau is dat een SEO bureau alle tools in huis heeft en deze voor jou ter beschikking stelt. Wat kan je doen zonder dure tooling:

  • Bekijk de "Dekking" via Google Search Console, om te zien of Google duplicate content heeft ontdekt. Dit doe je via het rapport "Uitgesloten". Kijk vervolgens naar pagina's onder “Dubbele pagina zonder door de gebruiker geselecteerde canonieke versie” en “Dubbele pagina, ingediende URL niet geselecteerd als canoniek”.
  • Gebruik de website Siteliner om snel te checken of er op jouw website interne duplicate content staat.
  • Kijk kritisch naar je website of deze verschillende pagina’s heeft waar hetzelfde op staat. Check of deze al een canonical, 301 redirect of een noindex hebben. Zo ja, dan zit je goed. Zo nee? Actie!
  • Voer vier varianten in om je website te benaderen en kijk of ze allemaal geredirect worden naar één van deze vier. Zo niet? Actie!
  • Vaak kan je gratis een proefperiode starten bij bovengenoemde tools van 15 of 30 dagen! Maak hier gebruik van om je website flink te optimaliseren.
  • Gebruik tools als Screaming Frog en ContentKing om snel duplicate content issues met meta titels, meta descriptions en HTML headings te ontdekken.
Jarik Oosting

Dit artikel is geschreven door Jarik Oosting

Met een passie voor SEO en een ongeëvenaarde drive om resultaten te behalen, is Jarik Oosting de drijvende kracht achter SmartRanking. Met meer dan 13 jaar ervaring in het veld heeft Jarik een schat aan kennis opgebouwd, variërend van technische SEO tot complexe migraties. Als oprichter van SmartRanking heeft hij een team van gelijkgestemde SEO specialisten samengebracht die bedrijven helpen hun online potentieel te realiseren.

Zijn academische achtergrond in Informatiewetenschappen aan de Rijksuniversiteit Groningen, met een specialisatie in Natural Language Processing, geeft hem een unieke kijk op de wereld van SEO. Voor Jarik gaat het niet alleen om vindbaarheid in zoekmachines, maar om het delen van kennis en het begeleiden van bedrijven naar duurzaam online succes.

Meer over SmartRanking