Wat is: duplicate content?

Duplicate content, letterlijk vertaald ‘dubbele content’, duidt op identieke content die praktisch in dezelfde vorm onder twee verschillende URL’s online te vinden zijn. Dit kan op hetzelfde domein zijn (interne duplicate content) of op een ander domein (externe duplicate content) zijn. In de eerste instantie zal de zoekmachine beide pagina’s indexeren, maar uiteindelijk zal er door de zoekmachine voor 1 pagina gekozen worden. 

Waarom is het vermijden van duplicate content zo belangrijk?

Zoekmachines ontmoedigen het gebruik van duplicate content, omdat het geen meerwaarde levert voor een bezoeker. De content is immers niet uniek. Hierdoor is er al sprake van duplicate content als het slechts om enkele blokken tekst gaat. De zoekmachine beschouwt vervolgens gelijk de gehele URL als duplicaat. Eenmaal gestempeld als dubbele content zullen de pagina’s een stuk lager ranken dan websites met unieke content. Een ander nadeel? Het komt regelmatig voor dat de verkeerde pagina geïndexeerd wordt, omdat de zoekmachine niet weer wat de originele versie is. Hierdoor zal de website lastiger te vinden zijn in de zoekresultaten. 

Daarnaast kost het veel tijd voor de crawlers van de zoekmachine om pagina’s te analyseren en te indexeren. Dit gaat op zijn beurt weer ten koste van de serverruimte en rekenkracht van de crawler. Het gevolg is dat het crawl budget opraakt of de webcrawler afhaakt wanneer een website te veel duplicate content bevat. Het resultaat is dan ook dan deze niet geïndexeerd wordt.

Verder is duplicate content niet alleen nadelig voor de desbetreffende pagina; het hele domein kan afgestraft worden. De waarde van je domein en pagina kunnen dus lager worden wanneer er sprake is van duplicate content. 

Google updates straft duplicate content af

Vroeger was het wel mogelijk om hoog te scoren in door middel van dubbele content. Echter, sinds 2011 is de zoekmachine uitgebreid met verschillende algoritmes, waaronder de welbekende Panda en Penguin updates. Deze updates bestraffen pagina’s en websites met duplicate content met een lagere positie in de zoekresultaten. Hierdoor heeft dubbele content dus een negatieve invloed op de zoekresultaten en is daarom uiteindelijk ook slecht voor je SEO strategie.

Benieuwd wat wij voor jou kunnen betekenen op gebied van online marketing? Neem contact met ons op via het formulier!

  • Dit veld is bedoeld voor validatiedoeleinden en moet niet worden gewijzigd.

Interne duplicate content voorkomen?

Het is mogelijk om binnen je eigen website dubbele content te hebben. Dit kun je voorkomen door pagina’s goed te scheiden en geen URL’s te maken gericht op hetzelfde zoekwoord. Wanneer je dit wel doet, dan krijg je last van interne concurrentie tussen je pagina’s. Dit heeft vervolgens weer een negatieve invloed op de SEO van je website. Het is daarom beter om eerst een goed zoekwoordenonderzoek te doen voordat je begint met het aanmaken van content. Als je uiteindelijk niet om dubbele pagina’s heen kan, gebruik dan een canonical tag.

Canonical tag

Het is handig om gebruik te maken van canonical tags. Door middel van een canonical tag kun je aangeven welke pagina de hoofdpagina is (wanneer meerdere pagina’s dezelfde content bevatten) en dus de voorkeur heeft om geïndexeerd te worden. 

Voorbeeld

Vaak worden sites op verschillende manieren benaderd. Zo kun je een website benaderen via ‘’www’’, maar ook via ‘’https://www’’. CMS-systemen genereren vaak automatische https”://www. Echter ziet Google dit als twee afzonderlijke sites. Dankzij de canonical tag kun je dus markeren welke variant de hoofdpagina is.

Unieke content

Het is belangrijk om echt unieke content te maken. Schrijf dus de artikelen zelf en neemt niet rechtstreeks dingen over. Het is mogelijk dat dit onvermijdelijk is. Zo kan het zijn dat een product in verschillende kleuren voorkomt onder verschillende URL’s. Het is dan aanbevolen om dit te melden aan de zoekmachine door middel van een verwijslink in de HTML-code.

Robots.txt

Het is ook mogelijk aan te geven dat de crawlers een site of inhoud van een pagina volledig mogen overslaan. Dit doe je door een Robots.txt file te plaatsen. Dit is echter geen garantie dat de site of inhoud niet gecrawld wordt. Wanneer andere websites verwijzen naar jouw URL, dan kan het zijn dat de crawlers de pagina toch analyseren en wellicht indexeren.

Externe duplicate content

Duplicate content creëer je doorgaans zelf. Naast interne dubbele content bestaat ook externe duplicate content. Het is namelijk mogelijk dat een andere website jouw tekst gebruikt en letterlijk overneemt. In dit geval zal je de webbeheerder moeten wijzen op het auteursrecht, of vragen of hij de pagina kan voorzien van een link die naar jouw eigen pagina verwijst als bron. Tevens zou hij een noindex-tag kunnen plaatsen, zodat desbetreffende zoekmachines de pagina niet indexeren.

Vermijd dus altijd duplicate content

Al met al is het erg belangrijk om te kijken naar duplicate content bij het opzetten en onderhouden van een site. Wees alert en vermijd dubbele inhoud altijd zo veel mogelijk. Je wordt namelijk hoger gerankt in de zoekresultaten wanneer er geen sprake is van duplicate content. Door middel van diverse technieken of copywriting kun je dubbele content eenvoudig voorkomen. Heb je hier echter hulp bij nodig? Geen probleem: Blauwe Monsters kijkt graag samen met jou naar de mogelijkheden. Neem dus gerust vrijblijvend contact met ons op.