Omgaan met duplicate content

Omgaan met duplicate content

Duplicate content

Sinds een tijdje zijn er veel blogs het slachtoffer geworden van updates in het algoritme van Google. Doordat Google strenger controleert op duplicate content verdwijnen veel pagina’s uit de reguliere index. Deze komen dan terecht in de zogenoemde weggelaten resultaten en dat kan natuurlijk een flinke aanslag zijn op je traffic. Wat kan je hier nou aan doen?

Uiteraard is de eerste stap altijd het verzorgen van kwalitatieve links, dit draagt bij aan je PageRank en dat geldt zeker ook voor de individuele posts. Juist door te zorgen voor goede links direct naar jouw artikel onderscheidt je je van de rest en is de kans groter dat je in de reguliere index terecht komt. Daarnaast is het ook belangrijk om je te realisseren dat duplicate content ook het gevolg kan zijn van tekortkomingen op je eigen pagina, want hierin kan je met relatief weinig inspanning redelijk wat problemen voorkomen. Als alle pagina’s van je site veel dezelfde code bevatten (denk aan de header, het menu, etc) kunnen deze pagina’s onderling ook als duplicate content worden gezien.

Wat kun je hier aan doen?

Allereerst kun je er voor zorgen dat je posts over het algemeen wat langer zijn, daarmee voorkom je dat alle pagina’s op elkaar gaan lijken. Zorg ook dat er een mogelijkheid is om te reageren, dit vergroot het onderscheidend vermogen van je posting.

Tevens dien je HTML-code die op elke pagina staat te vari?ren: Zorg dat iedere posting een eigen unieke page title en meta description heeft, leg in je code de nadruk op je content door de belangrijke tekst bovenaan te plaatsen (en menustructuren later in de code).

Als laatste kun je duplicate contect voorkomen door pagina’s die dit veroorzaken simpelweg niet op te laten nemen in de zoekmachines. Denk hieraan categoriepagina’s, tag pagina’s, maandelijkse archieven en andere manieren waarop je postings onder meerdere url’s leesbaar zijn. Daarvoor kan je de volgende code toevoegen aan de header van de pagina’s die je wilt uitsluiten:

< meta name="robots" content="noindex,follow" />
De eerste spatie hierboven dien je uit de code te verwijderen.

Check ook SEO-book.com waar nog meer tips staan, niet alleen het artikel zelf maar ook de reacties zijn het lezen waard.

Laat een reactie achter

7 reacties
  • He Ruud,

    Ff vraagje, hoe kom je erbij dat de header van een site ook als duplicate content gezien kan worden binnen je eigen website?

    Ik ben namelijk van een andere mening voorzien in deze….net een 150 pagina tellend rapport over duplicate content gelezen.

  • Gelezen op diverse plekken, waaronder SEObook.com. En het klinkt ook wel logisch aangezien Google de title iig ook meeneemt in de indexering.

    Welk rapport heb je gelezen en kan je dat met ons delen?

  • He ruud,

    [[dode link verwijderd]]

    En dan vooral het deel Snippet Extraxtion, waarbij vanuit het patent wordt uitgelegd dat google juist delen van pagina’s pakt en die met elkaar vergelijkt voor duplicate content…..

    Jouw beredenering vindt ik wat summier, google hanteert idd de Title voor het indexeringen en de SERP..maar dat wil toch niet automatisch zeggen dat het duplicate content filter daar ook naar kijkt?

  • Ik merk met x-ite iig wel dat ik te vaak in de weggelaten resultaten terug te vinden ben, en dat geld ook voor een ander domein van me. Als ik vervolgens zoek op site:www.ruudkok.nl dan valt veruit de meerderheid in de weggelaten resultaten, waarbij je kunt zien dat de resultaten uit de reguliere index allemaal een unieke beschrijving (meta description) hebben. In de weggelaten resultaten zie je echter wel de duplicate descriptions, dus vandaar mijn zware vermoeden dat dit toch zeker meespeelt.

  • Ik heb het over de invloed van duplicate content op de SERP. Doordat Google de laatste tijd strenger omgaat met duplicate content (en volgens mij – maar niet enkel – dus ook de header) vallen diverse pagina’s nu uit de index. Die zijn uiteindelijk nog wel te vinden achter het “Om de meest relevante resultaten te tonen, hebben we er een aantal weggelaten die heel sterk lijken op de reeds weergegeven 20” gebeuren, maar in de reguliere resultaten zullen ze vaak ook niet terug te vinden zijn.

  • Aha…

    Juist ja….

    Kan ik me wel iets bij indenken..maar weet niet of het met DC te maken heeft uberhaupt….

Error validating access token: The user has not authorized application 515358899130297.

Instagram

Error validating access token: The user has not authorized application 515358899130297.