Hvor stort et problem er duplicate content?

Efter et par besøg på nogle af Dansk Kennel Klubs sider slog det mig, at flere af deres sider indeholder den samme tekst. Der findes et hav af forskellige domæner under klubben, og når de eksempelvis skal fortælle om deres forening, bruger de den samme standardtekst. Det er der selvfølgeligt ikke noget galt i:)

Men hvis man er søgemaskinenørd, kan det godt undre, at Google ikke bortsorterer nogle af siderne – for de viser jo det samme indhold. Hvis jeg eksempelvis var skoleelev og ville vide noget om 2. Verdenskrig, så ville jeg ikke bryde mig om at bruge en søgemaskine, der viser 20 sider med stort set samme indhold. På http://www.thomas-rosenstand.dk/duplicate-content er emnet (så vidt jeg husker) blevet sammenlignet med bibliotekarens arbejde: Hvis hun (jeg forestiller mig altid, at det er en kvinde) bliver bedt om at finde bøger om 2. Verdenskrig, forventer vi ikke at få en stak bøger, hvori der står det samme.

Er min søgning ovenfor udtryk for, at duplicate content ikke er så stort et problem, eller er der en anden forklaring? Ja, måske den, at man sjældent søger, som jeg har gjort ovenfor. For når man søger på enkelte ord eller kortere sætninger, får man forskellige resultater.

Det kan alligevel undre, at siderne (som jeg var inde på) ikke bliver bortsorteret, for det siger teorien, at de burde…

Tilbage til Søgemaskineoptimering

2 tanker om “Hvor stort et problem er duplicate content?

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *