Contenuti Duplicati: Cosa Sono e Perchè Evitarli

E’ ancora parecchia la confusione riguardo alla duplicazione dei contenuti e ai motivi per i quali preferibile evitarla, sia per non incorrere in depenalizzazioni da parte dei motori di ricerca, sia per non alimentare la circolazione di informazioni fuorvianti.

I contenuti duplicati sono elementi copiati da fonti nel web e riproposti in maniera identica, o molto simile, tra le altre risorse reperibili in rete.

Stralci di testo o intere sezioni, immagini, sidebar, footer e via dicendo, sono riutilizzati nella maggior parte dei casi in maniera inconsapevole, ma spesso, invece, seguendo una strategia di ottimizzazione per falsare l’indicizzazione nei motori di ricerca al fine di ottenere la massima visualizzazione online.

Si utilizza un eccesso di parole chiave, spesso decontestualizzate, numeri di telefono ed elenchi di lemmi superflui, file di testo la cui grandezza può variare a seconda del dominio in cui si decide di farli apparire. Questo può comportare la restituzione, nell’elenco dei risultati di ricerca, prima di un sito che utilizza contenuti duplicati e soltanto dopo di quello che rappresenta, invece, la fonte primaria.

I motori di ricerca come il celeberrimo Google, quando sollecitati dall’utente, propongono come risultato delle query un indice dei contenuti disponibili che appaiono in ordine di rilevanza a seconda della chiave di ricerca utilizzata.

Idealmente, in caso di pagine identiche o contenenti elementi troppo simili fra loro, Google effettua una selezione eliminando, in fase di ranking, i risultati poco rilevanti e tendendo a fare riferimento al sito che costituisce la fonte originale.

Se invece ritiene che la duplicazione sia stata effettuata con scopi ingannevoli e che quindi la pratica rientri nello spam-engine, può decidere di penalizzare il sito assegnandogli una posizione disagevole nell’indice dei risultati o perfino rimuovendolo del tutto.

Google stesso a spiegare la motivazione principale di questa linea d’azione: le pratiche ingannevoli possono peggiorare il servizio offerto agli utenti, i quali vedono gli stessi contenuti ripetuti in un insieme di risultati di ricerca.

Il peggioramento dell’esperienza utente, costantemente alla ricerca di informazioni originali, esaustive e affidabili, causato dalla perdita di tempo necessaria all’individuazione degli elementi desiderati mescolati in un vasto campo di informazioni fuorvianti e dall’impossibilità di verificare l’autenticità delle informazioni condivise facendo riferimento al primo sito di origine, spesso declassato dalla sovrabbondanza di contenuti duplicati.

Oltre al rischio di incorrere nella violazione del copyright per appropriazione indebita di contenuti, si incrementa la falsa informazione basti pensare al pullulare dei siti di informazione o controinformazione che condividono notizie e bufale senza verificarne l’autenticità e senza riportarne le fonti.

Prima di farsi prendere dal panico pensando alla quantità di duplicati che potrebbero trovarsi nei vostri siti, bene tenere presente che il 25-30% di tutti i contenuti presenti sul web contenuto duplicato. Si pensi alle citazioni di paragrafi o di interi testi.

Esistono anche contenuti boilerplate necessari, ma lo stesso Matt Cutts, a lungo a capo del web spam team di Google, a spiegare che il motore di ricerca in grado di rilevarli e non conteggiarli.

Per constatare la presenza di contenuti duplicati esistono diversi metodi. I più semplici e veloci sono l’inserimento di spezzoni di testo in Google per verificare in quanti siti esso compare e l’utilizzo di Copyscape.com, che scansiona il ranking individuando eventuali doppioni.

Creare contenuti originali e ricchi di informazioni, utilizzare le parole chiave in modo appropriato e un vocabolario ampio, ma anche condividere le fonti e riportare il collegamento ipertestuale ai siti di riferimento, resta senza dubbio la migliore strategia di ottimizzazione SEO.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *