• User Newbie

    Duplicazioni contenuti UGC

    Ciao a tutti,

    Vorremmo chiedere all'interà commmunty di esperti di GiorgioTave le vostre opinioni riguardo alle duplicazioni di contenuti tra publisher aventi una sensibile disparità di PR e autorevolezza.
    Per rendere la domanda più specifica vorremmo sapere quanto secondo voi pesi la data di entrata nella SERP di una pagina (e quindi si presume la sua originalità) rispetto all'autorevolezza di un sito che riproponga integralmente gli stessi contenuti in data successiva

    Esempio banale, un sito sconosciuto pubblica una notizia che viene poi ripresa dalla CNN 2 settimane dopo. Google privilegerà la data d' ingresso nella sua SERP della pagina contenente la notizia o l'autorevolezza del sito della CNN per determinare la paternità del contenuto ? Vi é teoricamente un rischio di contenuti duplicati per la CNN ?

    Nel nostro caso specifico, può capitare che degli utenti scrivano degli articoli tematici sulle loro spcifiche competenze sui nostri spazi appositi, riprendendo però integralmente quanto da loro già pubblicato sul loro sito/blog personale (di autorevolezza decisamente inferiore).

    Qual'é la soluzione migliore secondo il vostro parere ?
    a) non pubblicare tali contenuti in quanto duplicati
    b) pubblicare i contenuti linkando la fonte
    c) pubblicare i contenuti non curanti della fonte (controllando chiaramete che si tratti dello stesso utente/autore).

    Grazie per il prezioso contributo.

    Dominio:
    gliaffidabili.it

    Motori:
    Google

    Prima indicizzazione o attività:
    aprile 2008

    Cambiamenti effettuati:
    Ottimizzazione metatag, eliminazione riscrittura URL per molte sezioni del sito

    Eventi legati ai link:
    Attività di scambio link estremamente limitata

    Sito realizzato con:
    Joomla + Community Builder + AdsManager (customizzazioni)

    Come ho aumentato la popolarità:
    Blog

    Chiavi:
    Tutte le combinazioni "professioni + città" (es. babysitter milano, lezioni private roma)

    Sitemaps:
    Si


  • User Attivo

    Ingegneri google affermano che: i siti che copiano sporadici articoli non sono da penalizzare solo e solo se, citano le fonti dell'articolo copiato.

    Ovviamente se hai un sito con 10 articoli copiati non è un buon sito; se hai un sito con 100 articoli e ne hai copiati solo 10 citando le fonti non sei sicuramente da penalizzazione.

    La differenza nei risultati di ricerca (in serp) tra i due documenti la fa il trust del web site.


  • ModSenior

    Ciao gliaffidabili e benvenuto nel Forum GT.

    Cominciamo con il dire che i contenuti duplicati non comportano sempre penalizzazione per Google. Nel senso che Google filtra i risultati duplicati, non mostrandoli in SERP.

    Ora per contenuto duplicato non si intende una pagina intera o un articolo. Possiamo ritenere contenuti duplicati infatti anche 10 o 20 parole che compaiono identiche tali e quali nel tuo e in altri siti.

    Tutto ciò premesso la soluzione ideale sarebbe quella di evitare in ogni caso contenuti duplicati interni (cioè tra le pagine del tuo sito web) ed esterni (cioè tra le pagine del tuo sito e quelle di altri siti).

    Se questo non è possibile quanto meno è bene indicare il link alla fonte primaria da cui è copiata la notizia.

    Ora torniamo un attimo sul ragionamento di contenuti duplicati in relazione al tuo sito. Se il contenuto duplicato è poco meno del 10% le pagine vengono filtrate da Google e la cosa finisce lì.

    Se invece la quantità di pagine duplicate diventa più elevata come diceva egidio questo comporta che agli occhi di Google il tuo sito non aggiunge niente di rilevante rispetto alle fonti originali e quindi sarà inutile mostrarlo agli utenti durante le loro ricerche (perderebbero solo tempo a leggere un articolo in più).

    Se la quantità di pagine duplicate nel tuo sito è oltre il 30% allora devi iniziare a preoccuparti seriamente, perchè c'è il rischio non solo di penalizzazione, ma anche in casi più estremi di ban.


  • User Newbie

    Grazie mille Egidio e mister jinx per i chiarimenti.

    Le vostre osservazioni mi portano ad un ulteriore quesito: poiché nei siti con prevalenza di UGC - es. siti di annunci - é molto facile che un utente copi e incolli la stessa inserzione su più siti diversi (o addirittura la ripeta nello stesso sito più volte) come é possibile:

    -> sfuggire alle penalizzazioni di Google per contenuti duplicati ? Esistono delle tecniche SEO specifiche in tal caso da adottare ?
    -> quale sito viene considerato "sorgente" dell'inserzione dell'utente e quale quello con contenuto duplicato ?

    Grazie mille


  • ModSenior

    Ciao di nuovo gliaffidabili,

    per quanto riguarda il sito sorgente di solito Google sceglie quello a più trust, cioè il sito ritenuto più affidabile. Che non è sempre il sito che ha pubblicato per primo il contenuto "originale" (poi duplicato).

    ===

    Riguardo alla penalizzazione di contenuti duplicati in un sito di annunci ti confermo che ho visto un sito in penalizzazione per diversi mesi.

    Non posso per riservatezza indicarti di più, tuttavia ti dico che ero stato contattato da un forumista per questo sito al convegno GT 2008.

    Il problema era appunto di contenuti duplicati, in quanto chi fa un'inserzione online tende per rapidità a scrivere un solo annuncio e a fare copia e incolla su più siti.

    A parte un problema legato alla riscrittura delle URL con sessioni in ASP.NET, individuato e risolto quasi subito, i problemi sono rimasti fino a Giugno 2009.

    Naturalmente si parla di un sito con una quantità notevole di annunci e riscriverli ex novo da parte dei gestori era stata considerata una strada impraticabile.

    Il titolare ha così deciso di attendere e il sito a Giugno, dopo una penalizzazione violenta (-90% di traffico per 6 mesi) ha ricominciato a prendere visite.


  • User Newbie

    Grazie mister.jinx

    il caso del sito di annunci cui accennavi é molto interessante.

    Mi rendo conto che per motivi di riservatezza non puoi dire di più, ma non mi é chiaro dal tuo post se il sito , dopo aver risolto il tema della riscrittura URL, ha effettivamente intrapreso qualche altra azione per indirizzare il problema dei contenuti duplicati o ha semplicemente "atteso".

    Esistono altre strade oltre alla riscrittura ex novo dei contenuti, posto che nella maggior parte dei casi non é praticabile perchè troppo onerosa ?

    Su seomoz qualche tempo fa si discuteva sull'opportunità di inserire n domande strutturate nella compilazione del form degli annunci, per evitare che l'utente faccia un copia e incolla bieco nel campo di testo, forzando quindi la generazione di "contenuti originali".
    Ciò però va a scapito dell'usabilità del sito perchè gli utenti come si sa non amano mai compilare troppi campi...

    Grazie,
    Ciao


  • ModSenior

    Ha preferito attendere. Adesso ha ripreso le visite come ti dicevo, anche se grava sullo stesso sito ancora una penalizzazione più leggera che fa oscillare tra la seconda e la terza pagina in SERP, quando invece prima si attestava sempre in prima.