• Moderatrice

    Penalizzazione da violazione copyright

    Faccio un breve riassunto per tutti coloro che non sanno di questa penalizzazione.

    Sito: prestitivelocionline.it

    duplicazione del testo originale su molti siti di article marketing e siti spam.

    Tutti fatti dalla solita persona.

    Oltre a questo sito ha avuto il solito destino un'altro sito sempre a tema finanziamenti.

    Sto raccogliendo più informazioni possibili e in modo particolare una risposta da parte di google per questo fenomeno.

    Come ho scritto nel centro assistenza spero vivamente di sbagliarmi e che la causa della penalizzazione sia dovuta ad altro, ma fino ad ora l'unico motivo della causa della penalizzazione è dovuta al comportamento doloso di una singola persona.

    **Vi invito pertanto a controllare il sito e se non ci sono altre cause a voi note che portano la penalizzazione, **
    in questo caso sarò lieta di pagare la consulenza.

    In caso contrario se anche voi non riscontrate problemi di alcun tipo apparte questo vi invito
    a scrivere un post qui

    http://www.google.com/support/forum/p/webmasters/thread?tid=54feac9156fd97ae&hl=it&fid=54feac9156fd97ae00047a4840ccc9a7

    per portare google a conoscenza di questo fatto e a prendere provvedimenti, affinchè altri siti non siano soggetti a questo tipo di penalizzazione.

    NB: dopo un mese di penalizzazione mi sono decisa a cambiare la home page del sito, interamente duplicata ma altre pagine del sito sono state duplicate con la solita tecnica.
    Al momento il sito non è tornato in serp.

    NB: il sito ha oltre 400 post. Fino al 7 novembre data della penalizzazione google aveva indicizzato tutti i post. Se fate un site adesso ha deindicizzato oltre 100 pagine.

    Grazie per il gentile contributo.
    Deborah

    Dominio: prestitivelocionline.it
    Motori: Google
    Prima indicizzazione o attività: 1 anno e mezzo fa
    Cambiamenti effettuati: nessuno
    Eventi legati ai link: nessuno
    Sito realizzato con: wordpress
    Come ho aumentato la popolarità: soliti
    Chiavi: prestiti veloci
    Sitemaps: Si


  • Super User

    Ciao deborahdc,

    finalmente ho trovato una mezzora da dedicare al tuo caso, con calma dopo quanto discusso anche al convegno GT 2009.

    Ho fatto un'analisi approfondita del tuo sito ed a mio avviso, la duplicazione esterna è stato solo la goccia che ha fatto traboccare il vaso.

    Nel senso, nell'analisi, ho trovato alcune imprecisioni SEO che possono portare alla penalizzazione -50 della quale il tuo sito è afflitto (quindi la penalizzazione è completamente confermata, purtroppo).

    Ti elenco le varie anomalie riscontrate:

    1] Utilizzo del meta keywords (so che non ne hai abusato, ma hai ripetutto le parole chiave su più pagine). Consiglio come al solito di eliminare completamente il meta.

    2]Le description hanno alcune ripetizioni di parole chiave al loro interno (anche qui non è una cosa "spinta"). Consiglio di evitare ripetizioni di keywords all'interno della descrizione. Un esempio di description da modificare:
    [HTML]
    Cessione del quinto: la delegazione di pagamento Cessione del quinto dello stipendio con delega di pagamento. Anche tale tip...
    [/HTML]
    Ripetizione = "Cessione del quinto"

    3] Nei vari tag title, vi sono troppe ripetizioni di parole chiave. Ad esempio nella sezione "cessione del quinto" tutte le pagine hanno title che iniziano con "Cessione del quinto: [titolo post]". Meglio evitare queste continue ripetizioni, soprattutto con prominenze così elevate (posizionamento della categoria in principio ad ogni tag title).

    4] La composizione di alcune url è considerata SPAM (sempre dalle mie esperieze 🙂 ). In particolar modo url come queste:

    [HTML]
    http://www.prestitivelocionline.it/cessione-del-quinto/cessione-del-quinto/
    http://www.prestitivelocionline.it/cessione-del-quinto/cessione-del-quinto-ai-protestati/
    [/HTML]

    Nella prima url si replica la directory (tecnica utilizzata spesso da spammer). Nella seconda si replica il nome della categoria nel nome post... questa agli occhi del motore è una forzatura, in quanto se siamo nella categoria "cessione del quinto" lo sappiamo già, non occorre ripeterlo anche all'interno del post.

    5] A livello di backlinking hai lavorato principalmente su una sola keyword "Prestiti veloci online" principalmente in homepage, inoltre la maggior parte dei links arriva da directory, article marketing directory, aggregatori, siti di comunicati stampa e siti non a tema legati al turismo. In questo caso, il mio consiglio è quello di:

    a. Rimuovere tutti i backlinks, naturalmente quelli che puoi eliminare
    b. Cercare di variare le anchortext degli attuali backlinks
    c. Cercare di redistribuire con percentuali simili a 70 - 30 % su (homepage e pagine interne)

    6] Google probabilmente ha capito che si cerca di costruire un network, infatti sulla stessa macchina (proprietaria) c'è già il sito: prestitiprotestationline.com che già tratta di argomenti simili (anche la prioprietà del dominio è la medesima). A questo punto il motore potrebbe dire: ma perchè se esiste già un sito che parla di "prestiti" farne uno che parla di "prestiti veloci"?... capisci che il sentore è strano.. 🙂

    7] I backlinks spam che ricevi da contenuti duplicati (certo sono anche loro un'aggravante della situazione).

    Per tanto, prima di concentrarti sulla duplicazione impropria (comuque da condannare) sistemerei al meglio l'ottimizzazione del sito, perchè 7 possibili cause "leggere", potrebbero far scattare una penalizzazione "pesante". 🙂

    Spero di esserti stato utile,
    se hai bisogno di chiarimenti... son qui;)

    A presto,
    Michele

    Ho analizzato la composizione URL + Title + Description delle pagine, a mio avviso


  • Moderatrice

    Ciao Michele ti ringrazio delle tue considerazioni ma volevo confrontarmi ulteriormente su questi punti.

    Come anche detto al convegno sono una sostenitrice di ciò che è il più possibile "naturale" e "utile all'utente".

    Riprendo punto per punto i tuoi argomenti:
    Punto 1 keyword: non mi risulta al momento ma vi prego smentite se mi sto sbagliando che google abbia preso posizione riguardo al tag key. E' vero che google non lo inserisce tra i suoi meta ma è anche pur vero che il sito w3c.it italia ha al suo interno il tag key.
    Il tag key in questo caso non è stuffing (giustamente penalizzato da google) ma un fattore assolutamente naturale che si viene a creare inserendo i tag e la categoria su wp.
    Premetto: su wp è stato installato all in seo pack solo per fare il rewrite dell'url (peraltro scrittura dell'url consigliata da google).

    Punto 2 il tag description: se guardi la description è data dalla prima parte del testo presente nella pagina. Cosa che wp fa tutto in automatico, senza spingere con la possibilità offerta dal plug indicato sopra. E' forse questo plug che crea il pretesto per possibili penalizzazioni?.

    Punto 7: contenuti duplicati. La data esatta in cui sono stati inseriti i contenuti duplicati è a partire dal giorno 30 ottobre 2009.
    La home è stata duplicata a partire dal 3 novembre.
    Sono caduta in penalizzazione il giorno 7 novembre. Non posso credere che sia solo un caso.

    Fino a quel giorno il sito godeva di visite e popolarità.
    Io ci vedo molto un causa - effetto.
    Fino a quel momento il sito era perfettamente posizionato.

    L'idea che mi sono fatta e su questo vorrei confrontarmi:
    google sta spingendo per migliorare le sue ricerche in base alla esperienza del navigatore.
    Il che include anche la preferenza dello stesso sui vari social dove sono aggregati i "siti preferiti".

    In questo caso è stato fatto un uso massiccio dei social dove non solo si duplicava il testo originale del mio sito, ma veniva linkata una pagina DIVERSA, dove era nuovamente copiato il testo.

    Una operazione seo ridicola, lo ammetto, ma questo è stato fatto.

    In tal maniera google ha riconosciuto la paternità del testo al sito linkato dai vari social (che naturalmente non era il mio).

    Del resto se ci pensi in via del tutto logica se io dal mio social ti indico come preferito un testo presente nella pagina e poi te lo linko e come dire a tutto il mondo.
    "ho trovato questo testo assolutamente interessante, l'ho trovato in questa pagina"

    Non è forse questo il motivo della presenza dei social network?

    Non pensiamo da SEO, pensiamo da come le persone in tutto il mondo utilizzano i social. Cambiare solo di poco la prospettiva mentale e tutto risulterà molto chiaro.

    Continuo a parlare degli altri punti nel pomeriggio.. devo finire un lavoro.


  • Moderatrice

    **Punto 5: **dal google web master tool ci sono 123 testi di ancoraggio tutti completamente diversi.
    3 testi di ancoraggio rimandano alla home, gli altri mandano a pagine interne.


  • Super User

    Ok Deborah, ho capito... 😄

    Ma credo che prima di "cambiare solo di poco la prospettiva mentale" devo essere sicuro che tecnicamente (perchè le penalizzazioni di questo tipo sono algoritmiche) il sito sia pulito al 100%.

    In base alla mia esperienza non lo è per i punti sopra indicati.

    Se invece reputi il contrario, allora aspettiamo che google ti risponda e prenda provvedimenti.

    Io sono dell'avviso che un intervento esterno possa solo facilitare una penalizzazione, ma non determinarla. 🙂

    Tienici informati a riguardo,
    grazie mille per condividere con noi la tua esperienza.

    A presto.
    Michele


  • Moderatore

    Secondo il mio parere, confortato dai numerosi casi di penalizzazione presentati in questa sezione soprattutto nei mesi scorsi, la causa è tutta da cercarsi nei contenuti duplicati.

    Vi sono diverse storie di blog che si sono affossati a causa degli aggregatori, qualcuno addirittura è stato penalizzato perché un concorrente gli copiava sistematicamente ogni post.

    Non nego che la seo del sito non potrebbe essere curata meglio e forse aumentare la percezione del "trust" in casi simili, come sostiene dechigno, ma ritengo giusto il concetto fondamentale espresso da deborahdc: con questi algoritmi se il tuo sito non è già parecchio tematizzato e non gode di un trust molto buono puoi essere cancellato da un "attacco deliberato" di un concorrente.

    Mi spingo oltre: qualsiasi nuovo blog (e dico blog per la presenza dei feed rss), a meno che non sia spinto con costi piuttosto elevati, può in questo momento essere fatto sparire da Google attraverso comportamenti dolosi con meno di mezz'ora di lavoro.

    La chiave, almeno mi sono fatto questa idea, è tutta nel funzionamento del filtro anti-duplicazione (questa pagina madri.com/bonusarea/Posizionamento-Duplicazione-Contenuti.pdf lo descrive in maniera molto completa).
    Se potessi scegliere da utente dove voler atterrare, preferirei sempre la pagina di Liquida che, oltre a darmi un testo completo ed i link alla fonte, mi propone anche decine di altri articoli sul tema. Ragionando da utente, io per primo mettere il post originale nei risultati omessi. E una percentuale troppo alta di volte nei risultati omessi fa scattare la penalizzazione

    Il concetto di "paternità" fino ad oggi a Google non è interessato e come al solito nelle sue scelta ha avuto peso maggiore l'esperienza dell'utente.

    Il caso specifico di questo thread è adesso difficile da analizzare, visti i cambiamenti effettuati sul sito, ma si notano ancora i segni di una possibile penalizzazione causata da duplicazione (tiny.cc/LTkpU).

    Leggo che proponi di cambiare le tue pagine per eludere la penalizzazione: mi rendo conto della situazione, ma se davvero dalla parte opposta c'è un comportamento doloso, è tutto inutile (fai prima tu a generare contenuti nuovi o lui a segnalarli?).

    Puoi utilizzare altre leve, da accompagnare alla generazione di contenuto (tutte purtroppo poco efficaci e assai dispendiose se davvero hai un "nemico" preprato):

    • incrementare la tematizzazione attraverso backlink;
    • sospendere la pubblicazione del feed;
    • cercare in rete i siti che ti copiano e richiedere la rimozione;
    • applicare ogni accorgimento seo possibile per minimizzare il contenuto duplicato interno (footer, barre laterali, url, description, pagine "categorie", ...);
    • seguire (anche) i punti di dechigno al fine di ottimizzare al massimo il sito;
    • passare alle vie legali;
    • iniziare la crociata contro Google ed i suoi algoritmi (perdonami l'enfasi, ma non credo sarà una battaglia semplice).

    Spero di essere stato utile nel delineare il problema e che utili siano stati i miei contributi. Vi prego di correggermi qualora abbia travisato il vostro pensiero. Resto in attesa di novità o domande.


  • ModSenior

    Credo che il problema sia si da cercare nel filtro antiduplicazione.

    Come giustamente evidenzia Deborah chiunque potrebbe fare -in certe condizioni di dominio non troppo in trust- sciacallaggio dei contenuti altrui, replicarli sulla propria home, "spammarli" attraverso i social.

    Risultato ? 2 onde diverse:

    1. L'onda da surf, che posiziona il sito replicante come sito più credibile
    2. L'onda dello tzunami che penalizza il sito originale.

    E' questo il problema che Deborah ha evidenziato e attende una risposta "ufficiale" da Google: cosa faccio in queste condizioni ?

    Devo cambiare 400 pagine per rendere originale il mio contenuto ?
    Devo rafforzare il trust del mio sito per rendermi ancora più credibile a Google ?
    O devo andare di avvocato ? 🙂


  • Super User

    Scusate se mi intrometto ma la situazione credo che sfiori anche il mio problema e chiedo scusa in anticipo se , involontariamente, magari finisco per dire qualche "corbelleria".

    Il primo punto è che mi è sembrato sempre di aver letto che Google era in grado di "riconoscere" i siti che "copiavano" vuoi conforntando le date vuoi per altri "algoritimi".
    Ora tutto a un tratto sembra che questa logica non sia più valida, e mi spiego.
    Mettiamo, come credo anch'io, che sia vero che gli aggregatori siano motivodi penalizzazione dei siti "originali".
    In altra parte del forum ho fatto notare di aver scoperto che ci sono aggregatori che aggragano da altri aggregatori che a loro volta lo fanno da altri e sono siti chiaramente, palesemente MFA.
    Ci siamo detti anche che la politica di Google è quella della massima fruibilità dei contenuti originali per l'utente finale bene.
    Ma possibile mai, chiedo, che Google non si sia accorto che io ( faccio esempio ) per cercare quella notizia ho dovuto sopportare ben 3 passaggi per un aggregatore prima di arrivare alla fonte e leggere l'articolo completo e originale, cosa che stona con la "politica" di cui si vanta?
    Mi sembra strano.

    Io ad esempio , come suggerisce giustamente LaBussola, ho iniziato a chiudere i rubinetti dei Feed per evitare la pirateria : ma a questo punto è penalizzato chi vuole leggere i miei articoli attraverso i feed.
    E' giusto , secondo Google, questo?
    Ci siamo detti che i "potenti" algoritmi di Google fossero in grado di riconoscere chi copia : sembra, alla luce di questo che o gli algoritmi di Google abbiano una falla persistente, o abbiamo creduto per mesi a una bufala.

    Qualcuno dirà, giustamente, che è questione di thrust : ok, dico io, ma allora un sito neo-nato , anche di un 6/12 mesi , che non ha avuto il tempo materiale di avere backlink ecc. ,soccombe, giusta osservazione di LaBussola in mezz'ora di lavoro di qualche concorrente.
    Ma allora significa che tra poco avremo tanti publisher scoraggiabili e scoraggiati che non produrranno più contenuti originali ( e qui entra il sospetto che sia una politca pro-vendita news ).

    Quindi in ultima analisi voglio proporre dei contenuti : bene devo eliminare i feed, perchè invece di punire il colpevole, si punisce la vittima.
    devo stare attento anche a una sola frase ( e chi fa il giornalsita sa che una stessa frase in certi articoli è facile che sia usata da altri!) formata da 6 o 7 parole.
    Ho letto l'interessantissima pagina di Madri proposta da La Bussola : sono rimasto impressionato, lo ammetto.
    Addirittura l'algoritmo va a semantizzare il circoscritto di una frase e a confrontarlo!
    Ma...mi sembra una cosa mostruosa!
    faccio un esempio concreto : la notizia di Fabrizio Corona condannato e la sua frase " mi vergogno di essere italiano".
    Scusate ma una news riporta oggettivamente anche delle dichiarazioni : se un giornalista deve preoccuparsi e avere il timore che proprone uno schema di notizia con frasi pronunciate come altri 6 magazine, mister Google pensa che sia contenuto duplicato , è mostruoso.
    Vada per gli articoli copiati, vada per interi paragrafi riportati in blocco, ma una frase formata da 6 o 7 parole ( se ho capito bene) mi sembra un assurdità.

    A questo punto, ad esempio, visto il fenomeno che accompagna i miei siti e qualche altro, posso o no pensare che Google si stia predisponendo a una "vendita" di news e quindi cerca di fare fuori tutti quelli che possono mettersi in concorrenza diretta?

    Come constatavamo io e LaBussola ( per il mio tipo di presunta penalizzazione ) se c'è un duplicato, questo è duplicato 7 giorni prima come 7 giorni dopo.
    Come allo stesso modo che senso ha "penalizzare" tutti i siti raggrupati sotto un medesimo account, posti su server diversi, con temi diversi, cma diversi, addiritttura intestati a registrant diversi?

    Posso ammette che un publisher ha 10 siti, ne toppa due, ok la penalizzazione avviene su quei 2 , ma gli altri, integerrimi, continuano la loro strada.
    Invece no, pare cha accada anche ad altri una penalizzazione "globale" che mi fa pensare che a questo punto iscriversi ad Analytics o AdSense alla fine è un boomerang.

    E come ad esempio anche il dispendio di energie e tempo per scrivere ai "pirati" : alcuni rispondono e ti tolgono, altri no, altri ancora non hanno un recapito dove scrivere e hanno domini intestati all'estero : figurati se ti metti a fare causa.
    Ma dove sono i potenti algoritmi di Google in grado di riscontrare i pirati distinguendoli dalle vittime?

    Poi , ma lo scrivo nel mio post, per evitare di intasare questo, mi sono capitate altre due cose , contemporanee su tutti siti dello stesso account.

    Scusate, era anche una sorte di sfogo, anche perchè se le cose stanno così come ce le stiamo dicendo, presto saranno centinaia le persone che soffriranno del problema, a meno che non siamo stati colpiti noi dalla mannaia della sfiga, tipo nuvoletta di Fantozzi per intenderci ( almeno sdrammatizzaimo va 😄 ).


  • Super User

    Grazie ragazzi per le vostre preziose indicazioni e per condividere le vostre esperienze con tutti noi, è sempre un momento di crescita profonda. 🙂

    Tenevo comunque a precisare, che le mie considerazioni sono riferite anche ai contenuti duplicati e non esclusivamente ai fattori on/off page del sito.

    Infatti reputo che la penalizzazione sia scattata perchè piccole imprecisioni sommate hanno portato ad una "grossa" (naturalmente per Google) mancanza di qualità (penalizzando appunto il sito).

    Se si tratta di contenuto duplicato, cambiando i contenuti della homepage e delle pagine copiate, il sito dovrebbe tornare in fluttuazione entro 10-15 giorni, per poi rientrare in SERP nelle posizioni che gli spettano entro 30-45 giorni. 🙂


  • Super User

    @dechigno said:

    5] A livello di backlinking hai lavorato principalmente su una sola keyword "Prestiti veloci online" principalmente in homepage

    Potrebbe essere questo il **principale fattore di flag **che ha fatto scattare la penalizzazione successiva? (per contenuti duplicati).

    Magari da un valore statistico atteso, che scongiurava del tutto quelle anchor, Google ha capito che la popolarità era "innaturale" e al successivo indizio ha penalizzato.

    A pensarci bene però c'è pure da dire che il sito si chiama prestitivelocionline per cui appare anche naturale che sia lincato principalmente in quel modo e principalmente in home.


  • Super User

    Ciao Micky,

    si può darsi, la considerazione del keyword = dominio è corretta ma tieni presente che un linking naturale del dominio dovrebbe essere con queste anchor:

    prestitivelocionline.it
    www. prestitivelocionline.it
    http:/ /www. prestitivelocionline.it
    prestitivelocionline

    Queste sono le anchor "naturali"... 🙂


  • User Newbie

    La Risposta di un collaboratore GOOGLE sul Forum del Centro Webmaster Google

    google.com/support/forum/p/webmasters/thread?tid=0fae8d5d13eb138a&hl=it

    Mi pare ****************** 😉


  • ModSenior

    Ciao grindhouse e benvenuto nel Forum GT.

    Purtroppo devo contraddirti. Altrimenti come si spiega che in questo thread, relativo alla stessa penalty, Alfredo che è dipendente Google (e non semplice collaboratore) risponda così?

    Ciao a tutti,e grazie per le vostre segnalazioni, che ci aiutano a migliorare la qualità dei risultati di Google.
    [...]
    Non posteremo sul Forum i risultati dell'esame delle vostre segnalazioni


  • Super User

    Condivido la posizione di Mister.jinx, conosco personalmente Angelo Palma (abbiamo lavorato insieme ad un progetto) e a mio avviso questa sua affermazione è un po' troppo avventata, anche se effettivamente alcuni punti li condivido (li ho elencati nel primo post di risposta in questo 3D).

    Il problema qui è capire il motivo della penalizzazione, perchè lo sanno tutti che se prendiamo link da banche e siti finanziari ad elevato trust il sito esce dalla penalty.


  • ModSenior

    Gentile grindhouse, mi sembra che si sia iscritto appositamente per provocare persone che stanno discutendo civilmente.
    Se vuole esprimerci la sua opinione saremo lieti di ascoltarla, altrimenti sarò felice di indicarle dov'è l'uscita.
    🙂


  • Moderatore

    Prendendo questa frase dalla risposta sul forum google:

    Non si tratta di penalizzazione, ma solo di dover attendere che anche per quei siti che hanno preso il tuo posto sia finito il periodo di permanenza in quelle posizioni.

    Mi pare di leggere, visto l'uso della parolina "anche", che queste fluttuazioni sono legate ad un algoritmo di "time sharing" in cui tutti i siti valutati paritetici condividono la stessa posizione. Come una specie di ex-equo.
    Quindi le la fluttuazione è ciclica di n posizione, si può stabilire che c'è un ex-equo di n siti.

    Io avevo sempre pensato che questo "scalzare" di posizione fosse per valutare il bounce rate di un sito ritenuto interessante per i contenuti. In pratica se il sito si merita la posizione vuol dire che l'utente che ha cliccato sulla query non ne effettua una analoga per un tempo X, ma la costruzione della frase mi ha fatto pensare altrimenti.