• Community Manager

    Case History: il BadRank/Distrust, avvicinarsi ai siti spam ed essere penalizzati

    Al Convegno GT, Beke, parlò del distrust.

    Al SEO Extreme, Enrico ha parlato di un derivato del TrustRank. Il BadRank.

    Nel Live che ho effettuato sul SEO Extreme ho solo ripostato una nota, ora sto preparando un thread specifico dove riporto anche le cose dette tempo fa nel Forum GT su questo brevetto 🙂

    Vi porto ora una piccola Case History effettuata sul mio sito Libri-online.org

    10-02-2007 il sito cambia Mantainer e Proprietario

    12-02-2007 il sito perde un sacco di posizioni nei motori di ricerca e apro un thread nel Forum GT il giorno dopo.

    Non mi era mai successa una cosa simile e gli stessi utenti del Forum GT confermano. Ipotesi decaduta.

    **01-03-2007 **la penalizzazione è ancora presente, sono passati 20 giorni e un'altra ipotesi mi gira per la testa: Forse la causa potrebbe essere che molti link puntavano con quella chiave al documento

    Allora aumento i backlink diversificando molto gli anchor. Niente.

    Non mi capacito, la penalizzazione diventa pesantissima. **In Google.it sono sempre presente con tutte le chiavi tra la 41 e 61 posizione.

    **E' una sorta di limbo, sono stato segnato come spam o altro di sicuro, penso dopo qualche mese.

    09-06-2007 Mi accorgo del Forum in PhpBB che è pieno di spam a siti porno. Pulisco e blocco tutto. Mi sembra strano, ogni tanto pulisco, non capisco come una risorsa possa essere segnata come spam con saltuari link a siti porno.

    Non succede niente.

    **23-06-2007 **Illuminazione. Gli iscritti al forum!!! Come home page hanno messo siti porno e quindi si è creata una directory di utenti con tanti siti esterni di spam.

    Escludo la pagina tramite il robots.txt

    **25-06-2007 **Solo due giorni dopo il sito ritorna in prima pagina dappertutto.

    Il **BadRank **o come si chiama è un filtro molto molto potente ed è davvero fenomenale, mi piace un sacco.

    Lo Spam su Google viene fermato in poco tempo in questo modo ed i siti che sono "incolpevoli" possono tornare brevemente ad essere rilevanti per la query.

    Attenti ragazzi a tutta la gestione del vostro sito e sopratutto cercate di stare alla larga da risorse di spam o possibili spam 🙂

    :ciauz:


  • Moderatore

    la tua esperienza implica che Google sta dando agli outbound links molto più peso di quanto non fosse prima.....

    la cosa interessante sarebbe capire se il problema è di per sè il linkare a siti porno ( e altri categorie simili ), se gli outbound links hanno in qualche modo diluito il topic del sito, oppure se il problema è dovuto allo scarso livello di Trust che hanno quei siti porno


  • Community Manager

    Secondo me, quelle risorse erano già segnate come Spam dai filtri di Google.

    Magari erano nella seconda tabella di BigTable 😄


  • Super User

    In pratica, stai dicendo, che possibili penalizzazioni dei forum(nello specifico) possono dipendere dai link all'homepage personale che compaiono nei loro profili.

    Secondo te, mettendo un nofollow si ottiene lo stesso effetto o è consigliabile bloccare lo spider col robot.txt?

    Il pericolo non credo riguardi solo i link a siti porno.
    Immagino che possa comportarsi allo stesso modo se i link portano a siti che usano tecniche illecite o, che a loro volta, lincano risorse spam.

    E' un quadro allarmante ma che potrebbe spiegare tanti crolli incomprensibili.


  • Community Manager

    Secondo il mio parere non è perchè sono siti porno, ma perchè sono siti spam.

    E non ho idea del comportamento con il nofollow 😞


  • Super User

    Bhe, visto che con il robot si va sul sicuro, da tua esperienza, lo si setta e si sta tranquilli 😉

    Grazie per questa dritta!


  • User Attivo

    Beh... questa è una conferma.
    Il tema penalizzazioni è uno dei più interessanti del momento.
    Certo, non è una novità: i link in uscita sono sempre stati considerati dall'algoritmo come certamente imputabili all'owner del sito. Come potrebbe essere diversamente? Di quelli che ti arrivano che ne sai? ma di quelli che partono ne sai, eccome!
    Quindi le penalizzazioni si propagano tramite i link in uscita, mai tramite quelli in entrata (entro certi limiti).
    Sul tema però una "novità" c'è, ed è che la penalizzazione non è più secca (-30, -950, -XXX sul dominio) ma molto più subdola: riguarda le chiavi importanti e trascura quelle irrilevanti.
    In pratica se non percepisci la penalizzazione tenderai a incaprettarti da solo, sovraccaricando il seo delle pagine e delle kw scese e inguaiandoti ancora di piu', in un contesto dove le misurazioni per verificare la penalizzazione sono difficili e non automatizzabili.

    Direi quasi malvagia come mossa 🙂 ma efficace.
    Non è questione di porno, ma di flag spam.
    Linkare un sito flaggato è più che rischioso anche se imho (e a naso) il nofollow dovrebbe ancora funzionare per il momento.

    Ciao


  • User Attivo

    Geniale.

    In passato mi è capitato una situazione simile in seguito ad un "buco" sul forum, che permise di far inserire link a centinaia di spammer.

    Poco tempo dopo il sito iniziò a calare di molto nelle serp....ecco scovato il perchè.

    Peccato che abbia piallato tutto, altrimenti sarebbe stato un ottimo test di conferma.

    Grazie comunque! 🙂


  • User Attivo

    Scusate ma voglio vedere se ho capito bene 😛

    Se io da una mia pagina linko un sito d "dubbia argomentazione" che magari contiene affiliazioni a siti spam e che Google ritiene un sito negativo (quindi BadRank) ho effetti "peggiori" che essere linkata IO da questo sito?

    Non so se mi sono spiegata...Io linko dal sito A il sito B che è ritenuto da Google un sito SPAM e quindi mi viene trasmesso inversamente il BadRank.
    Se il sito B linka il mio sito A ha lo stesso effetto di passaggio di BadRank?


  • ModSenior

    Si hai capito bene,

    se una nostra pagina linka **incidentalmente **un sito spam noi rischiamo penalizzazione. Google premia link pagine con link aggiornati e di qualità.


  • User Attivo

    Si questo lo sapevo...ma volevo capire se l'effetto del BadRank è differente nel caso in cui io linko un sito spam o un sito spam linka me... Se è più o meno incisivo il fatto che io linko o che lui linka me.


  • Moderatore

    @JennyM said:

    Si questo lo sapevo...ma volevo capire se l'effetto del BadRank è differente nel caso in cui io linko un sito spam o un sito spam linka me... Se è più o meno incisivo il fatto che io linko o che lui linka me.

    il criterio è molto semplice....

    essere linkati da siti spam non è un problema, a meno che i link da siti spam non rappresentino la stragrande maggioranza, nel qual caso è probabile che sia in atto un tentativo di manipolare le SERP e quindi vengono allertati i quality raters

    nel caso invece tu linki siti spam subisce una penalizzazione, ovviamente viene tolto un tot del rank per ogni link verso un sito spam

    questo perchè i link vengono usati da Google per misurare la distanza di una risorsa ( pagina web per esempio ) rispetto ad un blocco di altre risorse.....

    linkando siti spam ti avvicini man mano sempre più alla "nuvola di siti come un rank negativo" e il tuo rank ne soffre

    il ragionamento dietro questo algoritmo è che umanamente non puoi costringere gli spammer a non linkarti, tuttavia puoi determinare quali link escono dal tuo sito


  • User Attivo

    Grazie Paolino, ora ho capito 😄


  • User

    Bhè di fatto, come stavo cercando di scrivere sul thread analogo in Seo focus, è il buon vecchio adagio di Google: *"avoid bad neighbourhood" *non vi pare?


  • ModSenior

    @Obeah Man said:

    Bhè di fatto, come stavo cercando di scrivere sul thread analogo in Seo focus, è il buon vecchio adagio di Google: *"avoid bad neighbourhood" *non vi pare?

    esattamente.


  • User Attivo

    a me interessa capire bene il delay....Giorgio è stato molto preciso nell'ordinare cronologicamente gli eventi ma quello che non mi convince è come fa ad essere così sicuro che ad ogni sua mossa google risponda con una contromossa (o meglio come fa ad associare all'eliminazione di una dir a mezzo robots un ritorno di trust così repentino!)

    ciao,

    Andrea


  • Moderatore

    @gaiodedu said:

    a me interessa capire bene il delay....Giorgio è stato molto preciso nell'ordinare cronologicamente gli eventi ma quello che non mi convince è come fa ad essere così sicuro che ad ogni sua mossa google risponda con una contromossa (o meglio come fa ad associare all'eliminazione di una dir a mezzo robots un ritorno di trust così repentino!)

    ciao,

    Andrea

    per un motivo semplicissimo e cioè il fatto che questo forum viene spiderizzato varie volte al giorno.....

    l'attuale sistema di spidering di Google assegna una frequenza di spidering ad ogni risorsa presente sul web, a seconda della velocità con cui la risorsa stessa aggiorna e a seconda del punteggio globale dato da Google ad un sito web....

    per taluni siti lo spidering è continuo e lo stesso vale per il ranking


  • User Attivo

    se così fosse qualcuno avrebbe già analizzato la frequenza di passaggio dello spider ed avrebbe stilato una tabella di conversione frequenza/ranking.


  • Moderatore

    @gaiodedu said:

    se così fosse qualcuno avrebbe già analizzato la frequenza di passaggio dello spider ed avrebbe stilato una tabella di conversione frequenza/ranking.

    in che senso? la frequenza dello spider influenza il ranking, tuttavia è inutile cercare di manipolarla soprattutto perchè non si può andare oltre un dato limite e comunque questo comportamento è stato visto solo in settori particolari, quindi con particolari keyword legati ad argomenti in cui la news fresca è importante


  • User Attivo

    adesso quello che dici ha più senso......

    altrimenti mettere la frequenza di update in sitemap hourly o monthly avrebbe influenzato le serp.....

    google passa più spesso dove nota che i contenuti cambiano velocemente ma a mio parere non ha senso che ciò influenzi sul ranking se non per keyword legate a news.

    ciao,

    Andrea