• ModSenior

    Google mostrerà nei risultati siti con maggiore qualità.

    La missione di Google è semplice: fornire alle persone i risultati migliori alle loro ricerche nel modo più velocemente possibile. Questo richiede un costante lavoro di perfezionamento dei suoi algoritmi per poter gestire i nuovi contenuti, buoni e non buoni, che vengono pubblicati giorno dopo giorno.

    Molte delle modifiche di Google sono quasi impercettibili, e poche persone si rendono conto delle differenze nei risultati.
    Tuttavia in questo ultimi giorni Google ha introdotto un miglioramento davvero consistente nei suoi algoritmi, un cambiamento che impatterà sul 11,8% delle ricerche e per questo è opportuno che tutti ne vengano a conoscenza.

    Questo cambiamento algoritmico è stato progettato per ridurre il ranking di:

      • siti di bassa qualità
      • siti che non offrono valore aggiunto per gli utenti
      • siti che copiano contenuto da altri siti web
      • siti semplicemente non utili

    Allo stesso tempo questi cambiamenti daranno una migliore visibilità ai siti con un'alta qualità, siti che offrono contenuti originali e siti che pubblicano informazioni come ricerche, report approfonditi, analisi e via dicendo.

    Google non può introdurre un miglioramento così consistente senza toccare il posizionamento di moltissimi siti. Succederà che alcuni siti andranno su e altri ancora andranno giù. Google dipende dalla qualità dei contenuti creati da meravigliosi siti web in tutto il mondo e si sente responsabile ad incoraggiare la crescita di un web migliore, sano e di tutto l'ecosistema che gira intorno.

    Perciò è importante premiare siti di qualità ed è esattamente quello che farà questo nuovo algoritmo.

    Vale la pensa segnalare che questo aggiornamento non si basa sui dati raccolti dall'estensione per il browser Chrome Blocklist rilasciata alcune settimane fa. Tuttavia i tecnici di Google hanno già confrontato i dati provenienti dalle segnalazioni fatte manualmente tramite il plugin Blocklist e i siti identificati dal nuovo algoritmo e hanno verificato che le preferenze espresse dalle persone sono ben rappresentate dai nuovi risultati di Google.

    Se si confrontano le prime dozzine di siti bloccati manualmente si scopre che l'84% di questi viene identificata dal nuovo sistema e quindi è una conferma indipendente che il nuovo algoritmo darà un beneficio reale agli utenti.

    Google annuncia quindi con molta enfasi l'introduzioni di questo nuovo algoritmo migliorativo perché crede che è un grande balzo nella giusta direzione per aiutare le persone a trovare risultati e siti migliori nelle loro ricerche.

    Google ha fronteggiato questo problema dei siti di scarsa qualità per più di un anno, e ha lavorato sulle modifiche appena introdotte negli scorsi mesi. Lavorerà ancora nei prossimi mesi rilasciando ulteriori aggiornamenti che miglioreranno sostanzialmente la qualità dei risultati delle ricerche.

    Per iniziare, Google rilascerà questo aggiornamento solo negli Stati Uniti mentre la distribuzione nel resto del mondo avverrà successivamente.

    Articolo originale: Finding more high-quality sites in search


    Grossi cambiamenti in vista quindi, e dico anche che era ora visto che proprio qui sul forum gt molti professionisti hanno espresso negli ultimi mesi le loro considerazioni e critiche sui risultati delle ricerche che spesso non mostravano siti di qualità.
    Abbracciate più l'idea di Danny Sullivan di searchengineland oppure riscontrate in questo cambiamento qualcosa già annunciato lo scorso anno tra maggio e giugno da Maile Ohye?

    Valerio Notarfrancesco


  • Super User

    Io credo che andrà parecchio ad incidere sui siti con contenuti duplicati, ad esempio quelli che prendono gli articoli dai feed rss di altri blog per poi ripubblicarli selvaggiamente 🙂
    Logicamente non solo su questi 🙂


  • Super User

    Si ritorna agli albori pregoogleiani, quando si scrivevano contenuti di buona qualità. Lasciatemelo dire: Finalmente!


  • User Attivo

    la speranza per un web migliore è sempre positiva.
    Ma aspettiamo a vedere prima come fa di esprimere un giudizio.


  • User

    @valentina83 said:

    Si ritorna agli albori pregoogleiani, quando si scrivevano contenuti di buona qualità. Lasciatemelo dire: Finalmente!

    Non esageriamo.
    Saranno penalizzati i contenuti duplicati.


  • User

    Forse si fara' qualcosa per contenuti duplicati, ma e' difficile definire cosa e' e come e' un sito di qualita', senza intervento umano.
    Ammesso e non concesso che si trovi una formula capace di scovare il sito non di qualita', il bravo webmaster quanto tempo ci metterebbe per far vedere a google il suo sito come un sito di qualita'?
    Ci sara' sempre sempre la guerra a guardie e ladri.


  • Super User

    Premesso che finora i cambiamenti più importanti non sono mai stati annunciati ...
    prima che una macchina senza alcun aiuto umano riesca a capire se un sito è di qualità oppure no occorre che si arrivi all'intelligenza artificiale, traguardo ancora lontanissimo.

    Per ora giudizi sulla qualità possono essere dati solo da esseri umani, e la macchina Google non fa altro che cercare di riassumerli.

    E finora lo ha fatto principalmente sentendo i webmaster, attribuendo ad ogni link follow un giudizio positivo.

    Per andare oltre bisogna sentire pure il giudizio degli utenti.

    Quindi, come dicevo pochi giorni fa in un post sui 10 fattori di posizionamento più importanti, inserendo un fattore solo da me detto, per me Google già utilizza, e utilizzerà ancor di più dati statistici sul comportamento degli utenti sulle SERP.


  • User

    Anzitutto io credo che l'algoritmo non sia stato introdotto solo negli USA, o quantomeno è in fase di test anche da noi perchè da questo lunedì ho notato delle differenze notevoli nel traffico di uno dei siti che gestisco. L'intento di Big G è lodevole (io stesso mi lamento ogni giorno del fatto che mille siti copiano tra di loro le stesse notizie senza aiutare nessuno), ma da quello che vedo (ammesso che in effetti l'algoritmo sia già in uso da noi) mi sembra che faccia tutto il contrario di quello che dice. Le pagine pubblicate da siti che duplicano per intero i miei articoli sono posizionate meglio di quelle originali. Non voglio entrare nel merito della questione qualità perchè mi rendo conto che il mio sito potrebbe non essere così "eccelso", ma quanto meno dovrebbe risultare in posizione migliore ai soliti siti/forum che fanno copia e incolla.


  • Moderatore

    Salve.

    Stiamo tentando di sviscerare il lato più SEO di questa notizia in un'altra sezione del Forum. Nel mio intervento ho provato a dire la mia anche su certe questioni che ho trovato trattate in questo thread.
    Dato che il tema si svolge necessariamente a cavallo tra le due sezioni chiedo a ciascuno di agire con buon senso cercando di lasciare qui ulteriori news o opinioni sulle stesse, riferendosi invece all'altra discussione per le questioni più tecniche.

    Provo ad aggiungere il mio contributo.

    Quest'ultima notizia è un decisivo passo nella campagna di marketing e branding perfettamente condotta da Google. Ovviamente per giudicare il successo dell'operazione dobbiamo attendere i risultati, ma l'iniziativa è meritevole di essere analizzata nel complesso.

    Dopo che negli ultimi 4/5 mesi dello scorso anno numerose voci importanti del panorama SEO mondiale avevano cominciato a lamentarsi dei pessimi risultati di Google per alcune ricerche, il malcontento stava cominciando a diffondersi (probabilmente in maniera giustificata) tra chiunque avesse un po' di dimestichezza con questo ambiente.

    A gennaio la situazione pareva peggiorare ancora, arrivando pericolosamente vicina ai media tradizionali.

    Ecco allora la reazione di Google in un post (probabilmente pianificato da tempo) nel quale si spiega il problema e si traccia una rotta per risolverlo. Riassumendolo:

    • Nel 2010 ci siamo focalizzati sui siti hackerati, che erano la fonte principale di spam.
    • Prenderemo provvedimenti per migliorare ulteriormente la qualità del servizio e daremo ascolto ad ogni parere.

    Passa una settimana ed il primo aggiornamento è già operativo. Il cambiamento non soltanto viene annunciato, ma addirittura Matt Cutts si prende la briga di coinvolgere gli utenti più esperti in una discussione ascoltando i loro feedback.

    Altri 3 giorni e l'apertura è ancora più evidente in un nuovo post: vi mettiamo a disposizione un'estensione per pulire le vostre serp personali e per di più

    we will study the resulting feedback and explore using it as a potential ranking signal for our search results(studieremo il feedback risultante ed cercheremo di usarlo come potenziale fattore di ranking per i nostri risultati di ricerca.)

    Anche stavolta l'ascolto dei webmaster (che spesso hanno lamentato una certa distanza di Google dalle questioni SEO) viene enfatizzato. Alcune frasi significative di Matt Cutts in questo thread:

    • I asked a member of the webspam team to prototype the extension after reading this Hacker News comment on January 1st: http://news.ycombinator.com/item?id=2058408 [L'idea è partita da voi e noi l'abbiamo realizzata il più velocemente possibile.]

    • Ad una persona che si stava lamentando dell'aumento di documenti non rilevanti in serp risponde> Please install the extension and let us know what sites are annoying you. You're exactly the sort of person we want that feedback from.
    • Per sottolineare come i siti penalizzati perdano ogni alibi, paragona il futuro aggiornamento al filtro antispam di Gmail. Se la vostra posta non viene più ricevuto tra le email è perché > enough people marked your emails as spam that the emails were considered spam. Insomma, se sarete penalizzati, non potrete prendervela con Goolge direttamente.

    Nel frattempo sui media si inseguivano notizie di cambiamento, anche contro quei portali giganteschi che molti immaginavano sopra ogni legge di Google.
    Il New York Times racconta in un articolo interminabile come il sito web di una società quotata in borsa sia stato penalizzato per il modo nel quale riceveva link. Sottolineo l'ultimo paragrafo:

    Rarely, he explained, does he single out a company publicly, because Google?s goal is to preserve the integrity of results, not to embarrass people. ?But just because we don?t talk about it,? he said, ?doesn?t mean we won?t take strong action.?
    Poco dopo sito web di Forbes viene penalizzato per una presunta vendita di link, ma pulendo il codice viene reintegrato.

    Negli stessi giorni, ecco poi l'attacco al principale competitor, sferrato attraverso uno dei siti più importanti per chi si occupa di motori di ricerca e meno di una settimana prima di una importante conferenza (ovviamente monopolizzata dalla questione): Bing copia Google, lo fa spiando gli utenti attraverso politiche sulla privacy discutibili e queste sono le prove incontrovertibili.

    Senza voler allungare inutilmente il post, ho omesso una lunga serie di interventi insoliti di Matt Cutts sia via Twitter che attraverso i forum ed i siti di settore. Vi sono state anche altre penalizzazioni importanti.

    Arriviamo poi all'annuncio più recente, riportato prontamente da vnotarfrancesco, dove si promettono cambiamenti per il 12% delle serp, sottolineando come l'ascolto dei webmaster sia stato fondamentale.

    Aspettando i risultati dei cambiamenti anche in Italia, questa vicenda ci dice già molto sulla necessità di Google di restare leader incontrastato nel settore della ricerca e sulla potenza tecnologica/mediatica che è in grado di impiegare.
    L'azienda, da sempre accusata di essere sorda ai webmaster, stavolta ha recepito un problema dalla comunità, ha chiesto ai più esperti di dare il loro punto di vista ed ha rilasciato un aggiornamento tenendone sostanzialmente di conto...insomma, penso che se ci sarà molto da riflettere sul lato più seo e tecnico, qualcosa di sostanziale in questi mesi sia cambiato anche per quanto riguarda il rapporto tra Google ed i suoi stakeholders. O che almeno stiano facendo di tutto per farcelo pensare...


  • Community Manager

    Dopo che tutti i webmaster avranno dato il loro contributo, bunga bunga per tutti 😄

    Io mi sono sinceramente rotto di questo modo di comunicare di Google.

    Quando c'è da chiedere chiedono, quando c'è da aiutare non se ne parla.

    Si stanno aprendo ai webmaster, ma come vogliono loro, non come i webmaster vorrebbero. Che è diverso.

    Queste comunicazioni fatte per calmare le acque e mettere una pezza non sono esattamente quello che mi aspetto da Google.

    Credo che sia arrivato il momento di chiedere conto di molte cose e di iniziare una vera e sana collaborazione con i motori di ricerca per migliorare il lavoro del webmaster e per migliorare i motori.

    Questo è quello che penso.

    Che poi Google si trovi in questa situazione perchè per anni se n'è fregato degli autori originali degli articoli e di dare un peso alla qualità...è un dato di fatto (lasciamo perdere le comunicazioni altisonanti, andiamo dritti al punto, non si sono mai preoccupati di questo).

    E ora se la sbrighino da soli 🙂

    Tornerò a dare una mano a Google più concreta quando loro si apriranno veramente ai webmaster, per i webmaster, non per convenienza loro.


  • ModSenior

    Wired ha intervistato Amit Singhal e Matt Cutts ponendo delle domande sul nuovo algoritmo introdotto da Google lo scorso 24 Febbraio.
    Qui trovate l'intervista: wired.com/epicenter/2011/03/the-panda-that-hates-farms/all/1

    Qui un articolo in italiano sul blog del Tagliaerbe: blog.tagliaerbe.com/2011/03/google-panda-update.html

    L'algoritmo è chiamato da google Panda Update e non con il nome che gli aveva dato Danny Sullivan che ha creato solo confusione e fraintendimenti tra i seo, come è successo ad esempio qui.

    Valerio Notarfrancesco


  • User

    La parte più interessante è quella dove si parla delle domande che si sono posti per valutare la qualità di un sito e fanno un riferimento alla quantità di pubblicità presente.