+ Rispondi alla Discussione
Pagina 1 di 2 12 UltimaUltima
Risultati da 1 a 50 di 61

Google Farmer, 12% delle SERP modificate!

Ultimo Messaggio di cece74 il:
  1. #1
    User
    Data Registrazione
    Mar 2010
    Località
    Amsterdam
    Messaggi
    86

    Google Farmer, 12% delle SERP modificate!

    Google Farmer, ecco qui il nome dell'ultimo update dell'algoritmo del piu' grande motore di ricerca in circolazione. Ho cercato sul forum ma sembra che nessuno abbia ancora scritto niente, mi permetto allora di iniziare io.

    Con "Google Farmer" l'antispam team di BigG intende penalizzare siti definiti di "scarca utilitá" o comunque non utili per gli utenti. Questo rappresenta una pietra miliare per tutti i SEO.
    Ora piu' che mai il Content e' King, non nel senso che un buon content attira link, ma nel senso che il content DEVE essere unico e utile.
    Mentre sulla definizione di "Utile" possiamo discutere a lungo, per quello che riguarda "Unico" dovremmo sbatterci la testa

    I siti che sono degli aggregatori di affiliate program verranno penalizzati, i siti che raccolgono solo feed verranno penalizzati, i siti che non hanno unique content verranno penalizzati.

    Gli scorsi giorni ho avuto il piacere di trovarmi alla SES a Londra e molti degli speakers sono convinti che anche directory e molti siti di news vedranno il loro ranking calare in maniera drammatica.

    Al momento Farmer e' live solo in US ma presto arrivera' anche in Europa, prepariamoci al peggio

    Idee? Dubbi? Perplessita'? Please, share it!

    Alcune referenze:
    searchengineland. com/google-forecloses-on-content-farms-with-farmer-algorithm-update-66071
    googleblog.blogspot. com/2011/02/finding-more-high-quality-sites-in.html

  2. #2
    Utente Premium L'avatar di antonico
    Data Registrazione
    Jun 2008
    Messaggi
    380
    La notizia è uscita ufficialmente ieri pomeriggio nel blog di google. googleblog .blogspot .com

    Vediamo un pò se e come cambiano le SERP in google.com per poi prepararci all'avvento nel google italiano. In realtà non è una novità che i siti con contenuti duplicati e semanticamente poco legati alla chiave di ricerca vengano penalizzati o comunque meno premiati rispetto ad altri siti che non presentano queste caratteristiche... vediamo un pò di quanto e come cambiano le Serp. O.o

  3. #3
    User
    Data Registrazione
    Oct 2009
    Messaggi
    86
    Sono molto perplesso sulla definizione e implementazione del concetto di "utile"! Per l'unicumn i soft non hanno problemi, ma sul valore di utile quasi neanche l'uomo è affidabile, figuriamoci la macchina.

  4. #4
    User
    Data Registrazione
    May 2010
    Messaggi
    89
    In Italia è presente da diversi mesi.
    Se vai nella sezione penalizzazione troverai tantissime testimonianze.
    Deborah Del Cortona

  5. #5
    User L'avatar di grangas
    Data Registrazione
    May 2009
    Messaggi
    25
    Io dico che sarebbe ora di penalizzare tutti quei siti creati appositamente per adsense che aggregano feed o rss e si posizionano meglio del sito che ha la notizia! Compresi anche quei siti che ogni tre righe di testo mettono una pubblicità di almeno 300x300px!

  6. #6
    Utente Premium L'avatar di Girovago
    Data Registrazione
    Mar 2007
    Messaggi
    609
    Assolutamente grangas, sarebbe davvero ora. Speriamo solo che Google non faccia errori e penalizzi i contenuti originali facendo confusione.

  7. #7
    User L'avatar di grangas
    Data Registrazione
    May 2009
    Messaggi
    25
    Ciao Girovago....
    Il problema che molte volte che mette per primo una notizia originale viene penalizzato come contenuto duplicato a discapito del sito "famoso" che però a copiato la notizia...
    Spero di essermi speigato

  8. #8
    Moderatore
    Data Registrazione
    Oct 2009
    Messaggi
    1,282
    Salve!

    Informo gli utenti che c'è un altro post aperto sull'argomento, nella sezione "Google World GT". Cerchiamo di mantenere su questo lato le discussioni più tecniche in materia SEO, lasciando all'altra sezione il compito che le spetta: raccogliere notizie ed opinioni sugli aggiornamenti del motore di ricerca ed i suoi tool.

    Dico la mia in questo thread, per quanto riguarda la SEO e gli aspetti più tecnici.
    This update is designed to reduce rankings for low-quality sites—sites which are low-value add for users, copy content from other websites or sites that are just not very useful.
    L'update è rivolto contro siti che hanno basso valore aggiunto per l'utente, che copiano contenuti da altri siti o che non sono molto utili.

    Queste definizioni sono certamente elastiche e, come ripetuto da molti, apparentemente riguardano aspetti che non possono essere percepiti da un motore di ricerca. Ma è così necessario avere una precisione assoluta?
    Se è vero che Google non è in grado di percepire inequivocabilmente la qualità di un documento vi sono comunque tanti approcci per poterla approssimare ma soprattutto vi sono tante sfumature utili tra gli estremi: magari il motore di ricerca ha creato un algoritmo in grado di bloccare il 50% dei contenuti inutili colpendo solo lo 0.5% degli utili ed è dunque in grado di migliorare significativamente il servizio agli utenti. Stesso discorso ovviamente può essere fatto per i problemi della duplicazione e via dicendo.

    Quali approcci possono essere stati utilizzati?
    Al momento non lo sappiamo con certezza ma abbiamo una buona serie di piste.
    Partirei proponendo l'analisi dei documenti attraverso catene di Markov o simili. Senza scendere nello specifico, data una parola (es. casa), le probabilità che ve ne sia un'altra vicina (es. bianca) è più alta che prendendo un'altra parola a caso. Questo metodo è ampiamente utilizzato per individuare gli argomenti dei quali tratta un documento, ma è possibile ampliarle i concetti alla scoperta di periodi sconclusionati: pensiamo all'anomalia che può generare un testo farcito di keywords o tradotto automaticamente.
    Approcci statistici sono comuni per i motori di ricerca e questo sarebbe soltanto l'ennesimo caso.
    A chi non lo conosca, consiglio di provare la ricerca avanzata per complessità dei contenuti: Google è già in grado di capire il livello medio di leggibilità di una pagina web.
    L'utilizzo del feedback dell'utente è poi, a mio modo di vedere, una innovazione decisiva: se non è già in gioco, lo sarà presto.
    Google sa molto bene come misurare la soddisfazione dell'utente: è infatti il parametro decisivo per guidare lo sviluppo del motore di ricerca.
    Sapere quante volte una ricerca viene raffinata ed in quale direzione semantica, vedere che ogni volta che un utente accede ad un sito dopo torna su Google per selezionare il risultato successivo e cose simili sono parametri già usati per la categorizzazione dei contenuti e per la personalizzazione dei risultati (o per lo meno si trovano in moltissimi brevetti). Perché non usare questi dati anche per misurare il grado di apprezzamento dell'utente?

    Nessuno di questi approcci può essere considerato infallibile, ma tutti sono ampiamente sperimentati ed anche se non saranno in grado di sconfiggere definitivamente lo spam, saranno probabilmente in grado di migliorare i filtri. Quanti spammer avranno i mezzi tecnologici ed economici per adeguarsi?

    Interessante il fatto che Google sembri sempre riferirsi ad interi siti web più che al singolo documento. Questa può essere la chiara dimostrazione della volontà di colpire una linea editoriale più della singola pagina: vedremo meglio nei prossimi giorni, ma se questa sensazione dovesse dimostrarsi sensata probabilmente potremmo veder perdere di valore in poco tempo a tanti backlinks che abbiamo messo in directory, aggregatori e siti di article marketing di discutibile qualità. Quanti di questi sopravviveranno alla scure?

    Concentrandosi sui numeri, il 12% delle ricerche sono una percentuale in grado di rivoluzionare alcuni tipi di mercato, soprattutto se escludiamo le queries localizzate, branded o navigazionali che, per vari motivi, esulano un pochino dallo scopo dell'aggiornamento. Se succederà quello che sta accadendo in queste ore negli USA, vedremo siti anche rilevanti crollare e con quale speranza di riposizionarsi?
    Non si tratta questa volta di togliere link a pagamento, eliminare i contenuti duplicati o cancellare qualche testo nascosto: per uscire dalla penalizzazione si dovrà elevare la qualità media dei testi del sito...un'operazione spesso impraticabile.

    Spero di aver dato qualche spunto utile alla discussione, aspettando di vedere anche sulle serp che conosciamo meglio i nuovi risultati.
    Ovviamente resto a disposizione per qualsiasi chiarimento ed in attesa di leggere anche altre opinioni.

  9. #9
    User
    Data Registrazione
    Mar 2010
    Località
    Amsterdam
    Messaggi
    86
    Bussola, grazie per la precisazione. Non avevo trovato l'altro post perche' cercavo "Google Farmer".

    Se ho capito bene in questo post dobbiamo parlare dell'aspetto tecnico e nell'altro delle nostre opinioni? Aspetto conferma per non creare discussioni nei luoghi sbagliati :P

    Colgo l'occasione, pero', per una riflessione. Google, oramai, da anni ha smesso di essere un motore di ricerca "duro&puro" per diventare a tutti gli effetti una compagnia quotata in borsa, questo e' sembra bene tenerlo a mente. E, aggiungerei, sono anni oramai che lo scopo fondamentale degli aggiornamenti di Google sono guidati essenzialmente dal PROFITTO, ovviamente mascherato, nei loro post ufficiali, da una migliore esperienze per gli users.

    Prendiamo, ad esempio, gli ultimi aggiornamenti legati alle ricerche locali. Un tempo (poco piu' di un anno fa) fu indrodotta la mappa per ricercheche avevano un qualche fattore "locale" e le SERP, che prima includevano 3 risultati ADWORDS e il resto Organic sono cambiate in 3 risultati ADWORDS, MAPPA e dopo organic, di fatto spingendo i risultati ottenuti con un buon SEO nella zona della pagina visibile solo dopo aver scrollato verso il basso con il mouse.

    A livello empirico tutti sappiamo cosa e' successo, ma vediamolo, per una volta, a livello pratico, come se fossimo un utente normale.

    Il signor Rossi cerca un hotel a Roma, nel 2009 quando cercava su google "Hotel a Roma" trovava siti come Booking, Priceline, Expedia, Lastminute etc. etc., ne sceglieva uno e prenotava il suo albergo. Guadagno per Google = 0

    Dopo un anno il signor Rossi cerca di nuovo un hotel a Roma, va su google e si ritrova con 3 sponsored website (se clicka Google guadagna un pochettino, diciamo per questo tipo di Keyword qualcosa come 2 euro a click), sotto i 3 risultati sponsorizzati trova una bella mappa con i siti diretti degli hotel e sotto ancora i vari Booking, Expedia etc. etc. Diciamo che a questo giro big G ha una buona possibilita' di guadagnare qualcosa con ADWORDS e, inoltre, gli hotel diretti hanno una buona probabilita' di ottenere una prenotazione diretta. Questo, che potrebbe sembrare al primo sguardo una miglioria per l'utente, e' in realta' un mezzo pacco. Mentre prima il signor Rossi poteva trovare, diciamo, 100 hotel diversi a Rome sui vari siti, adesso Google gli da una selezione solo di 5/6 hotel scelti, arbitrariamente, da lui.

    Secondo il mio modesto parere, e secondo le parole di un tale Munch (dipendente di Google presente alla SES di Londra dove ha parlato, appunto delle ricerce locali su Google) fondamentalmente questi aggiornamenti sono stati fatti perche' BigG non vuole intermediari, se qualcuno cerca un hotel lui non vuole ridare indietro risultati con siti che offrono hotel, ma direttamente con i siti degli hotel. Perche'? Beh, non bisogna essere dei geni per capire che, in un prossimo futuro, Google vuole diventare l'intermediario tra gli hotel e gli users, tra le compagnie aeree e gli users, tra chi vuole fittare una macchina e la compagnia che le fitta, insomma, a Mountain View vogliono piu' soldi!

    Alla domanda posta al solito Munch: "ok, ma allora grandi siti come Expedia, Booking etc. come possono mai competere con voi?" la sua risposta e' stato un laconico: "beh, ci sono i social media, no?"

    E direi che con questa ultima risposta, ho detto tutto!

    PS: Bussola, se pensi questo post vada meglio nell'altra discussione, feel free di muoverlo :P

  10. #10
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Per quanto riguarda gli articoli ?? Ci sono (nel mio caso) siti o forum che utilizzano gli stessi articoli e modificano il testo a parole propie ma il contenuto è lo stesso.. questo nuovo metodo influisce anche su questo per il posizionamento nella serp ??

  11. #11
    User
    Data Registrazione
    Jan 2008
    Messaggi
    118
    La mia esperienza mi ha reso particolarmente scettico di fronte al concetto "content is the king": avevo un sito blogspot che si è spostato, e adesso al vecchio URL c'è solo la classica frase di servizio con un link. Ebbene, tutt'ora quella striminzita paginetta si posiziona meglio del nuovo blog strapieno di contenuti (e con molti più backlink, fra l'altro).

    Tornando all'aggiornamento, prima di esprimermi aspetto di vedere qualche ricerca condotta sul campo. Per il momento ho visto solo tante belle parole, ma nello specifico Google non ha detto niente sul COME intende implementare questa novità. Ok, i siti belli andranno avanti, ma cosa sono i siti belli? Quali parametri guarderà Google d'ora in poi?

  12. #12
    User
    Data Registrazione
    May 2010
    Messaggi
    89
    @bucciamarcia.
    Detto cosi è troppo limitato per poter fare una analisi.
    L'errore più comune è pensare "a me è successo questo, quindi quello che dite è errato" senza valutare una serie di variabili.

    E' un pò come dire:
    "Mi sono fatto il vaccino e non serve a niente" per poi scoprire che si, hai fatto il vaccino, ma corri anche nudo e scalzo, sulla neve a -30 gradi.

    Quindi se vuoi indicarci il caso in concreto, sarebbe utile a tutti.


    @cece Significa che commenti una notizia con parole tue? Se è così nessun problema, anzi.
    Se invece cambi una parola ogni 5 (l'ho visto fare) ... no non va bene.
    Deborah Del Cortona

  13. #13
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    @cece Significa che commenti una notizia con parole tue? Se è così nessun problema, anzi.
    Se invece cambi una parola ogni 5 (l'ho visto fare) ... no non va bene.
    Appunto !! Ci sono certi articoli con qualche parola cambiata vengono riproposte come articoli propi eppure l'attuale Google non mi sembra penalizzarle.. anzi !!

  14. #14
    User
    Data Registrazione
    May 2010
    Messaggi
    89
    Fammi un esempio.
    Ultima modifica di Marco Quadrella; 27-02-11 alle 18:55 Motivo: Maiuscola e punto.
    Deborah Del Cortona

  15. #15
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Ammettiamo: Io ho un articolo e sono posizionato con quell'articolo alla prima pagina di google al secondo posto.. ammettiamo che qualcuno mi copia l'articolo e lo modifica a parole sue.. c'è perfino il caso che mi stà davanti.. il nuovo modo di Google potrà accorgersi di eventuali articoli copiati,diversi ma con lo stesso contenuto ?

  16. #16
    User
    Data Registrazione
    May 2010
    Messaggi
    89
    se non mi fai vedere il caso concreto ci sono decine di variabili che possono influire.
    Postami un esempio.
    Deborah Del Cortona

  17. #17
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Non ho al momento un esempio concreto.. anche perchè dovrei tirare in ballo siti e non mi sembra il caso.. comunque già che mi dici che ci sono molte variabili è già una risposta.

  18. #18
    User
    Data Registrazione
    Jan 2008
    Messaggi
    118
    Citazione Originariamente Scritto da collega-deborahdc Visualizza Messaggio
    @bucciamarcia.
    Detto cosi è troppo limitato per poter fare una analisi.
    L'errore più comune è pensare "a me è successo questo, quindi quello che dite è errato" senza valutare una serie di variabili.

    E' un pò come dire:
    "Mi sono fatto il vaccino e non serve a niente" per poi scoprire che si, hai fatto il vaccino, ma corri anche nudo e scalzo, sulla neve a -30 gradi.

    Quindi se vuoi indicarci il caso in concreto, sarebbe utile a tutti.
    Certo questa è solo la mia esperienza, sono ben consapevole che è limitata e io non sono un buon SEOer, ma secondo me induce pensare che il contenuto non sia affatto una condizione necessaria per restare a galla. Per l'esempio concreto cerca mindcheats (il nome del mio sito) su Google, vedrai che quello senza contenuti è in testa.

    Gli unici aspetti nei quali il vecchio sito è superiore sono velocità e, limitatamente, anzianità (questione di qualche mese), il che mi fa pensare che almeno uno di questi due fattori sia più importante del contenuto.

  19. #19
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Secondo me l'anzianità.

  20. #20
    User
    Data Registrazione
    Jan 2008
    Messaggi
    118
    Potrei capire se il vecchio dominio fosse più anziano di anni è anni, ma si parla solo di quache mese (uno maggio 2010, l'altro novembre 2010).

  21. #21
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Beh.. 6 mesi credo propio che influiscano !

  22. #22
    Utente Premium L'avatar di Web Hunter
    Data Registrazione
    Feb 2008
    Località
    Roma
    Messaggi
    619
    Io penso che nell'era dei Social, e di Facebook soprattutto, Google voglia realmente offrire un servizio migliore ai propri utenti, e non potrebbe essere altrimenti, perché mai come ora Google potrebbe rischiare di perdere il suo monopolio, se Bing e FB mettessero a segno un accordo "losco". Tentare di ragionare come Google è sbagliato, primo perché non sappiamo le reali intenzioni dei managers della compagnia, secondo perché tutto viene in seguito implementato all'interno di un robot che, essendo tale, è soggetto ad errori che sfuggono alla comprensione "romantica" umana. Quando LaBussola cita l'esperienza dell'utente come parametro di valutazione, ovvero l'uscire da una pagina, tornare su Google ed entrare in una successiva, ho i miei dubbi. Consideriamo questo:

    - posso farmi i primi 10 siti per - hotel roma - per confrontare i prezzi;

    - posso cliccare i primi 10 siti di poesie perché amo leggerne tra le più svariate;

    - posso accedere ai primi 10 risultati perché voglio controllare i miei concorrenti. E la lista potrebbe proseguire.

    L'esperienza dell'utente non si valuta, a mio avviso, tramite il tempo di permanenza (falsificabile) o le cliccate per uscire dalla pagina, ma tramite il parametro social (in futuro, perché ancora, come detto da Cutts, non è stato implementato), ovvero condivisioni, Google mail, salvataggio nei preferiti, perché queste rappresentano prove reali di interesse, ovvero consigliare un sito oppure salvarselo in locale o in remoto, tramits Social Bookmarking.

    Ma ricordiamo che nulla di tutto ciò è stato realmente implementato, altrimenti non assisteremmo a siti di una pagina con un bel link esterno super posizionati.

    La valutazione di un contenuto non è un'operazione da bot, per tanti motivi. Dire cosa ci si debba attendere di trovare dopo "casa" è, a mio avviso, leggermente azzardato, poiché non si tiene conto delle tante variabili date dalla scrittura, sia letteraria sia commerciale. Una presenza innaturale di keywords è semplice da individuare, ma la qualità del testo nel suo complesso non è, sempre IMHO implementata, per questo, ovvero per determinare la qualità di un testo, Google si serve, e si è sempre servito, degli inbound links.

    Google, è vero, ha numerosi brevetti a tal proposito, ma secondo me hanno influenza minima in serp.
    Ultima modifica di Web Hunter; 27-02-11 alle 21:41

  23. #23
    L'avatar di Giorgiotave
    Data Registrazione
    Oct 2004
    Località
    Monasterace
    Messaggi
    42,813
    Visita il canale Youtube di Giorgiotave
    Dal punto di vista algoritmico sono molto dubbioso, secondo me hanno fatto come per i link a pagamento:

    - hanno preso un team specializzato che a mano ha penalizzato i siti più importanti

    - chiedono ai webmaster di segnalare questi siti

    Sbagliano di nuovo il modo di comunicare, creando panico.

    Parere mio: non segnalate un tubo.

    Dal punto di vista algoritmico, sarà difficile andare a stabile criteri di penalizzazione se non con complessi calcoli su tutto il dominio e molte risorse.

    Per questo vogliono l'aiuto dei webmaster.

    In questa discussione parliamo solo di SEO, per tutti gli aspetti di comunicazione/politici c'è la discussione segnalata da LaBussola.
    SMConnect 2019: l'evento per i professionisti del Digital Marketing arriva nella sua edizione più avanzata di sempre!

  24. #24
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Quando si pensa ci possano essere più informazioni sulla "Google Farmer" ?

  25. #25
    User
    Data Registrazione
    Dec 2010
    Località
    milano
    Messaggi
    45
    Sinceramente a livello algoritmico non capisco come si riesca a individuare una content farm.
    Andando a vedere quello che è successo negli Stati Uniti noto che sono state penalizzate molte article directory che hanno comunque contenuti originali perchè controllati prima della pubblicazione.

  26. #26
    Utente Premium
    Data Registrazione
    Jan 2005
    Messaggi
    211
    molto interessante , secondo voi che impatto avrà sugli e-commerce e in particolare sulle pagine interne dei cataloghi?

    In fondo gran parte degli e-commerce prendono la descrizione del prodotto dal sito del produttore e la replicano sul loro sito , magari mettendo anche un link.

    Saranno ritenuti contenuti "poco utili"?

  27. #27
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Citazione Originariamente Scritto da oronzo_canà Visualizza Messaggio
    [...]
    Questa si che è una bella domanda!! Io non saprei!!
    Ultima modifica di Marco Quadrella; 28-02-11 alle 12:57 Motivo: Rimosso quote inutile.

  28. #28
    User
    Data Registrazione
    Mar 2010
    Località
    Amsterdam
    Messaggi
    86
    Citazione Originariamente Scritto da cece74 Visualizza Messaggio
    Questa si che è una bella domanda !! Io non saprei !!
    Secondo me la risposta e' SI.

    Questo aggiornamento dovrebbe essere la fase finale dela battaglia contro i contenuti duplicati.

    Se il sito A vende scarpe e il sito B e' un affiliato del sito A e ne copia (prende pari pari) le descrizioni dei prodotti, il sito B verra' penalizzato a vantaggio del sito A.

  29. #29
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Magari sui duplicati si. Ma articoli identici modificando le frasi ?
    Su questo non credo ci sia poi molto da fare ma è già qualcosa.

  30. #30
    User
    Data Registrazione
    Mar 2010
    Località
    Amsterdam
    Messaggi
    86
    "Stasera vado a mangiare una pizza con Maria"

    "Maria stasera viene a mangiare una pizza con me"

    Se parli di cose del genere, penso che per BigG sia comunque un "contenuto duplicato".

  31. #31
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Esatto !! L'esempio è azzeccato !! Ma non credo che Google si accorga della differenza,è da parecchio che sottopongo questo discorso.

  32. #32
    Utente Premium L'avatar di Web Hunter
    Data Registrazione
    Feb 2008
    Località
    Roma
    Messaggi
    619
    Citazione Originariamente Scritto da GigiPic Visualizza Messaggio
    "Stasera vado a mangiare una pizza con Maria"

    "Maria stasera viene a mangiare una pizza con me"

    Se parli di cose del genere, penso che per BigG sia comunque un "contenuto duplicato".
    Io invece penso proprio di no, il limite di una macchina è proprio questo. Per Google questi due contenuti sono diversi, nessun dubbio. Magari simili, ma non contenuto duplicato.

  33. #33
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Quoto !! Propio quello che intendo io, è questa la pecca dove dovrebbe orientarsi Google magari con un algoritmo che analizzi la sintassi.

  34. #34
    User
    Data Registrazione
    Mar 2010
    Località
    Amsterdam
    Messaggi
    86
    Citazione Originariamente Scritto da Web Hunter Visualizza Messaggio
    Io invece penso proprio di no, il limite di una macchina è proprio questo. Per Google questi due contenuti sono diversi, nessun dubbio. Magari simili, ma non contenuto duplicato.
    Io non la vedo cosi'. Parlio, ovviamente, di quello che succedera' dopo che Farmer sara' live anche in Italia.

    Ho fatto questa piccola prova nel .com:

    "I'll go with maria to have a pizza"
    Primo risultato: http :// www . yelp. com/biz/bella-maria-pizza-brooklyn

    "maria will have a pizza with me"
    Primo risultato: http :// www . yelp. com/biz/anna-maria-pizza-brooklyn

    Ovviamente parliamo di macchine, non sara' perfetto, ma questo ci fa capire che bisogna impegnarsi un poco di piu' nella creazione di unique content.

  35. #35
    User
    Data Registrazione
    May 2010
    Messaggi
    89
    è questa la pecca dove dovrebbe orientarsi....che analizzi la sintassi
    Perchè è una pecca?

    Pensa ad un fatto di cronaca ed ad un giornalista che deve scrivere un articolo: i punti da parlare sono che:
    1) è stata trovata Yara;
    2) con un ciuffo di erba nelle mani;
    3) è stata ritrovata abbandonata in un campo di erba alta;
    4) con sei coltellate.

    Questi sono i dati: ti posso assicurare che se prendi 100 giornalisti, nessuno scriverà esattamente la solita cosa, anche parlando esclusivamente di questi concetti.
    Non è una pecca, è solo raccontare un fatto di cronaca.


    @Gigipic se l'algoritmo che penalizza contenuti duplicati, aggregatori & co, si chiama Farmer, è presente in Italia da diversi mesi. e sono molti i siti che sono stati penalizzati, ripuliti e portati in serp nuovamente.
    Ultima modifica di collega-deborahdc; 28-02-11 alle 14:16
    Deborah Del Cortona

  36. #36
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Capisco cosa intendi.. ma quello che dico io è che chiunque potrebbe prendere un articolo da un'altro sito e inserirlo nel suo modificando le parole e "spacciandolo" per suo articolo, magari dell'articolo in sè stesso non ne capisce neanche niente e Google non si accorgerebbe della "ladrata". Questo intendo io come pecca !! Ma magari è solo una mia considerazione personale.

  37. #37
    User
    Data Registrazione
    Mar 2010
    Località
    Amsterdam
    Messaggi
    86
    Citazione Originariamente Scritto da collega-deborahdc Visualizza Messaggio
    @Gigipic se l'algoritmo che penalizza contenuti duplicati, aggregatori & co, si chiama Farmer, è presente in Italia da diversi mesi. e sono molti i siti che sono stati penalizzati, ripuliti e portati in serp nuovamente.
    Si, mi riferisco allo stesso aggiornamento di cui parli tu

    Ma sul blog ufficiale di BigG lo stesso Matt Cuts ha affermato che e' live solo in US e verra' in un secondo momento implementato a livello globale...

  38. #38
    ModSenior L'avatar di vnotarfrancesco
    Data Registrazione
    Oct 2009
    Località
    Torino
    Messaggi
    16,163
    Segui vnotarfrancesco su Twitter Aggiungi vnotarfrancesco su Google+ Aggiungi vnotarfrancesco su Linkedin
    Infatti, secondo me si sta facendo troppa confusione, e non ci fa bene, ma assolutamente non per colpa vostra.
    E' solo Danny Sullivan che ha chiamato questo aggiornamento Farmer Update o Farmer Algorithm.
    Citazione Originariamente Scritto da Feb 24, 2011 at 9:50pm ET by Danny Sullivan
    “Farmer Update?” Again, that’s a name I’m giving this change, so there’s a shorthand way to talk about it. Google declined to give it a public name, nor do I see one given in a WebmasterWorld

    Valerio Notarfrancesco
    MODSeo e Tecnologie
    Per consigli e strategie SEO seguimi su Google Plus +Valerio Notarfrancesco - Twitter
    Seconda edizione Seo Power

  39. #39
    ModSenior L'avatar di vnotarfrancesco
    Data Registrazione
    Oct 2009
    Località
    Torino
    Messaggi
    16,163
    Segui vnotarfrancesco su Twitter Aggiungi vnotarfrancesco su Google+ Aggiungi vnotarfrancesco su Linkedin
    Citazione Originariamente Scritto da collega-deborahdc Visualizza Messaggio
    @Gigipic se l'algoritmo che penalizza contenuti duplicati, aggregatori & co, si chiama Farmer, è presente in Italia da diversi mesi. e sono molti i siti che sono stati penalizzati, ripuliti e portati in serp nuovamente.
    Appunto, confermo per quello che ne so io.
    Se chiamiamo questo update con il nome di uno di alcuni mesi fa è ovvio che poi non ci capiamo.
    Sarà mica proprio quello che vogliono?


    Valerio Notarfrancesco
    MODSeo e Tecnologie
    Per consigli e strategie SEO seguimi su Google Plus +Valerio Notarfrancesco - Twitter
    Seconda edizione Seo Power

  40. #40
    User
    Data Registrazione
    Mar 2010
    Località
    Amsterdam
    Messaggi
    86
    Beh, io l'ho chiamato "Farmer" proprio per come lo hanno chiamato su SearchEngineLand. Se vogliamo chiamarlo in un'altra maniera no problem Stiamo comunque parlando della stessa cosa.

    Giusto per aggiungere altri dettagli a questa pepata discussione, proprio su SearchEngineLand c'é un articolo che analizza i primi effetti di "Farmer" (o qualsiasi altro nome vogliamo dargli ).

    Un sito come
    www . ezinearticles . com (press release) ha perso circa il 90% della sua visibilita' (secondo Sistrix).

    fonte:
    http :// searchengineland .com/who-lost-in-googles-farmer-algorithm-change-66173

  41. #41
    Utente Premium
    Data Registrazione
    Jan 2005
    Messaggi
    211
    Citazione Originariamente Scritto da GigiPic Visualizza Messaggio
    Secondo me la risposta e' SI.

    Questo aggiornamento dovrebbe essere la fase finale dela battaglia contro i contenuti duplicati.

    Se il sito A vende scarpe e il sito B e' un affiliato del sito A e ne copia (prende pari pari) le descrizioni dei prodotti, il sito B verra' penalizzato a vantaggio del sito A.
    secondo me sbagli. La situazione degli e-commerce è completamente diversa :

    1) il sito A del produttore pubblica la scheda articolo ( molto spesso senza permettere l'acquisto diretto online )

    2) i siti B , C , D , ... , Z dei rivenditori la riproducono nel loro sito e aggiungono prezzo , spese di spedizione ed altri dettagli di vendita

    B , C , D ... Z forniscono una informazione sostanzialmente diversa rispetto ad A e fra loro sono simili ma non identici , visto che magari che il contenuto delle pagine-prodotto è identico fra i siti B , C , D , ... Z se non per un numerino tuttaltro che trascurabile : il prezzo.

    E se Google fornisce nelle Serp solo A o al massimo A e B non fa certo un servizio ai propri utenti che vorrebbero trovare diversi siti e-commerce dove si vende lo stesso prodotto con prezzi diversi.

  42. #42
    User Attivo L'avatar di Webmaster70
    Data Registrazione
    Jun 2009
    Località
    Bologna
    Messaggi
    1,092
    Aggiungi Webmaster70 su Facebook Aggiungi Webmaster70 su Linkedin
    Dalle prime liste di siti penalizzati disponibili in rete, constato che ad essere penalizzati sono siti di article marketing e news aggregator, e quindi a cascata presumo perderanno posizionamenti pure coloro che basato il link building principalmente su questi.

    Aspetto di conoscere se ci sono altri siti colpiti, perché se sono solo loro ... tutto qui?

    Un algoritmo per colpire quelle tipologie di siti è facile da fare, e per qualità io intendo ben altro.

  43. #43
    User L'avatar di cece74
    Data Registrazione
    Oct 2010
    Località
    Varese
    Messaggi
    855
    Dite che quindi segnalare in futuro il propio sito su una moltitudine di directory potrebbe essere penalizzante ?

  44. #44
    Utente Premium L'avatar di Web Hunter
    Data Registrazione
    Feb 2008
    Località
    Roma
    Messaggi
    619
    Nessuno ha la palla di vetro, ma già oggi segnalare il proprio sito su una quantità elevata di directory di qualità discutibile non è molto saggio.

  45. #45
    Utente Premium
    Data Registrazione
    Jan 2005
    Messaggi
    211
    E dei comparatori di prezzi? Che mi dite? Immagino che siano paragonabili a degli aggregatori, in quest'ottica.
    Ultima modifica di Marco Quadrella; 28-02-11 alle 18:26 Motivo: Maiuscole.

  46. #46
    Utente Premium L'avatar di Web Hunter
    Data Registrazione
    Feb 2008
    Località
    Roma
    Messaggi
    619
    I contenuti duplicati ci sono, punto, bisognerà vedere come saranno strutturati (e se efficacemente) i nuovi algoritmi.

  47. #47
    Utente Premium
    Data Registrazione
    Oct 2008
    Messaggi
    212
    Citazione Originariamente Scritto da GigiPic Visualizza Messaggio
    "Stasera vado a mangiare una pizza con Maria"

    "Maria stasera viene a mangiare una pizza con me"

    Se parli di cose del genere, penso che per BigG sia comunque un "contenuto duplicato".
    Dubito che l'algoritmo di Google riesca a distinguere queste due frasi.
    Non dimentichiamo che il linguaggio umano è ambiguo, una frase può avere anche diversi significati se ad esempio si spostano o si eliminano i segni di interpunzione.
    Dedurre il significato di una frase non è per nulla una cosa facile, proprio per l'ambiguità intrinseca del linguaggio (it.wikipedia .org/wiki/Elaborazione_del_linguaggio_naturale, en.wikipedia .org/wiki/Natural_language_processing).

    Si sta studiando la possibilità di associare alle pagine web delle informazioni relative al contesto semantico delle pagine (it.wikipedia. org/wiki/Web_semantico) ma ce n'è di strada da fare...

  48. #48
    Utente Premium L'avatar di Web Hunter
    Data Registrazione
    Feb 2008
    Località
    Roma
    Messaggi
    619
    Scusa, tu vuoi dire che Google le consideri contenuto duplicato?

  49. #49
    User
    Data Registrazione
    Feb 2005
    Messaggi
    532
    Domani vorrò postare le mie considerazioni.
    Ora sono un pò assonnato, ma ho visto l'intervendo di oronzocanà sui comparatori di prezzo.

    Stando un pò a quello che si è detto in questo thread, comparatori di prezzo e siti ecommerce, sparirebbero dalle serp.
    Voi cosa fareste per tenere a galla il Vs isto ecommerce o il vostro comparatore di prezzi ?

    Ciao a domani !

  50. #50
    Esperto L'avatar di dechigno
    Data Registrazione
    Jan 2006
    Località
    Milano
    Messaggi
    2,452
    Personalmente ho forti dubbi che il "vero" update sia questo.. non dimentichiamo che Google è una società quotata in borsa e non ha mai rivelato rilasci di update algoritmici sul ranking.

    Credo che usino Google Farmer come capro espiatorio nel caso in cui qualche altra operazione molto più grossa, possa destabilizzare il mondo delle ricerche online..

+ Rispondi alla Discussione
Pagina 1 di 2 12 UltimaUltima

Tag per Questa Discussione

^ Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •  
  • Il codice BB è Attivato
  • Le faccine sono Attivato
  • Il codice [IMG] è Attivato
  • Il codice [VIDEO] è Attivato
  • Il codice HTML è Disattivato
  • Trackbacks Attivato
  • Pingback Attivato
  • Refback Attivato

SEO by vBSEO 3.6.0 PL2 ©2011, Crawlability, Inc.