• Super User

    Tempi duri per la white hat seo

    Ciao a tutti,
    mi sta traboccando il vaso e devo sfogarmi.

    Mentre Google continua a dedicare le sue attenzioni ai progetti più disparati e spesso fallimentari (nexus one, products, checkout, wave, buzz, ..), per me trascura il suo core business, la ricerca, che ne sta perdendo di colpi.

    Se faccio una ricerca avanzata ormai non riesco più a trovare quello che cerco, le virgolette spesso non funzionano, così come gli operatori +, -, site, link e via dicendo.

    Nel frattempo la sua copertura del web è calata, in nome del real time preferisce visitare una volta al giorno una pagina che non cambia quasi mai, piuttosto che andare in profondità a scovare nuove pagine.

    Sulle SERP poi assisto all'avanzata degli spammer.

    Vero è che le pagine che promuovono un po' di qualità ce l'hanno, altrettanto vero che non meriterebbero certi premi per i metodi che usano.

    Links da forum, blog, siti non a tema, in lingue diverse, senza alcuna variazione dell'anchor title, con sistemi semi automatici, stanno funzionando ora più che mai. E la semantica? Ma quando mai.

    E le penalizzazioni? Macché! Quelle sono ormai riservate a quelli che distrattamente riportano 3 righe di testo in più pagine, mentre Matt Cutts continua a pontificare che i contenuti duplicati non danno penalizzazioni.

    Se indicizzasse i programmi televisivi bannerebbe tutti i telefilm perché hanno la stessa sigla.

    Basta usare il canonical direbbe Cutts.

    Io l'ho fatto, su certe SERP competitive ho 2 miei risultati sovrapposti, metto il canonical, il primo rimane lì immobile e il secondo sparisce, bella fregatura.

    Anni fa dopo dopo circa un anno che facevo scambio links per un mio sito ero arrivato a PR5 sulla home e le directory principali, poi ho smesso, ed è calato in continuazione, adesso sta a 4 sulla home e 3 sulle directory.

    Invece che spingere a creare buoni contenuti, curare tutti i fattori onpage, seguire le norme di qualità e bla bla bla, così incentiva i SEO a occuparsi solo di raccattare a destra e a manca backlinks con qualsiasi mezzo.

    Alla fine complessivamente ci perdono tutti:

    • il motore di ricerca che non premia i siti migliori;
    • gli utenti che non trovano quello che cercano;
    • il SEO che deve occuparsi di noiosi lavori manuali che peggiorano il web.

    Che ne pensate?


  • Moderatore

    Ciao Webmaster70,
    grazie per la precisa serie di intuizioni che hai voluto condividere. Come da te invitato, provo a dirti quel che penso rispetto a ciò che c'hai raccontato.

    Apri sostenendo che Google sta disperdendo troppe energie in rami differenti dal suo core business, trascurando il comparto search.
    Preso atto dei recenti fallimenti credo sia doveroso sottolineare come in quest'ultimo periodo proprio il settore ricerca stia vivendo grossissimi mutamenti guidati dalla nuova infrastruttura di Google. Caffeine ha portato interessanti cambiamenti e permesso una maggiore velocità di inserimento in serp ma soprattutto ha messo nelle mani degli ingegneri del motore di ricerca mezzi molto più potenti che in passato.
    Che in questa fase di transito le cose non funzionino per il meglio?

    Effettivamente le ricerche contenenti operatori nella query continuano a peggiorare in accuratezza; ma siamo sicuri che sia su queste che si misura la soddisfazione dell'utente medio?
    Ricordo che nello stesso periodo abbiamo visto comparire sulla colonna sinistra una serie di strumenti davvero interessanti e qualcosa di nuovo pare essere, come normale, ancora in cantiere.

    Non la penso come te quando parli della copertura del web, soprattutto se intendiamo con essa l'indicizzazione dei contenuti utili: la nuova infrastruttura consente di avere una maggior quantità di pagine indicizzate e contemporaneamente migliori tempi di aggiornamento. Se intendevi dire che pagine sostanzialmente inutili all'utente trovano meno spazio di prima, allora siamo d'accordo.

    Per quanto riguarda il filtro della duplicazione, ho letto nel Forum alcuni casi in cui la penalizzazione è francamente eccessiva, soprattutto quando blogger in buona fede si vedono crollare il traffico solo perché non sanno gestire con abilità il loro CMS o incappano nel Tag Excess.
    Ma quanti threads si riferiscono a siti che semplicemente rimbalzano notizie altrui, cambiando magari qualche parola, ma senza aggiungere nulla di significativo, né un'opinione, né un approfondimento rispetto a quanto si può trovare altrove? Questi documenti non sono affatto utili agli utenti ed è giusto che vengano esclusi dai risultati.

    Il capitolo spam/bad links merita, a mio avviso, almeno una riflessione aggiuntiva.
    Anche secondo me in quest'ambito Google è imperfetto. I casi più clamorosi che vedo in giro riguardano i network di siti con la keyword nei domini, ma anche la qualità dei backlinks ha molta meno importanza di quanto si creda.
    Ciò non basta però a farmi perdere la via del white hat, almeno in progetti di un certo tipo: se vuoi costruire qualcosa di concreto, duraturo e affidabile non puoi rischiare di mettere alle fondamenta del tuo progetto collegamenti che potrebbero portare a penalizzazioni.
    Ci sono poi siti con ambizioni differenti che possono permettersi atteggiamenti più spregiudicati, nascendo e morendo nel giro di un anno, ma con l'aumentare dei volumi di ricerca saranno sempre più costretti a cedere il passo a realtà concrete e consolidate.

    La mia sensazione (molto personale) è che Google stia tramando qualcosa di significativo riguardo la qualità dei backlinks: che si parli di Reasonable Surfer, smantellamento di network o progressiva integrazione del fenomeno social non è facile dirlo, posso solo confidarti che proprio in questo momento non perderei volentieri tempo nella creazione di backlink "facili" concentrandomi anzi sulla qualità dell'esperienza dei visitatori, sull'esigenza di fare rete con altri webmaster e soprattutto di coinvolgere gli utenti.

    Spero di essere stato chiaro e che questo intervento possa rappresentare per te (e per gli altri utenti) un buon confronto. Non farti ovviamente problemi a dissentire o chiedere spiegazioni.

    Altri si vogliono aggiungere alla discussione?


  • Moderatore

    Salve ragazzi :),

    posso condividere qualche passaggio di webmaster70 , ma mi sembra che il quadro a conti fatti, non sia ancora cosi nero come descritto (è una mia idea ovviamente 🙂 ).

    Nella realizzazione di un nuovo progetto web, personalmente punto su 3-4 elementi che mi stanno dando (almeno sinora) buoni risultati ovvero:

    • qualità dei contenuti
    • qualità dei backlinks
    • attenzione massima alle prestazioni del server
    • struttura del sito (cercando di tenerlo possibilmente abbastanza "corto")
    • integrazione sempre maggiore con i social (utilizzando tutti gli strumenti dalle semplici pagine fan di fb, ai canali su youtube con i miei video e via dicendo).

    Io opero nel settore turistico e nella mia nicchia di mercato, posso dire che, pur essendo competitiva, riesco comunque ancora ad emergere rispetto a spammer, a chi ha contenuti e link con poca qualità (concordo però sul fatto che la semantica oggi forse ha un peso minore, ma sicuramente un buon sito a livello di contenuti rappresenta sempre un surplus).

    Io piuttosto mi pongo un altro interrogativo e cioè lo spazio e la visibilità che google sta riservando ormai ai risultati naturali.

    Il cambiamento del layout (con inserimento delle tre colonne) ha spinto il primo risultato in serp sempre più in basso.

    Ricercando una key del tipo Hotel + località turistica famosa, quasi per tutte, troviamo 3 risultati di adwords , almeno 7 - 8 strutture tra le mappe e poi il primo dei risultati naturali.

    Bene, la mia preoccupazione maggiore oggi è questa, e per questo, sto cercando di lavorare su altri fattori (long tail, fidelizzazione utenti e via dicendo).

    :ciauz:


  • Super User

    Ciao Labussola a Pacoweb, grazie per le risposte.

    Capisco che il mio intervento sia controcorrente, ma da una parte vedo la SEO (quella raccontata) che va verso una direzione, e Google che torna sui suoi passi.

    @LaBussola said:

    Caffeine ha portato interessanti cambiamenti e permesso una maggiore velocità di inserimento in serp ma soprattutto ha messo nelle mani degli ingegneri del motore di ricerca mezzi molto più potenti che in passato.
    Che in questa fase di transito le cose non funzionino per il meglio?

    Per me già dall'anno scorso può aver fatto un compromesso proprio in vista di Caffeine: se dovrà essere veloce non ci devono essere troppi calcoli da fare.
    E questa semplificazione degli oltre 200 fattori ha comportato un inevitabile peggioramento delle SERP.
    Non saprei se temporaneo o no.
    Potrebbe anche essere una esca per capire chi fa spam e quali tecniche usa, ma mi pare troppo alto il prezzo di un lungo esperimento del genere.

    @LaBussola said:

    Effettivamente le ricerche contenenti operatori nella query continuano a peggiorare in accuratezza; ma siamo sicuri che sia su queste che si misura la soddisfazione dell'utente medio?

    L'utente medio sta diventando sempre più evoluto, la maggior parte degli utenti ormai è online da un paio d'anni.
    Allora se gli dico voglio delle pagine che riportino le parole "alfa", "beta" e "gamma" il motore dovrebbe darmele.
    E invece mi dice che la pagina trovata contiene "alfa" e "beta", mentre "gamma" è presente nei collegamenti, che poi spesso è una grande balla, comunque il risultato è che non trovo quello che cerco.
    Forse dovrei consolarmi con il fatto che la pagina ha un bel PR?

    @LaBussola said:

    Non la penso come te quando parli della copertura del web, soprattutto se intendiamo con essa l'indicizzazione dei contenuti utili.

    Ho tante pagine indicizzate e altrettante no, e l'unica differenza non è la qualità o l'utilità, ma la distanza in numero di click dalla home page, o da altra pagina che ha un buon page rank.

    @pacoweb said:

    ....

    Premetto che parlo solo di fattori "diretti" di posizionamento, dico la mia sui punti che hai elencato:

    - qualità dei contenuti

    qualità soddisfacente, da 6 in su va tutto bene

    - attenzione massima alle prestazioni del server

    evitare picchi negativi

    - struttura del sito (cercando di tenerlo possibilmente abbastanza "corto")

    abbastanza

    - integrazione sempre maggiore con i social (utilizzando tutti gli strumenti dalle semplici pagine fan di fb, ai canali su youtube con i miei video e via dicendo).

    Sono scettico, se mi porti un solo caso di posizionamento tramite fan page di facebook o video di youtube sono pronto a ricredermi, finora non l'ho mai conosciuto.

    - qualità dei backlinks

    Numero e pagerank di backlinks da domini diversi.

    L'ho tenuto per ultimo perché ne avrei da dire, e ne racconto solo due.

    Un mese fa riesco ad ottenere dei backlinks di questa qualità:

    • un PR 6 nella home e alcuni PR 5 in pagine interne
    • il sito è di un professore universitario statunitense che insegna la stessa materia trattata nel mio sito
    • il sito tratta questa materia
    • il sito è ospitatato su dominio .edu ufficiale della università presso cui lavora
    • sia il suo target geografico che linguistico sono coerenti con il mio (USA e inglese)
    • l'anchor text è di 4 parole, perfettamente coerenti con il mio sito e simili a key per le quali è posizionato.
      Sai come si posiziona il sito cercando quella key composta su Google USA?
      Non è nemmeno nei risultati supplementari.

    Viceversa c'è un rumeno che si è messo a copiare contenuti da wikipedia, e per promuoverli è andato in un centinaio di blog di qualsiasi nazionalità, lingua e genere con dofollow a commentare copiando spezzoni di commenti altrui e firmandosi quasi sempre con la stessa key. In genere in quegli articoli ci sono decine di commenti di cui circa la metà spam.
    L'anno scorso era in 3a posizione, mando spam report, ma lui è continuato a salire, 5 mesi fa era in 2a posizione, e da 2 mesi è in una prima posizione che prima detenevo ininterrottamente da ben 7 anni.


  • Moderatore

    Ciao Webmaster70,

    in merito al discorso sui social, non ho detto che il loro utilizzo aiuta nel posizionamento. Ho scritto semplicemente che io li utilizzo perchè nella mia nicchia di mercato (turistica) una pagina fan con migliaia di iscritti, o un video, mi può portare qualche cliente che magari non avrei preso.

    Il fatto che un sito .edu con pr6 non si posizioni nemmeno nei risultati supplementari secondo me può essere dovuto a tanti fattori :).

    Bisognerebbe analizzare per bene la situazione per una valutazione approfondita (sopratutto tenendo conto che come si sa, i domini .edu sono presi di mira dagli spammer e quindi, ci potrebbe essere anche qualche penalizzazione in atto, anche avendo pr6...).

    Io comunque non mi concentrerei poi troppo su un discorso di prime posizioni, seconde o terze...

    Non ho mai considerato la prima posizione come una meta da raggiungere a prescindere.

    Mi spiego: quanti siti magari sono in prima posizione ed hanno title poco accattivanti che non stimolano il clic? tantissimi...

    Quanti poi, pur essendo primi, presentano una struttura che confonde gli utenti ed hanno un tasso di conversione bassissimo? tantissimi...

    Il rumeno di cui tu parli oggi è primo e da come lo descrivi ha contenuti scadenti e poca qualità.

    Bene, se il suo sito dovesse convertire, il primo posto avrebbe valore? Forse no...

    Magari un sito al terzo posto con contenuti decenti, title accattivante, landing page ben strutturare che convertono e migliore qualità ottiene più di lui.

    Questo per dire che Google potrà anche avere qualche problema nel suo algoritmo, potrà anche piazzare al primo posto un sito scadente. Ma se poi l'utente su quel sito non trova quello che cerca, o se (trattandosi di siti che vendono) non c'è alto tasso di conversione, tutto il discorso lascia il tempo che trova. L'utente ti trova primo, ma resta 3 secondi e se ne va...

    :ciauz:


  • User Attivo

    @pacoweb said:

    Questo per dire che Google potrà anche avere qualche problema nel suo algoritmo, potrà anche piazzare al primo posto un sito scadente. Ma se poi l'utente su quel sito non trova quello che cerca, o se (trattandosi di siti che vendono) non c'è alto tasso di conversione, tutto il discorso lascia il tempo che trova. L'utente ti trova primo, ma resta 3 secondi e se ne va...

    Quoto 😉
    Specialmente l'ultima frase...

    Comunque per quanto riguarda i commenti dofollow sul mercato americano veramente c'è spam estremo. Ho notato che molti usano questa tecnica e riescono appunto a salire di posizione. Però non è bello avere un link su una pagina piena di spam...


  • Super User

    @pacoweb said:

    una pagina fan con migliaia di iscritti, o un video, mi può portare qualche cliente che magari non avrei preso.

    Ah ok, se si parla di marketing sono d'accordo, pensavo parlassi di SEO e Google.

    @pacoweb said:

    Il fatto che un sito .edu con pr6 non si posizioni nemmeno nei risultati supplementari secondo me può essere
    dovuto a tanti fattori

    Mi devo essere spiegato male, in seguito ad una mia e-mail questo professore mi da dato i suoi backlinks verso un mio sito da tutte le sue pagine (PR 6 e 5) ospitate sul sito ufficiale della sua università.
    Se la qualità conta, dovrebbe contare il giudizio di un professore universitario in merito alla materia che insegna almeno per fare apparire quel mio sito in 999a posizione per la key ha linkato.

    @pacoweb said:

    Io comunque non mi concentrerei poi troppo su un discorso di prime posizioni, seconde o terze...

    Infatti a me interessa molto di più il traffico long tail che quello su key competitive.
    Ma ne tengo conto per un motivo di studio, di come si muove Google, di cosa funziona e cosa no.
    E i movimenti su una key competitiva sono più attendibili di quelli su una long tail key, perché ci sono più
    numeri, ed è più difficile che certi posizionamenti siano dovuti ad una serie di fattori casuali, e perché i filtri antispam lì dovrebbero più efficaci.

    @pacoweb said:

    Il rumeno di cui tu parli oggi è primo e da come lo descrivi ha contenuti scadenti e poca qualità.

    I "suoi" contenuti sono di qualità, sono quelli di Wikipedia 😄
    Poi chi copia con l'intento di posizionarsi su Google, per riallacciarmi al discorso di Labussola, sta ben attento ai filtri e le penalizzazioni per contenuto duplicato, che alla fine se li prende chi è troppo impegnato a creare contenuti originali e di qualità da interessarsi a dettagli come il configurare il CMS in modo SEO friendly.

    @pacoweb said:

    Bene, se il suo sito dovesse convertire, il primo posto avrebbe valore? Forse no...

    Nemmeno io devo convertire ma il traffico mi interessa ugualmente per la pubblicità. Comunque le stesse tecniche le ho viste anche in siti che convertono.

    Gli spammer tendono a frequentare gli stessi luoghi, quando ne trovi uno si fa presto ad allargare l'analisi a tanti altri come ho fatto.

    Direi che per ora sono in % sono pochi, però pure sto buco mi pare stappato da poco tempo, fanno presto ad arrivarne tanti altri, magari alcuni dopo aver letto il mio messaggio. Ma io preferisco dire sempre le cose come stanno (o come credo che siano).


  • Moderatore

    Secondo me critiche di questo tipo sono sempre interessanti. Mi pare che però manchino in questa analisi dei dati fondamentali: mi sembra che la base di tutto sia il fatto che la qualità delle SERP di Google sia peggiorata. I risultati di un motore sono ottenuti tramite un algoritmo ma quest'ultimo prende i dati dal Web, ed è a quest'ultimo al quale mi riferisco quando dico che ci mancano dei dati: qual'è stata l'evoluzione di tutto il Web negli ultimi anni? (Non si può certo rispondere a questa domanda "a sensazione") Quanti siti di matrici di link sono state via via aggiunte? Quanti comparatori di prezzo che non fanno altro che ripetere contenuti già presenti?
    C'è poi un secondo aspetto da non ignorare: Google è un'Azienza. A volte mi domando "quanto cambieranno gli introiti di AdWords al variare di un parametro dell'algoritmo?"
    Io non voglio "difendere Google", e ho anch'io quel senso di delusione di Webmaster70, però ci sono tanti aspetti da considerare.


  • Moderatore

    Ok, posso anche condividere lo sfogo... ma non te la prendere troppo sul personale.

    L'unica cosa certa è che l'algoritmo non ce l'ha con te, con me o con qualcuno in particolare.

    Poi forse hai ragione, i 'piccoli' devono racimolare migliaia di backlink per emergere altrimenti non se ne fa nulla... e d'altra parte ogni giorno i social producono BILIONI di link, nofollowati quanto vi pare, ma sempre link e traffico.

    Forse possiamo ipotizzare che anche il web ormai si stia orientando sui grandi - grandissimi numeri?

    E quindi si, la forma e il codice contano ancora ma conta sempre di più anche la quantità.... d'altra parte TUTTi i mezzi di comunicazione producono molta 'monnezza' ma prosperano in virtù dei grandi numeri.

    Non ci piace, ok.

    Ma possiamo ribellarci molto poco secondo me...

    :ciauz:


  • User Attivo

    @WWW said:

    E quindi si, la forma e il codice contano ancora ma conta sempre di più anche la quantità....

    Secondo te quindi tornerà ad essere più importante la quantità dei link rispetto alla qualità? :dull:


  • Moderatore

    Veramente mi riferivo alla quantità dei contenuti, più che altro.
    E al ritmo di publishing..


  • User Attivo

    Sospettavo di aver capito male e per fortuna me ne hai dato conforma. :smile5:


  • Moderatore

    Si, in ogni caso ha ragione anche Webmaster70..... altro che quello che dice Cutts.

    Servono molti link, molti di più di 5-7-10 anni fa.

    Ma moltisssssssssimi di più.

    :gtsad:


  • Super User

    @WWW said:

    Ok, posso anche condividere lo sfogo... ma non te la prendere troppo sul personale.

    L'unica cosa certa è che l'algoritmo non ce l'ha con te, con me o con qualcuno in particolare.

    D'accordissimo, non so in quale punto ti posso aver fatto pensare il contrario.

    Non è che il mio metro di giudizio è come va complessivamente a me, ricevo da Google più traffico dell'anno scorso, dell'anno precedente ecc.

    Valutando le variazioni, e non i posizionamenti assoluti, vedo che non distribuisce più bene i bastoni e le carote.

    A questo punto è il mio concetto di merito che non è più allineato con quello di Google, e cerco di capire qual'è il suo.


  • Moderatore

    Provo a rispondere alle considerazioni fatte sul mio post, sperando che la mia opinione ne esca più approfondita ed utile.

    @Webmaster70 said:

    Per me già dall'anno scorso può aver fatto un compromesso proprio in vista di Caffeine: se dovrà essere veloce non ci devono essere troppi calcoli da fare.
    E questa semplificazione degli oltre 200 fattori ha comportato un inevitabile peggioramento delle SERP.
    Non saprei se temporaneo o no.
    Potrebbe anche essere una esca per capire chi fa spam e quali tecniche usa, ma mi pare troppo alto il prezzo di un lungo esperimento del genere.

    Con Caffeine è semplicemente cambiata l'organizzazione dei contenuti da parte di Google: adesso possono essere raccolti più documenti, possono essere salvate più informazioni, le query sono eseguite più velocemente e via dicendo.
    Questo aggiornamento non passa direttamente per alcun cambiamento nell'algoritmo di posizionamento; semplicemente adesso lo strumento a disposizione è più potente e vi sono più dati a disposizione. È lecito dunque pensare il contrario rispetto a quanto hai affermato: Google aumenterà i calcoli da fare per creare una serp e potrà permetterselo grazie alla nuova architettura.

    @Webmaster70 said:

    L'utente medio sta diventando sempre più evoluto, la maggior parte degli utenti ormai è online da un paio d'anni.
    Allora se gli dico voglio delle pagine che riportino le parole "alfa", "beta" e "gamma" il motore dovrebbe darmele.
    E invece mi dice che la pagina trovata contiene "alfa" e "beta", mentre "gamma" è presente nei collegamenti, che poi spesso è una grande balla, comunque il risultato è che non trovo quello che cerco.
    Forse dovrei consolarmi con il fatto che la pagina ha un bel PR?

    Non penso che l'utente medio utilizzi i doppi apici nella maniera da te descritta; ad ogni modo, se la facesse, potrebbe tranquillamente apprezzere la soluzione adottata da Google.
    Se cerco "alfa", "beta" e "gamma" voglio poter leggere tutti i documenti con le tre parole: se questi non esistono (o Google non riesce a restituirli) è lecito pensare che alla schermata bianca io preferisca il link ad una pagina contenente "alfa" e "beta" e collegata/correlata a "gamma". Queste sono scelte di Google nell'interpretazione dei comandi, non malfunzionamenti.

    @Webmaster70 said:

    Ho tante pagine indicizzate e altrettante no, e l'unica differenza non è la qualità o l'utilità, ma la distanza in numero di click dalla home page, o da altra pagina che ha un buon page rank.

    Il Page Rank è un metodo per assegnare importanza alle pagine, esso è particolarmente utile ai motori di ricerca in quanto permette di stabilire la qualità dei documento.
    Se una url ha poco Page Rank è meno importante perché nessuno l'ha ritenuto utile e lo stesso webmaster ha preferito favorire nella struttura del sito altre pagine.
    Forse il metodo di classificazione dei documenti è migliorabile, ma questo è Google dall'introduzione del primo brevetto.
    In ogni caso Caffeine permette di indicizzare più pagine di quante venissero indicizzate lo scorso anno quindi in questo campo vi è stato, a livello globale, un netto miglioramento.

    Tornando alla discussione, il rumeno che spamma in continuazione per ottenere backlink sta probabilmente sfruttando una debolezza di Google. La domanda fondamentale da porsi è: questo webmaster può o meno rischiare che domani mattina tutto il lavoro che ha fatto sia da buttare?
    Progetti a lungo termine, secondo me. non possono avere questo approccio.

    Google è un'azienda, dice giustamente Webtronic. Ma l'azienda vive principalmente con la qualità della sua ricerca, sulla soddisfazione degli utenti.
    Lo dimostra il fatto che in alcuni Stati, dove Google non riesce bene ad interpretare la lingua o non può competere ad armi pari per questioni "politiche", gli utenti scelgono altro e Google non sfonda con AdWords. Ogni cambiamento algoritmico non può permettersi di trascurare la qualità dell'esperienza di ricerca ed è fatto in questa ottica; che poi non tutto funzioni sempre perfettamente è ovvio.


  • Moderatore

    @LaBussola said:

    Ma l'azienda vive principalmente con la qualità della sua ricerca, sulla soddisfazione degli utenti.
    Ciao LaBussola, certamente, probabilmente però come ogni azienda dovrà mediare fra la soddisfazione degli utenti e i suoi obiettivi (sono due cose molto collegate fra loro ma non sono necessariamente la stessa cosa).
    A me pare che Webmaster70 abbia dato un po' voce a una "sensazione" di cambiamento di "stile" aziendale di Google che diversi di noi hanno, voi che dite?


  • Super User

    @Labussola

    Ho messo gli apici solo per evidenziarti i termini, io non li uso così.

    Il tuo pensiero mi pare chiarissimo, e per quanto riguarda la tua spiegazione su cosa è il pagerank e caffeine, come funzionano sarà senz'altro utile a chi leggerà la discussione e si era perso le dichiarazioni e le guide di Google.

    A me sopratutto interessa vedere l'altra parte della medaglia, quella dei colleghi, sentire le loro case history, considerazioni, quindi la seconda parte dell'intervento, e anche affermazioni come questa:

    Caffeine permette di indicizzare più pagine di quante venissero indicizzate lo scorso anno quindi in questo campo vi è stato, a livello globale, un netto miglioramento.

    Hai un link per queste statistiche?

    Riguardo ai backlinks c'è da dire che Google ha un po' le mani legate.

    Se si mette a bannare per i backlins poi gli spammer si mettono a sfruttare i loro siti bannati per vendere links a chi vuole fare affondare i suoi concorrenti.

    A meno che Google non sia sicuro che a mettere il backlinks sia stato proprio chi l'ha ricevuto.

    Google poi si è una azienda, ma una azienda che tende al monopolio con uno scomodo concorrente che potrebbe crescere.

    E' quindi ha interesse non tanto a fare il meglio possibile, ma un po' meglio del concorrente su tutti i fronti.

    Mi spiego con un esempio, mettiamo che in Italia si possono comprare solo 2 marche di auto: A e B

    Se A è un po' più bella e un po' più economica di B, il 100% dei clienti si compra A.

    Se A è molto più bella e un po' più costosa di B, il 70% dei clienti compra A e il 30% B.

    Quindi Google una volta che ha delle SERP un po' più di qualità di quelle di Bing è a posto, e può concentrarsi sulla velocità, il real time ecc.

    @Webtronic said:

    C'è poi un secondo aspetto da non ignorare: Google è un'Azienza. A volte mi domando "quanto cambieranno gli introiti di AdWords al variare di un parametro dell'algoritmo?"

    Io quando devo comprare qualcosa online spesso vado direttamente sulle pubblicità, le trovo più pertinenti, sarà un caso? :bho:.


  • Moderatore

    @Webmaster70 said:

    Io quando devo comprare qualcosa online spesso vado direttamente sulle pubblicità, le trovo più pertinenti, sarà un caso? :bho:.
    Le nostre statistiche confermano che è anche il comportamento di molti utenti. Forse percepiscono che un'azienda che paga per la pubblicità è un'azienda che esiste, ha degli utili, etc.. E' anche vero che di solito gli annunci sono ottimizzati in base alle campagne.. quindi sono a volte più pertinenti dei risultati nelle SERP.


  • User

    @Webmaster70 said:

    Ciao Labussola a Pacoweb, grazie per le risposte.

    Viceversa c'è un rumeno che si è messo a copiare contenuti da wikipedia, e per promuoverli è andato in un centinaio di blog di qualsiasi nazionalità, lingua e genere con dofollow a commentare copiando spezzoni di commenti altrui e firmandosi quasi sempre con la stessa key. In genere in quegli articoli ci sono decine di commenti di cui circa la metà spam.
    L'anno scorso era in 3a posizione, mando spam report, ma lui è continuato a salire, 5 mesi fa era in 2a posizione, e da 2 mesi è in una prima posizione che prima detenevo ininterrottamente da ben 7 anni.

    hai controllato che ha le Adsense???


  • Moderatore

    Tornando alla richiesta di Webmaster70, ho letto che Caffeine è in grado di indicizzare più pagine principalmente sui canali ufficiali di Google: in questo post si dice che "Caffeine lets us index web pages on an enormous scale" e che "[the new web indexing system called Caffeine] is the largest collection of web content we've offered".

    Più esplicitamente, ma soprattutto più in sintonia con il resto del thread, la stessa cosa è scritta alla slide 29 di questo approfondimento. Niente di nuovo dunque.

    Questo documento sottolinea quello che a mio avviso è un grosso problema di Google: l'interazione coi webmaster. Gli sforzi fatti per comunicare con tutto il mondo sono notevoli e da quanto emerge dai propositi per il 2010 del motore di ricerca (slide 31) anche loro sono consapevoli della necessità di essere più capillari e vicini ai problemi di chi vive con Internet.
    Come ho già detto, non notificare alcune tipologie di problemi (ad esempio il Tag Excess) è un limite davvero grosso pr il motore di ricerca.

    Tornando all'abbassamento della qualità delle serp, penso anche io che derivino dall'esplosione di link (come ho già scritto nel primo post, prevedendo anche possibili vie di uscita di Google dall'empasse). La conseguenza di questo aumento repentino del numero dei link è stata una perdita generica di valore dei collegamenti in ingresso che costringe ad un lavoro durissimo di link building e dunque a strategie di link baiting molto più complesse di quelle alle quali eravamo abituati.
    Non sono quindi cambiati gli algoritmi, quanto invece è cambiata Internet con Google che sta tentando di inseguire ed al momento è rimasto un po' dietro gli spammer.

    Non penso però che questa fase passerà lasciando immutate le regole del gioco: ci dovremo tutti rassegnare ad una maggiore influenza dei contenuti generati dagli utenti, dei link che riceveremo spontaneamente e dalla necessità di elevare l'esperienza dei visitatori. A mio avviso usciremo da questo 2010 con molto meno controllo sui fattori off page e con la necessità di creare strumenti di link-building molto più scalabili e legati alla qualità di quelli che eravamo abituati ad usare fino allo scorso anno (progettazione di servizi da far embeddare, coinvolgimento dei social, strette relazioni coi partner, progetti di fidelizzazione/interazione coi visitatori, ecc..).