• Community Manager

    Il Futuro degli algoritmi: come si muoveranno i motori di ricerca?

    Dopo il successo del Sondaggio Il Seo del Futuro...tu su cosa punterai/stai puntando? che ha avuto ben 70 utenti diversi a dare la propria opinione, vorrei aprire questa discussione per discutere con voi il Futuro degli Algoritmi dei Motori di ricerca.

    Vi dico la mia opinione.

    In questo momento sembra che Google grazie alla combinazione Apporto Umano - Algoritmo del TrustRank abbia trovato una strada da seguire e che i prossimi movimenti siano più specifici e non globale. Quindi a me sembra quasi per questa strada per Google sia quella che seguirà per un pochino. Con una politica molto forte grazie alla sua comunicazione è riuscito in qualche tempo a far consigliare nei Forum l'uso di tecniche scorrette 😄

    Yahoo! invece lo vedo quasi fermo, forse non è riuscito bene a sfruttare i Social suoi su cui puntava molto, o forse sta testando parecchio.

    Live invece, che sembra aver introdotto anche lui i Quality Rater in Italia, ha scelto uno degli algoritmi che dava risultati migliori per poi usare l'apporto umano. vediamo per quanto rimarrà stabile.

    Ask, che è una delle sorprese, nonostante il poco traffico rispetto agli altri, è quello che in alcuni campi fornisce risposte migliori grazie ad un uso migliore delle features di ricerca. Se dovesse in molti campi riuscire a dare molte risposte agli utenti che cercano, potrebbe sicuramente aumentare ancora.

    Wikipedia? Wikipedia appare oggi nelle serp di tutti i motori, è autorevole, addirittura viene proposta come risposta su Ask.

    Secondo me nel futuro ci aspetta un motore come quello annunciato dal proprietario di Wikipedia.

    Un motore con Quality Rater che controllano il contributo volontario nel costruire una Serp di risposte da parte di utenti.

    Persone che avranno a loro volta un TrustRank nell'affidabilità a valutare la serp.

    Voi cosa ne pensate? Secondo voi come si muoveranno i motori di ricerca?

    Giorgio

    P.s. ovviamente parliamo di pensieri personali ragazzi, quindi non abbiate paura ad esprimere il vostro 🙂


  • User Attivo

    certamente l'idea di utilizzare il parere di chi naviga è interessante e in qualche modo (come ipotizzi tu alla fine del post) si potrebbe arrivare ad una sorta di fusione tra la directory (tipo dmoz) e il motore molto più di quanto non sia ora ...

    comunque credo che la tendenza sia quella di trovare sistemi poco falsificabili o influenzabili e quindi il sistema del TrustRank (esteso come dici tu non solo ai siti) potrebbe diventare centrale
    Anche il fatto che l'età dei siti/domini sia sempre più importante secondo me rivela questo fatto

    Non bisogna sottovalutare il fatto che ormai quasi su tutto c'è una sovrabbondanza di informazioni e contenuti e quindi non si tratta più di trovare un contenuto ma di trovare il migliore o il più affidabile (quando c'è)

    tutto ovviamente IMHO


  • User Attivo

    Rispondo io per prima (che onore!).

    Anche secondo me i motori di ricerca si stanno muovendo verso un concetto di motore "di risposta" più che di ricerca, il che lo vedo come un fatto positivo.

    Mi è capitato più volte di digitare direttamente una domanda e di trovare fra i risultati le risposte di yahoo answers o le definizioni di wikipedia, ed erano esattamente ciò che cercavo, spero che lo strumento delle answers di yahoo prenda piede, mi sembra utile anche se andrebbe migliorato.

    Google adesso si basa molto su contenuti aggiornati, struttura del sito search-engine friendly ma a mio parere le SERP sono ben lontane dall'essere "pulite" e si trovano ancora ai primi posti siti discutibili.

    Spero infine che altri motori migliorino i propri algoritmi e che piano piano l'utilizzo dei motori di ricerca si "espanda" e che finisca l'egemonia di G.g...

    (edit: robyweb mi hai battuta di due minuti!)


  • Super User

    Secondo la mia opinione i motori di ricerca stanno diventando più umani di quanto gli umani possono ottimizzare i siti per i motori di ricerca.

    La tendenza che mi sembra di percepire su GG è quella di dare risalto ai siti con buoni contenuti (magari anche aggiornati spesso), linkati da fonti autorevoli e di dare sempre meno importanza allo scambio link o agli oramai obsoleti link inseriti nel footer. Tutto questo grazie ai nuovi algoritmi di ricerca e all'apporto di quality rater che aggiungono quel "tocco di umanità" che manca agli stessi algoritmi.

    Yahoo! anche a me pare un pò in standby, mi sembra che negli ultimi mesi non sia cambiato molto... Mi da l'idea che gli algoritmi utilizzati da Yh siano i vecchi utilizzati da GG.

    Live invece dà l'impressione di smuovere un pò le acque e anche se non al livello di Mister G stia orientandosi verso la soluzione improntata ai contenuti ed al trustrank... Ma forse è solo una mia idea 🙂
    Poi con il nuovo so Vista orientato molto al web e quindi a Live search penso che qualcosa debba per forza cambiare visto che per alcune ricerche le serp sono ancora infestate da siti spam...

    Ask sinceramente non l'ho quasi mai preso in considerazione... :bho:

    In conclusione facendo una "media pesata" IMHO penso che i MdR stiano orientandosi a privilegiare siti con contenuti originali ed utili linkati da fonti autorevoli e che linkano siti altrettanto utili... Trustrank rules...

    :ciauz:


  • User Attivo

    Ciao Giorgio, condivido in pieno l'analisi su google. Il mix human/robots mi sembra la direzione verso cui google muove i suoi passi. E' secondo me una scelta giusta in quanto se pensiamo a soluzioni "human only" come dmoz rischieremmo i soliti clientelismi e bug tipici del fare umano, di contro soluzioni "robots only" non sono infallibili e presentano (e presenteranno sempre) molte lacune che sono poi i punti oggetto di studio dei seo (dai black ai white hat). Ciò che serve è una sinergia: l'uomo arriva con la qualità dove il motore non può e il motore spinge e screma in prima battuta l'universo del web con la quantity per cui l'uomo non possiede i mezzi.
    Per gli altri motori vedo da una parte un live.com dal potenziale enorme ma ancora inespresso e un yahoo immobile ma con molta carne sul fuoco.
    Finchè ci saranno programmi quali panama, overture e adwords i mdr avranno tutto l'interesse a produrre serp di qualità per accaparrarsi quote di searchers (e di conseguenza di inserzionisti).
    Il futuro è anche nel social ma più inteso come "buzz search" (termine coniato da me). Pensiamo all'opzione di ricerca blog di google.
    Ciao,

    Andrea


  • Bannato User Attivo

    a mio avviso il discorso di migrazione da un web catalogato da un robot a quello sempre piu catalogato da uomini è utopistico.. e lo è sempre di piu in quanto i contenuti sono troppi e la velocità di crescita del web in senso lato è troppo elevata per essere gestita da umani... inoltre il robot, se impostato secondo linee guida intelligenti (e GG è sempre piu un maestro) garantisce congruenza e coerenza delle serp con le keys cercate. Chiaramente i quality raters possono anche essere potenziati nulla fa male ma le parole di Giorgio mi sembrano un po troppo pesanti

    anch'io IMHO

    Rik


  • User Attivo

    @schizzorl86 said:

    a mio avviso il discorso di migrazione da un web catalogato da un robot a quello sempre piu catalogato da uomini è utopistico.. e lo è sempre di piu in quanto i contenuti sono troppi e la velocità di crescita del web in senso lato è troppo elevata per essere gestita da umani... inoltre il robot, se impostato secondo linee guida intelligenti (e GG è sempre piu un maestro) garantisce congruenza e coerenza delle serp con le keys cercate. Chiaramente i quality raters possono anche essere potenziati nulla fa male ma le parole di Giorgio mi sembrano un po troppo pesanti

    anch'io IMHO

    Rik

    Sì, in effetti hanno meno peso di quanto crediamo....però per un minimo dovrebbero scoraggiare alcuni spammer (si spera).


  • User Attivo

    Beh, da parte mia, credo come molti che i motori si stanno "umanizzando" e questo non può che giovare agli utenti....
    schizzorl86 non è che noi intendiamo che i siti vengno catalogati dai QR ma crediamo (almeno io :1: che questi facciano il proprio lavoro al meglio, dando nuovi spunti e risorse all'algoritmo che cataloga i siti...

    E bannando gli spammer 🙂

    Ciao ciao


  • User Attivo

    bella domanda..

    da una parte è evidente che la condotta del motore per almeno un altro "tot" sia tutta intorno all'attuale concetto di TR.

    però penso anche google stia in qualche modo cercando di catalogare e monitorare i comportamenti dei quality rater per creare una sorta di intelligenza artificiale che possa fare il loro lavoro a velocità elevatissima per il maggior numero di casi posssibile.

    e credo che gli sforzi in questo senso siano altissimi da parte dei motori.

    internet aumenterà in numero di siti in modo costante non è possibile che si pensi ai QR come una risposta allo spam, la vedo piu una TOPPA pseudo temporanea in attesa che si mettano a sviluppare qualcosa di più veloce.

    In aziende di questo calibro è una regola progettare piani per un futuro che ancora non esisite (osx per mac intel era in testing da 5 anni..).

    Pensare che google non stia puntando tutto sui un concetto di AI atto a ripmiazzare o diminuire drasticamente l'intervento umano è quasi folle se pensiamo a quanti potrebbero essere i siti tra 5-10 anni.

    byez 🙂


  • Bannato Super User

    @schizzorl86 said:

    a mio avviso il discorso di migrazione da un web catalogato da un robot a quello sempre piu catalogato da uomini è utopistico.. e lo è sempre di piu in quanto i contenuti sono troppi e la velocità di crescita del web in senso lato è troppo elevata per essere gestita da umani... inoltre il robot, se impostato secondo linee guida intelligenti (e GG è sempre piu un maestro) garantisce congruenza e coerenza delle serp con le keys cercate. Chiaramente i quality raters possono anche essere potenziati nulla fa male ma le parole di Giorgio mi sembrano un po troppo pesanti

    anch'io IMHO

    Rik

    quoto gokufg,
    non si tratta di passare ad un web catalogato dagli umani. è chiaro che la mole di lavoro è improponibile, però ci si appoggia sempre di più all'occhio umano per migliorare la qualità del lavoro che, credo, rimarrà competenza degli algoritmi.

    per rispondere alla domanda, secondo me, google premierà e posizionerà in alto i siti con i contenuti più qualitativi e poi creerà delle serp dalle quali noi otterremo già tutte le risposte che cerchiamo.
    sulle serp del .com si è già vista una larga sperimentazione da questo punto di vista: mappe, indirizzi, indicazioni stradali, orari, film, informazioni generali (tempo fa c'era l'esempio della data di nascita di george washington, mi pare) e, come ultima cosa, i video direttamente nelle serp.


  • User Attivo

    una soluzione interessante è anche quella di fornire "come default" risultati sempre più personalizzati alle proprie abitudini.

    questo creerebbe non pochi problemi a chi ancora lavoro a posizionamento su n kw.

    Il futuro è lavorare a "conversioni", non importa da dove arrivano, motori generalisti, social network, o chissà quale diavoleria 3.0 ci aspetta tra 2-3 anni...

    La vecchia kwlist da approvare diventerà un optional (già in alcune società per progetti mediograndi è un passo da fare si ma solo per dare una certa idea al cliente, la cosa è in realtà di secondaria importanza).

    La classica frase "io punterò sui contenuti...." è giusta si ma non perchè google "presente e futuro del sem" investirà sui contenuti.

    La cosa è giusta perchè tra qualche anno i contenuti saranno l'unico modo per poter essere presenti su un campo semantico così ampio da poter "raccattare" presumibilmente ogni tipo di traffico, presente (google&co ) e futuro(web 2.0).


  • User Attivo

    Difficile dire dove andranno.

    Secondo me saranno sempre più incentrati su concetti social e sempre meno su fattori interni al sito, perchè troppo "governabili" da webmaster e SEO.
    Questo rappresenta a mio modo di vedere una sconfitta per gli algoritmi che si sono dimostrati incapaci di catalogare il web in modo efficace. Agli automatismi si sono affiancati i controlli umani, i fattori di traffico, i click sui risultati delle serp, tutte conferme che forse qualche limite nella tecnologia c'è.

    Dal punto di vista dei SEO sarà sempre più importante oltre che puntare sulla qualità del sito, anche creare utilità innovative, che possano coinvolgere gli utenti e generare traffico a prescindere dai motori di ricerca che saranno sempre meno "controllabili".


  • User Attivo

    io credo che se i motori usassero anche le info provenienti dai social bookmark potrebbero di molto migliorare i risultati offerti, perche di fatto avrebbero info assimilabili a quelle dei Quality Rater, quindi in teoria yahoo dovrebbe avere un vantaggio, che pero attualmente non sembra cogliere...


  • User Attivo

    @ferdi said:

    io credo che se i motori usassero anche le info provenienti dai social bookmark potrebbero di molto migliorare i risultati offerti, perche di fatto avrebbero info assimilabili a quelle dei Quality Rater, quindi in teoria yahoo dovrebbe avere un vantaggio, che pero attualmente non sembra cogliere...
    Non tutti i siti meritevoli di stare su nelle serp vengono inseriti nei social bookmark dagli utenti.
    Di solito si inseriscono siti che si vuole tornare a visitare in un immediato futuro, mentre magari ci sono siti validi in cui trovata l'informazione cercata si rimane soddisfatti, e non si inserisono da nessuna parte.
    Spero di essermi spiegata, perchè io stessa mi sono persa.


  • User Attivo

    @maricalina said:

    Non tutti i siti meritevoli di stare su nelle serp vengono inseriti nei social bookmark dagli utenti.
    Di solito si inseriscono siti che si vuole tornare a visitare in un immediato futuro, mentre magari ci sono siti validi in cui trovata l'informazione cercata si rimane soddisfatti, e non si inserisono da nessuna parte.
    Spero di essermi spiegata, perchè io stessa mi sono persa.

    in generale hai ragione, ma tutto fa brodo!

    Quindi anche se nei social bookmark non vengono salvate tutte le risorse, credo che comunque possano portare informazioni molto utili


  • Community Manager

    volevo ringraziarvi per le risposte e riflessioni 🙂