• Super User

    l'essenza del posizionamento nei motori di ricerca

    Allora ragazzi! Un post di Low in un mio topic precedente mi ha dato molto da pensare. Al supermercato, tra una banana ed uno yogurt, e tra una gnocca e l'altra :D, pensavo a come dare una svolta alla posizione dei miei siti e di conseguenza a come migliorare il posizionamento di qualsiasi sito sui motori di ricerca. (Infatti la spesa che ho fatto è una ciofeca :D).
    L'obiettivo di tutti noi che ci troviamo in questo forum, deve essere quello di massimizzare tutti i parametri che noi tutti sappiamo nel modo più intelligente possibile: il discorso è capire come fare.
    Da ora in poi strutturerò il lavoro sui miei siti in base alle risposte che riceverò da voi tutti in questo topic (se mi risponderete ovviamente 🙂 ).
    Diciamo che se noi fossimo i progettisti dei motori di ricerca vorremmo posizionare il miglior sito in testa, quello che fa dire all'utente, cacchio vedi ho trovato ciò che mi serviva. Come fanno i motori a sapere se un utente è interessato ad una serp? Bè, diciamo se innanzitutto ci clicca sopra. Però potrebbe voler solo significare che il webmaster ha fatto ottime descrizioni, e non necessariamente il sito sia in toto confacente alla query ed al suo argomento sotteso. Quindi, un parametro che io, in qualità di progettista prenderei in considerazione, sarebbe il tempo di permanenza degli utenti sul sito (sia in generale, che dopo una data query). Qui scatta la prima domanda che potrebbe modificare, e di molto, le mie tecniche di posizionamento:

    • il tempo di permanenza di un utente su una pagina di un sito è un parametro da prendere in considerazione? E' qualcosa che i motori calcolano già? E' plausibile che qualora non lo facciano lo faranno in futuro?
      Quando si scrivono buoni contenuti viene naturale mettere dei buoni link esterni correlati a ciò che si sta scrivendo.
    • i motori possono sapere, ora o in futuro, se ad esempio un link in una pagina è stato mai cliccato (e di conseguenza se il link è stato messo a capocchia, non è visibile, non è materialmente cliccabile, se il suo testo sottende un argomento totalmente estreneo all' argomento che si sta trattando?
      Massimizzare il rendimento con il minimo sforzo, è una pratica che trova particolare applicazione nella link popularity. E' l'argomento per eccellenza, il secondo piccione che si può prendere con la fava. Vale a dire migliorando i contenuti, prendo due piccioni con una fava: le migliorie sui contenuti stessi, probabilmente il primo fattore più importante del posizionamento, e la LP. Non so se vi ricordate del primo Grande Fratello: c'era Roberta Beta, in nomination, che era convinta di non uscire dalla casa semplicemente con i voti dei suoi conoscenti, che a detta sua, erano in numero abnorme. Probabilmente lo erano anche, ma non potè nulla con il campione milionario di Italiani che le votarono invece contro. Bè scusate il volo pindarico, ma penso che sia l'esempio più calzante (forse :D) per distinguere quantitativamente un **potenziale **linkaggio artefatto, da uno spontaneo.
      Nel topic http://www.giorgiotave.it/forum/viewtopic.php?t=9809 Low mi ha così risposto ad una mia domanda:

    @LowLevel said:

    micky ha scritto:
    esistono degli argomenti che per la loro specificità non sono passibili di ricezione di link spontanei

    E tu allarga il target.

    Allarga il target creando pagine su argomenti paralleli.
    Allarga il target creando pagine in più lingue.
    Allarga il target creando tool o servizi gratuiti correlati al tema.
    Ecc...

    Ecco allargare il target. O meglio, espansione della query. Ok, perfetto. Chiedo innanzitutto se in questo modo non perdo specificità nelle serp, o almeno se c'è il rischio. Tutto questo mi ha portato a pensare che potrei fare un lavoro eccelso, per quanto abnorme, su qualsiasi tema. Ok! Ma chiariamo subito una cosa: non faccio il posizionamento per beneficienza. E non lo faccio per posizionare i siti degli altri sotto forma di compenso. Sto cercando di essere un imprenditore dopo che al mio primo e ultimo lavoro, da laureato, si sono azzardati ad offrirmi 500 euro fetentissimi con i quali non mi ripagavo neanche la stanza a Roma, dicendo a noi disgraziati di cogliere l'opportunità che ci stavano dando. Dopo un pò li ho mandati a quel Paese ed ora eccomi qui. Tutto questo per tornare al parametro precedente che autoquoto:

    Tutto questo mi ha portato a pensare che potrei fare un lavoro eccelso, per quanto abnorme, su qualsiasi tema

    Ecco. Io voglio andare all'essenza. Non sprecare energie per posizionarmi. Non voglio sparare con un cannone dove non serve. Quindi ho bisogno di sapere, da voi tutti, alcune cose in base alle quali, almeno a breve termine, capirò come impostare i miei contenuti.
    Esempio. Se facessi un sito sulle ragazze in webcam :D, potrei fare un mucchio di pagine, sfruttando http://inventory.overture.com/d/searchinventory/suggestion/, http://www.digitalpoint.com/tools/suggestion/ e soprattutto https://adwords.google.it/select/KeywordToolExternal, parlando di quali sono le migliori marche di webcam, come mettere una telecamera in un borsone per spiare sotto le gonne per strada, potrei trattare l'argomento "seno" spiegando minuziosamente i vari tipi ecc. ;), l'argomento "sedere", insomma allargando a dismisura i contenuti parlando di ogni parte del corpo di una ragazza, di termini correlati con "ragazza", con "webcam" e con "ragazze in webcam". L'esempio non è proprio azzeccato, però suppongo che in un sito del genere più che i testi, piacciono le foto accattivanti, così' come, chissà perchè, non ricordo mai la trama di un film per adulti :D.
    **Come mi muovo in casi del genere? ** Ovvero, se preferite:

    • è plausibile che un motore sappia e valuti esattamente **quanto **un utente stia su una pagina (quelle dedicate ai testi per espandere la query?), di conseguenza
    • in casi del genere , dove l'interesse è spostato al di là del testo, mi conviene usare i tool di affinità di parole chiave, oppure concentrarmi su ciò che l'utente vuol realmente vedere?
      In altre parole, è plausibile che i motori, allo stato attuale, ed anche in futuro, conoscano, calcolino e valutino parametri come l'accattivanza di un sito per gli utenti, al di là dei testi, e dei link spontanei, misurando il tempo di permanenza, il click through, se una pagina viene chiusa senza essere caricata, se un utente cambia velocemente paginaanche se con una marea di testo, se salta il risutato nella serp, ecc.?
      Devo pensare solo agli utenti, solo ai motori, o come mi autorispondo ad entrambi?

  • Super User

    il tempo di permanenza di un utente su una pagina di un sito è un parametro da prendere in considerazione?

    Attualmente, in misura minima.

    E' qualcosa che i motori calcolano già?

    Calcolare probabilmente sì, sfruttare i dati per stabilire la posizione delle pagine probabilmente non ancora o solo in misura minore.

    Ora come ora viene dato più peso, almeno da Google, al comportamento degli utenti sulle pagine delle SERP.

    E' plausibile che qualora non lo facciano lo faranno in futuro?

    Sì, ma penso che rimarrà un parametro piuttosto secondario perché un tempo di permanenza maggiore non necessariamente indica un maggiore interesse nei confronti del sito.

    i motori possono sapere, ora o in futuro, se ad esempio un link in una pagina è stato mai cliccato

    Se l'utente è provvisto di toolbar o se usa un proxy fornito dal motore, sì.

    Anche in assenza di toolbar e proxy, i motori possono calcolare approssimativamente la probabilità che un link ha di essere cliccato.

    Globalmente, ovvero per quanto riguarda l'intero Web e non la singola pagina, questa probabilità di click/visita viene chiamata "PageRank" da Google e "WebRank" da Yahoo.

    e di conseguenza se il link è stato messo a capocchia

    Sì.

    non è visibile

    Sì.

    non è materialmente cliccabile

    Questo è più difficile da individuare, ma non impossibile.

    se il suo testo sottende un argomento totalmente estreneo all' argomento che si sta trattando?

    Sì.

    Massimizzare il rendimento con il minimo sforzo, è una pratica che trova particolare applicazione nella link popularity.

    Però conta che il peso si sta pian piano spostando dalla link popularity alla global popularity, ovvero ad una popolarità calcolata in base a molteplici fattori.

    Bisogna tener presente che i link erano in passato il mezzo più accessibile per farsi un'idea (e ribadisco, solo un'idea) della popolarità di un sito. Oggi questo non è più vero, ed i motori necessitano di segnali più consistenti per calcolare unindice di popolarità abbastanza preciso.

    Una volta esistevano solo i meta tag ed i webmaster credevano che il posizionamento fosse quello. Quando le cose cambiarono, si trovarono spiazzati. Il secondo spiazzamento avvenne quando le enormi quantità di link non erano sufficienti a fregare il PageRank di Google.

    Il prossimo spiazzamento avverrà (e in misura minima sta già avvenendo) quando ci si renderà conto che il concetto di link popularity è tanto falsato e falsabile che i motori hanno tutta l'intenzione di ridimensionarlo in favore di nuovi elementi.

    Ecco allargare il target. O meglio, espansione della query.

    No, io intendevo una cosa diversa. Per "allargare il target" intendevo tutti i possibili interventi (a cominciare da quelli di marketing) che permettono al sito di attrarre l'attenzione di persone che prima non venivano attratte.

    Chiedo innanzitutto se in questo modo non perdo specificità nelle serp, o almeno se c'è il rischio.

    Se ti riferisci all'uso di termini correlati, sì, il rischio c'è.

    Se prendi tutti i termini correlate che riesci ad individuare con i vari tool di suggerimento keyword e li piazzi in una pagina, è sicuro che quella pagina non verrà tematizzata su nulla. E' solo un minestrone.

    Se invece separi contenuti diversi in sezioni diverse del sito e usi con accortezza i sinonimi e le keyphrase, allora puoi ottenere ottimi risultati.

    Devo pensare solo agli utenti, solo ai motori, o come mi autorispondo ad entrambi?

    Ad tutti e due, come giustamente dici. Anche perché, al di là dell'influenza sulle posizioni, se fai un sito dal quale la gente scappa subito, hai fatto un sito inutile.

    [nota a margine: leggo molti utenti che usano l'espressione "espandere la query" come se fosse un compito del SEO. Ad espandere le query sono i motori, non le persone. Il SEO al massimo può espandere i termini di un testo affinché combacino con le query espanse dal motore. Giusto per fare il precisino... 😄 ]


  • Super User

    Grazie mille, Low. Gentile, preciso, chiaro come sempre :).
    @Lowlevel said:

    Sì, ma penso che rimarrà un parametro piuttosto secondario perché un tempo di permanenza maggiore non necessariamente indica un maggiore interesse nei confronti del sito.

    Un piccolo appunto. Il fatto che i motori, ora come ora, diano importanza a cosa viene cliccato nelle serp, **piuttosto **che al tempo di permanenza nel sito, è un limite molto stringente che ha il motore nel giudicare, perchè vuol dire semplicemente se il SEO ha dato una buona descrizione nel mata tag description o nei sottotitoli.
    (OT: quando ero a Roma ho notato che il termine piuttosto viene usato nell'accezione di inoltre, io l'ho sempre usato, e lo userò nell'accezione di invece di. Ditemi se ho sbagliato per 28 anni.)
    Immaginate di poter calcolare il tempo di permanenza degli utenti per i siti che parlano di "pannelli solari". Se l'utente sta 5 secondi mediamente su un sito A e 3 minuti su B, 2 minuti su C, 5 minuti su D, non solo vuol dire che A va levato dalle serp per quella query, ma che se i dati sono gli stessi anche per altre query correlate potremmo essere in presenza di uno SPAM ENGINE.
    Ci vorranno secoli prima che i motori apprendano il concetto di gusto estetico relativamente ad un sito o ad altro. Tale lungo intervallo temporale può essere saltato con metodi iperspaziali di questo tipo intersecati tra di loro, e con un mare di potenza di calcolo, parametri sui quali potrebbe, e forse lo sta già facendo, concentrarsi un motore come MSN, che sta facendo della velocità di indicizzazione il suo attuale punto di forza. Dispone di grandi finanziamenti e ho già notato che i risulati **ciclano **letteralmente.

    Per quanto riguarda l'espansione della query, sulla quale l' appunto di Low è giustissimo e mette a nudo la mia grandissima ignoranza :D, mi auto cito nel bellissimo topic relativo di Giorgio Taverniti:http://www.giorgiotave.it/forum/viewtopic.php?t=6218&postdays=0&postorder=asc&start=0.

    @Micky said:

    alex2k ha scritto:
    una domandina: per individuare le keyword delle query espanse si può far riferimento a questo strumento:

    https://adwords.google.com/select/keywordsandbox

    ??

    Grazie

    Alex2k ha fatto una domanda-considerazione molto interessante a cui non è stata data risposta. Il tool di google dovrebbe costituire, a logica, la risposta lato motore all'espansione della query, sempre che i dati forniti siano completi e rilevanti. L'operatore ~ può fornire spunti relativi alla documentazione esistente, e non a quella potenzialmente sviluppabile che il motore cerca di prevedere con i suoi mezzi che non ci sono noti (e qui si spiegano quei casi in cui l'operatoere ~ fornisce dati numericamente inferiori alla ricerca pura).
    IMHO penso che quel tool sia molto molto significativo e che intersecato con i tool di overture, wordtracker miva, e naturalmente con tutto il discorso sull' espansione della query lato utente, possa fare la differenza a livello di ottimizzazione. Miglioramenti ancora più accentuati si avrebbero sviluppando questo concetto in maniera ricorsiva: prendo come termine radice tutti i termini che sto considerando
    Non sono d'accordo che questo sistema possa dare solo scampoli di miglioramento, visto che i tre macrofattori su cui i motori si concentrano sono contenuti, link popularity ed anzianità del sito(penso del resto ques'ultimo in misura minore).
    Da tutto questo discorso si può trarre, e la sto traendo in questo momento , una considerazione altrettanto interessante.
    L'operatore ~, in definitiva, è un eccellente strumento con cui il motore, implicitamente, suggerisce quei campi in cui c'è ancora "molto da scrivere" (almeno secondo il motore stesso) vale a dire quei casi in cui l'operatore ~ restituisce meno risultati rispetto alla ricerca pura, e quindi, a parità di altri fattori, quei campi che sono più facilmente attaccabili per "l'operazione posizionamento sui motori di ricerca".


  • Super User

    Due cose:

    Sull'uso di "piuttosto che" tipico di alcune zone almeno del Nord Italia, mi pare di individuare una moda recente e che non condivido appieno nemmeno io perché mi pare che non segua perfettamente la lingua.

    Sul tempo di permanenza in pagina io sballerei tutti i parametri perché mentre sono su una, spesso apro in altra pagina i link che mi interessano per poi visionarle dopo, a volte chiudendole subito. Inoltre, navigando tra una cosa e l'altra, lascio lì le pagine per minuti ma anche per ore. Non so gli altri, ma forse il parametro andrà ben filtrato ed elaborato.


  • Super User

    Che altro si può ancora aggiungere dopo un post di Low, se non fare i complimenti a micky, per il livello che sta raggiungendo, e le argomentazioni e le considerazioni di cui si fa portatore?
    Non so se dispiacermi o essere contento che tu non voglia fare il seo 😉

    @micky said:

    ...Se l'utente sta 5 secondi mediamente su un sito A e 3 minuti su B, 2 minuti su C, 5 minuti su D, non solo vuol dire che A va levato dalle serp per quella query, ma che se i dati sono gli stessi anche per altre query correlate potremmo essere in presenza di uno SPAM ENGINE.
    Eh eh eh ... e qui dimentichi un punto cruciale.
    La Ctr è sì un fattore che Google prende in (grande) considerazione ma non è, e non sarà mai, una via di autolegittimazione per le pagine che fanno spam. Il quale rimane il nemico numero uno contro il quale il motore spende la maggior parte dei suoi sforzi (guarda ad esempio i titoli e gli abstract degli ultimi brevetti/paper più noti).
    Uno spam engine o una doorway che in virtù del loro posizionamento beneficiano di un gran numero di accessi non stanno trovando in questa la via della legittimazione: verranno presto o tardi epurati dall'archivio.

    Allo stesso tempo la durata breve della permanenza su una pagina non è necessariamente sintomo di scarsa rilevanza della stessa. Anzi, magari è proprio il contrario: la pagina esprime molto sinteticamente, e soddisfa in pieno, la ricerca dell'utente. In 10 righe, ha soddisfatto la query.

    @micky said:

    Ci vorranno secoli prima che i motori apprendano il concetto di gusto estetico relativamente ad un sito o ad altro.
    Il concetto di gusto estetico (e in un certo senso, lo spam) è troppo soggettivo perchè si possa trovare una strada matematica per ricrearlo artificialmente. Anche se le ricerche sull'Artificial Intelligence sembrano orientarsi anche nello sviluppo di modelli cibernetici dotati di gusti umani (quali la musica, l'arte...), non credo che potrebbero essere applicati ai motori di ricerca.
    Anche perchè ci sono già diversi fattori legati al comportamento dell'utente (non ultimo la durata della permanenza, ma anche come vengono seguiti i link all'interno della pagina, gli accessi spontanei, i bookmarks ecc ecc..) che permettono al motore di valutare, con buona probabilità (e paradossalmente in maniera più assoluta) se una pagina è buona o meno, se è utile per determinate ricerche o meno.
    Ovviamente oltre a tutti gli altri fattori possibili: qualità e quantità dei contenuti, pattern dei link in entrata e uscita.

    @LowLevel said:

    ...leggo molti utenti che usano l'espressione "espandere la query" come se fosse un compito del SEO. Ad espandere le query sono i motori, non le persone. Il SEO al massimo può espandere i termini di un testo affinché combacino con le query espanse dal motore. Giusto per fare il precisino... 😄
    Appunto. Precisino! 😄
    Mi si perdoni un grammo di retorica pasquale: è davvero un bene trovare in un forum come questo (Italiano con la I maiuscola) un tema importante come questo, che ho riscoperto proprio qui (le problematiche dell'IR per me sono sempre state in passato solo barbosissima teoria, piacevolmente bypassate in favore di metodi molto più immediati di Seo).
    Su questo Forum sono il pane quotidiano; all'estero, anche su Forum autorevolissimi, certi discorsi sarebbero quasi improponibili.

    Cordialmente,
    Stuart


  • Super User

    OT on:Come poter rimanere indifferenti ai tuoi topic anche il giorno di pasqua prima di andare a pranzare 😄 OT off

    Ma veniamo a noi carissimo Mic.....

    @Micky said:

    Quindi, un parametro che io, in qualità di progettista prenderei in considerazione, sarebbe il tempo di permanenza degli utenti sul sito (sia in generale, che dopo una data query). Qui scatta la prima domanda che potrebbe modificare, e di molto, le mie tecniche di posizionamento:

    • il tempo di permanenza di un utente su una pagina di un sito è un parametro da prendere in considerazione? E' qualcosa che i motori calcolano già? E' plausibile che qualora non lo facciano lo faranno in futuro?

    ....non ti nascondo che la vedo abbstanza ardua per un mdr pesare il sito (ed il suo posizionamento) in base al tempo di permanenza dell'utente....questo perchè IMHO l'algoritmo dovrebbe trattare ogni argomento/serp in modo differente.... è difficile basarsi su parametri quasi fissi per la permanenza dell'utente su un sito che parla di frutta e su un altro che parla di energia nucleare....per alcuni argomenti potremmo giudicare interessante anche un sito in cui l'utente rimane 1 minuto (invece che 3 secondi), mentre per altri argomenti potrebbe non essere così....
    ...anche se in modo molto infantile e banale spero almeno di essermi fatto capire... 😉 ....

    ...altra cosa....

    hai ragione quando dici che il posizionamento in base ai click sulle serp ti sembra poco efficiente....ma pensandoci meglio se il motore potesse riconoscere oltre al click dell'utente su un sito di una certa "serp" anche se in seguito lo stesso utente ci ritorna sul sito o meno, e se ci ritorna ogni giorno, e quanto tempo ci sta (analytics 😄 )....credo che il discorso cambi e tanto 😄 ....

    Colgo comunque l'occasione per farti gli auguri di Pasqua 😉


  • Super User

    @Stuart said:

    Che altro si può ancora aggiungere dopo un post di Low, se non fare i complimenti a micky, per il livello che sta raggiungendo, e le argomentazioni e le considerazioni di cui si fa portatore?
    Non so se dispiacermi o essere contento che tu non voglia fare il seo 😉

    Questa è una delle cose migliori che potessi mai leggere sul forum, roba da stampare e mettere sul muro. Grazie Maestro ;). Quando non puoi batterli alleati con loro. Bè, io sono tuo alleato 🙂

    @Stuart said:

    micky ha scritto:
    ...Se l'utente sta 5 secondi mediamente su un sito A e 3 minuti su B, 2 minuti su C, 5 minuti su D, non solo vuol dire che A va levato dalle serp per quella query, ma che se i dati sono gli stessi anche per altre query correlate potremmo essere in presenza di uno SPAM ENGINE.

    @Stuart said:
    Eh eh eh ... e qui dimentichi un punto cruciale.

    La Ctr è sì un fattore che Google prende in (grande) considerazione ma non è, e non sarà mai, una via di autolegittimazione per le pagine che fanno spam. Il quale rimane il nemico numero uno contro il quale il motore spende la maggior parte dei suoi sforzi (guarda ad esempio i titoli e gli abstract degli ultimi brevetti/paper più noti).
    Uno spam engine o una doorway che in virtù del loro posizionamento beneficiano di un gran numero di accessi non stanno trovando in questa la via della legittimazione: verranno presto o tardi epurati dall'archivio.

    Aspetta, Stu, per ctr si intende click trough rate, vale a dire click per imporession? Io infatti, non parlavo di questa per determinare una serp, o l'esistenza di uno spam engine in serp, ma del tempo di permanenza sulla singola pagina dopo il relativo click. Vale a dire se per la query "gatto malato" trovo che un sito ben posizionato ha tempi di permanenza di molto inferiori alle altre serp,** relativamente allo stesso numero di click**, vorrebbe sicuramente dire che per quella query particolare il sito non è attinente alla query stessa. Se poi il giochetto si dovesse verificare anche per **l'argomento sotteso dalla query **(in questo caso gatto sano, gatto veloce, gatto morto, gatto nero, gatto...), molto probabilmente saremmo in presenza di uno SPAM ENGINE (da pesare con gli altri fattori), che invece di parlare di gatti, parla di canne di bambù, o di nulla.

    @Stuart said:

    Allo stesso tempo la durata breve della permanenza su una pagina non è necessariamente sintomo di scarsa rilevanza della stessa. Anzi, magari è proprio il contrario: la pagina esprime molto sinteticamente, e soddisfa in pieno, la ricerca dell'utente. In 10 righe, ha soddisfatto la query.

    Come dicevo prima, se il tempo di permanenza medio di un utente sui siti semi, radice, siti ipoteticamente perfetti, creati ad hoc proprio dai progettisti e sparati random o a rotazione nelle serp, fosse misurabile per ogni argomento possibile, incrociando altri fattori, si potrebbe con buona probabilità pesare i futuri siti rispondenti alla medesima query, in funzione del tempo di permanenza stesso.
    Se digito "codice postale roma" voglio solo sapere il CAP, e questo il motore lo apprende dal comportamento, nel tempo, degli utenti, e quindi è plausibile un tempo di permanenza basso.
    Se digito "case in vendita in Toscana", Stu :), mi aspetto, e questo il motore lo apprende dal comportamento degli utenti su quella particolare query nel tempo o creando dei siti perfetti, o facendo ruotare i risultati delle serp, un tempo di permanenza piuttosto alto e legato all'argomento.

    Se digito "gambe kournikova", bè i tempi sono variabili non dico a seconda di cosa 😄 sennò mi bannano anche per la prossima reincarnazione :D.

    @Alex2k said:

    OT on:Come poter rimanere indifferenti ai tuoi topic anche il giorno di pasqua prima di andare a pranzare OT off

    Speriamo non ti rovinino il pranzo pasquale :D. Grazie ;).

    @Alex2k said:

    ....non ti nascondo che la vedo abbstanza ardua per un mdr pesare il sito (ed il suo posizionamento) in base al tempo di permanenza dell'utente....questo perchè IMHO l'algoritmo dovrebbe trattare ogni argomento/serp in modo differente.... è difficile basarsi su parametri quasi fissi per la permanenza dell'utente su un sito che parla di frutta e su un altro che parla di energia nucleare....per alcuni argomenti potremmo giudicare interessante anche un sito in cui l'utente rimane 1 minuto (invece che 3 secondi), mentre per altri argomenti potrebbe non essere così....
    ...anche se in modo molto infantile e banale spero almeno di essermi fatto capire... ....

    Sei stato chiarissimo, ed è quello che dicevo innanzi. Per far ciò i motori dovrebbero disporre di una potenza di calcolo mostruosa, e di database altrettanto capienti. Come dico sempre, asintoticamente 🙂 sarà plausibile che avvenga questo, e chiedevo a breve termine se mi devo sforzar troppo per convincere piuttosto il motore, o se i motori sono quanto di più evoluto possiamo pensare e quindi devo sparare a dritta per fare siti mostruosamente belli e funzionali, per convincere gli utenti e di conseguenza i motori. Un conto è attrarre l'utente nelle serp, un conto è battere un sito fatto benissimo sul tempo di permanenza.

    @Alex2k said:

    hai ragione quando dici che il posizionamento in base ai click sulle serp ti sembra poco efficiente....ma pensandoci meglio se il motore potesse riconoscere oltre al click dell'utente su un sito di una certa "serp" anche se in seguito lo stesso utente ci ritorna sul sito o meno, e se ci ritorna ogni giorno, e quanto tempo ci sta (analytics )....credo che il discorso cambi e tanto ....

    Ecco, hai citato alcuni parametri, tipo il click nelle serp in base al ricordo e non alla descrizione, o la digitazione dell'indirizzo nella URL. Mi verrebbe da pensare ad una serie di azioni che l'utente potrebbe fare per votare il sito, tipo aggiungerlo nei preferiti, sono tutti parametri massimizzabili tramite la stesura di un sito fatto benissimo, ma attualmente, per la mia politica di massimo rendimento col minimo sforzo, non so se il motore li prende in considerazione questi ed altri per giustificare un impegno mostruoso a favore di un sito del genere.
    Un tale di nome Stuart 🙂 conosce, e li ha spiattellati nei vari post, un bel pò di tali parametri, non so personalmente se sono deduzioni logiche, non necessariamente sue, ma anche delle fonti da cui si nutre :), o è già accertato che sono dei veri e propri parametri che i motori già valutano.
    Quali sono tutti questi parametri, allora chiedo, ragazzi?
    Quanto dobbiamo sforzarci, alla luce dello stato dell'arte attuale dei motori, e di una ragionevole evoluzione nei prossimi anni, nel costruire siti che sono appetibili per tutti questi altri parametri che, magari a nostra insaputa, sono addirittura più importanti di link popularity, PR, e contenuti stessi?

    @Alex2k said:

    Colgo comunque l'occasione per farti gli auguri di Pasqua 😉

    Auguri anche a te, Alex, e a tutti voi ragazzi! :ciauz:


  • Super User

    @micky said:

    Aspetta, Stu, per ctr si intende click trough rate, vale a dire click per impression?
    Si, ho confuso le carte in tavola...inconsciamente tenevo maggiormente a sottolineare i "se e i ma" del fattore CTR. Argomento comunque correlato al tuo visto che hai fatto il paragone della durata di visita ai siti A B C D E presenti presumibilmente nella stessa serp.
    Ciò che dico è che Google è in grado benissimo di isolare i siti che probabilmente spammano senza far affidamento ad un parametro variabile come la durata delle visite. Magari non immediatamente, come tutti vorremmo, ma prima o poi lo fa.

    Del resto TU, io, riconosciamo uno spam engine, o una doorway. A tuo parere è una malizia che hanno tutti? Un utente normale potrebbe arrivare su una pagina spam e pensare "Wow! guarda quanti bei link su cui cliccare!" e prima di accorgersi della fregatura, potrebbe visitare a loop infinite pagine.

    OT: Prima regola dei webmaster: non pensare che tutti gli utenti abbiano il tuo pc, il tuo monitor, il tuo sistema operativo, il tuo browser.
    Prima regola dei Seo: non pensare che siano tutti Seo 🙂

    Sulla rilevanza. Io potrei cercare "Gatto", e arrivare ad una pagina che -tramite tecniche lecite o illecite- si è posizionata benissimo. Tuttavia quella pagina parla di "Cane". Io sono interessato all'argomento e penso "Ok, leggiamo un po' qui, gatto lo cerco dopo".

    Ergo. CTR, SI. Durata delle visite, NI.

    @micky said:

    Tempo di permanenza sulla singola pagina dopo il relativo click. Vale a dire se per la query "gatto malato" trovo che un sito ben posizionato ha tempi di permanenza di molto inferiori alle altre serp, relativamente allo stesso numero di click, vorrebbe sicuramente dire che per quella query particolare il sito non è attinente alla query stessa
    Per arrivare alla stessa conclusione non è mica necessario cronometrare la visita.** E' più semplice per Google penalizzare i siti (come gli spam engine) il cui traffico in entrata è generato per il 99% da Google stesso**.
    Gli spam engine hanno praticamente solo accessi dalle serp (più link spam provenienti da fonti dubbie), zero traffico spontaneo, zero link da siti 'buoni'.
    Misurarne ANCHE i tempi medi di visita, direi che sarebbe superfluo.

    @micky said:

    Se digito "codice postale roma" voglio solo sapere il CAP, e questo il motore lo apprende dal comportamento, nel tempo, degli utenti, e quindi è plausibile un tempo di permanenza basso.
    Se digito "case in vendita in Toscana", Stu Smile, mi aspetto, e questo il motore lo apprende dal comportamento degli utenti su quella particolare query nel tempo o creando dei siti perfetti, o facendo ruotare i risultati delle serp, un tempo di permanenza piuttosto alto e legato all'argomento.
    E' una considerazione interessante.
    A cui non potrei ribattere se non reimpastando le considerazioni che ho fatto sopra. Ne aggiungo una, però. La direzione che sembra aver preso Google (e gli altri motori di ricerca) è quella di soddisfare 'direttamente' le query generiche, che implicano una definizione, un'informazione veloce (come potrebbe essere il CAP), una mappa.
    Vedi le 'Definition', su Google.com. Cercando un qualsiasi termine, ti compare l'opzione 'Definition', cliccandoci sopra ti si apre una pagina di Answers.com che ti spiega il termine nella maniera più approfondita possibile, secondo tutte le accezioni possibili.

    In un futuro mooolto venturo, in italia, il cap di Roma te lo dirà direttamente il motore di ricerca, unitamente alla mappa, alla storia e al meteo.

    Inoltre -Low o Beke potrebbero confermare meglio o smentire questa mia supposizione- implementare negli algoritmi attuali un'ulteriore discriminante come "Per le query X, Y, Z la durata ottimale è N minuti, per le query W , J , K, la durata ottimale è T minuti...." sarebbe troppo complesso a fronte di risultati equivalenti raggiungibili con gli attuali algoritmi o con sistemi meno complicati. Anche presupponendo un'autoeducazione del motore basata sui comportamenti abituali degli utenti.

    @micky said:

    Quali sono tutti questi parametri, allora chiedo, ragazzi?
    Andando al sodo, all' ESSENZA, del posizionamento, titolo del topic, a mio parere DUE: la percezione che il MOTORE ha del sito (quantità e qualità dei contenuti, presentazione dei contenuti -layout, ottimizzazione- pagerank, trustrank), e la **percezione che il motore ha del sito sulla base della WEB'S OPINION **(traffico, CTR, user behaviour, link spontanei, citazioni).

    Cordialmente,
    Stuart


  • Super User

    @Stuart said:

    Del resto TU, io, riconosciamo uno spam engine, o una doorway. A tuo parere è una malizia che hanno tutti? Un utente normale potrebbe arrivare su una pagina spam e pensare "Wow! guarda quanti bei link su cui cliccare!" e prima di accorgersi della fregatura, potrebbe visitare a loop infinite pagine.

    Verissimo! Infatti un tempo di permanenza piccolo da parte di un utente su un sito per un particolare argomento personalmente lo porrei come una condizione sufficiente ma non necessaria per sgamare chi spamma o la non attinenza di un sito. Non si può dire che un tempo di permanenza lungo sia indice di bontà del sito, ma sicuramente un tempo di permanenza breve, sempre che l'argomento stesso non possa prevedere tale brevità, potrebbe indicare la non attinenza di quella particolare serp. Tutto questo teoricamente. Penso che forse il gioco non vali la candela perchè ci sono altri parametri più facilmente calcolabili attraverso i quali google e compagnia giudicano la bontà di un sito e la classifica relativa.

    [quote"Stuart"]Prima regola dei Seo: non pensare che siano tutti Seo
    [/quote]

    La prima regola è Stuart ha sempre ragione 😉

    @Stuart said:

    Sulla rilevanza. Io potrei cercare "Gatto", e arrivare ad una pagina che -tramite tecniche lecite o illecite- si è posizionata benissimo. Tuttavia quella pagina parla di "Cane". Io sono interessato all'argomento e penso "Ok, leggiamo un po' qui, gatto lo cerco dopo".

    Bè, questo potrebbe essere il comportamento di un singolo e non di una moltitudine di utenti, se il tempo di permanenza mediato su una moltitudine, per la query "gatto" su una serp che parla di cane fosse maggiore rispetto ad una serp che parla di gatti e basta, il motore apprenderebbe, giustamente e paradossalmente, che chi cerca gatto preferisce sentir parlare anche di cani, e sarebbe giusto in futuro continuare a fornire quelle serp. Ma questa è filosofia :).

    @Stuart said:

    Inoltre -Low o Beke potrebbero confermare meglio o smentire questa mia supposizione- implementare negli algoritmi attuali un'ulteriore discriminante come "Per le query X, Y, Z la durata ottimale è N minuti, per le query W , J , K, la durata ottimale è T minuti...." sarebbe troppo complesso a fronte di risultati equivalenti raggiungibili con gli attuali algoritmi o con sistemi meno complicati. Anche presupponendo un'autoeducazione del motore basata sui comportamenti abituali degli utenti.

    Quoto in pieno, ripeto era SEO filosofia :), è più un ragionamento che una cosa plausibile, relativamente allo sforzo computazionale che i motori dovrebbero sostenere.

    @Stuart said:

    Andando al sodo, all' ESSENZA, del posizionamento, titolo del topic, a mio parere DUE: la percezione che il MOTORE ha del sito (quantità e qualità dei contenuti, presentazione dei contenuti -layout, ottimizzazione- pagerank, trustrank), e la percezione che il motore ha del sito sulla base della WEB'S OPINION (traffico, CTR, user behaviour, link spontanei, citazioni).

    Queste cose me le stampo nel cervello in attesa dell'uscita ufficiale della tua nuova guida. Una cosa, che si intende per user behaviour? CIoè comportamento in base a cosa?

    Un' ultima cosa consentitemela, chiedo scusa ai moderatori, ma fatevi due risate a mie spese anche per rendere il topic meno pesante: mi auto cito per fare autocritica su quello che ho detto sul tempo di permanenza
    nel topic http://www.giorgiotave.it/forum/viewtopic.php?t=8837:

    Mix Web Design scrisse:
    Se te sai che il 99% delgli internauti cercano su google la parola "anatroccolo" tu potresti ottimizzare il tuo sito in modo da uscire nelle 1° posizioni con la key "anatroccolo". Ho letto, non so dove, che questo metodo è molto utilizzato, sopratutto nei portali tipo virgilio supereva....ecc. dove loro ti direzionano no verso quello che te realmente cerchi ma verso quello che loro vogliono farti trovare
    Io sono giunto a questa conclusione molto lontano da quanto sopra citato dal successo che ha virgilio o altri portali che ti direzionano dove vogliono loro offrendoti tanti contenuti interessanti facendoti scordare cosa realmente cerchi

    ** e un certo Micky rispose così**:
    Ah se la metti così ti dò ragione! Pensa che una volta cercavo il crack di age of empire o qualcosa del genere, e dopo un pò, di fronte a delle serp non proprio a tema, mi ritrovai con qualcosa in mano... :quote: :quote: :quote:

    😄 😄 😄


  • Super User

    Il fatto che i motori, ora come ora, diano importanza a cosa viene cliccato nelle serp, piuttosto che al tempo di permanenza nel sito, è un limite molto stringente che ha il motore nel giudicare, perchè vuol dire semplicemente se il SEO ha dato una buona descrizione nel mata tag description o nei sottotitoli.

    Ma bisogna anche tener conto che i motori moderni non sfruttano i click sui risultati allo stesso modo con cui venivano sfruttati dai motori della vecchia generazione.

    I motori della vecchia generazione si limitavano a sfruttare i click per far salire di posizione le pagine. Magari in maniera non grezza (ad esempio calcolavano le percentuali medie di click per ciascuna delle posizioni sulla pagina e facevano salire solo le pagine che si discostavano dalle percentuali previste), ma si trattava pur sempre di un modello "più click = migliore posizione".

    Oggi questo non è più vero. Un motore di ricerca moderno sarebbe folle ad adottare un modello simile, in quanto consapevole della debolezza intrinseca di un sistema così banale.

    Questo non significa che i click non vengano conteggiati, significa solo che tali informazioni vengono sfruttate in maniera estremamente più sofisticata.

    Quando, dopo anni privi di monitoring dei click, Google iniziò timidamente ad introdurre nelle pagine delle SERP del codice per il tracciamento dei click, un loro portavoce disse esplicitamente che l'interesse era di acquisire quelle informazioni solo per misurare meglio la qualità delle SERP.

    Questo avveniva circa tre anni fa. Da allora è cambiato sia il metodo di tracking sia le sue finalità, in quanto le informazioni sul comportamento degli utenti sulle SERP vengono adesso usate anche per stabilire la posizione delle pagine.

    Tuttavia, nota che io parlo di "comportamento degli utenti", non di "click sui risultati".

    Il click, di per sé, non è un indicatore di qualità perché, come tu giustamente dici, può significare semplicemente che titoli e descrizioni siano stati scritti ad arte dal webmaster/SEO.

    Ma se le informazioni sui click vengono integrate con dati di altro genere, come la velocità di reazione dell'utente o la capacità della pagina raggiunta di fungere da hub per una risorsa/pagina secondaria, allora il quadro generale cambia e il motore inizia a possedere delle informazioni utili anche per valutare le pagine cliccate ed eventualmente modificarne la posizione nelle SERP.

    Ad esempio, non vi è dubbio che una delle pagine del mio sito abbia finora raggiunto una ottima posizione nelle SERP solo in funzione di tali fattori. Tale pagina tratta un argomento poco rilevante con i contenuti del sito, sta infossata nella gerarchia di navigazione, non beneficia di backlink particolarmente utili a migliorarne la posizione ed i suoi testi non sono ottimizzati. Ciononostante gode di una posizione inaspettata. Perché?

    A mio parere perché la lettura del solo titolo di quella pagina nelle SERP porta l'utente ad esclamare "cazzarola!" e a cliccarla in una frazione di secondo. L'utente effettua la ricerca in tema con quella pagina, e si aspetta che Google e Yahoo gli propongano di tutto, tranne che l'informazione scritta nel titolo di quella pagina. Reazione istantanea e capacità della pagina di inviare l'utente ad una risorsa esterna (e quindi il tempo di visualizzazione della pagina è davvero minimo😞 un'accoppiata vincente. Primo o poi gli metto un AdSense. 😄

    Questo a sottolineare come l'assunto "più tempo = più utile per l'utente" non è necessariamente corretto.

    quando ero a Roma ho notato che il termine piuttosto viene usato nell'accezione di inoltre

    E' ugualmente corretto. Lo si fa anche con "ovvero", usato con l'accezione di "oppure". Credo si tratti di utilizzi un po' demodè, usati in passato sopratutto in giurisprudenza o nel burocratese. Recentemente son tornati di moda e si son diffusi nella lingua parlata.

    Se l'utente sta 5 secondi mediamente su un sito A e 3 minuti su B, 2 minuti su C, 5 minuti su D, non solo vuol dire che A va levato dalle serp per quella query, ma che se i dati sono gli stessi anche per altre query correlate potremmo essere in presenza di uno SPAM ENGINE.

    Riguardo il tempo di permanenza, la conclusione che il sito vada tolto da una SERP mi pare una semplificazione eccessiva del problema. L'esempio che ho fatto sopra dovrebbe rendere chiaro il fatto che il tempo di permanenza sulla pagina (singola, peraltro, non l'intero sito) non è un indicatore di qualità né di utilità.

    Riguardo gli spam engine, penso che esistano metodi più semplici e migliori per rilevarli. Sopratutto perché l'utente medio è capace di navigarsi in lungo ed in largo uno spam engine trovandolo persino utile.

    Su questo Forum sono il pane quotidiano; all'estero, anche su Forum autorevolissimi, certi discorsi sarebbero quasi improponibili.

    Convengo appieno.

    Quali sono tutti questi parametri, allora chiedo, ragazzi?

    Questa è una domanda importante ai fini del reverse engineering, ma da alcuni anni ho affiancato a queste pratiche una filosofia indiretta: creando il miglior sito possibile, lo si ottimizza indirettamente anche per quei fattori, presenti e futuri, di cui noi ignoriamo ed ignoreremo l'esistenza.

    Ovviamente poi subentra la mia indole informatica, che mi spinge a predire quali macro-elementi i motori hanno interesse a valutare. Pertanto so che l'aggiunta dei bookmark alla toolbar di Google ha finalità che ad un SEO dovrebbero risultare evidenti, ma classifico questo singolo elemento nella macro categoria "user behavioural".

    implementare negli algoritmi attuali un'ulteriore discriminante come "Per le query X, Y, Z la durata ottimale è N minuti, per le query W , J , K, la durata ottimale è T minuti...." sarebbe troppo complesso a fronte di risultati equivalenti raggiungibili con gli attuali algoritmi o con sistemi meno complicati.

    Non è molto complesso, ma è vero che è abbastanza superfluo. Bisogna vedere, a fronte della complessità di implementazione relativamente bassa, se sarà uno dei tanti parametri che aggiungeranno al calderone o se se ne fregheranno. Come dicevo prima, penso che la permanenza sarà solo un parametro secondario, uno dei tanti.

    percezione che il motore ha del sito sulla base della WEB'S OPINION

    Giustissimo, ma consiglio di fare un passo oltre: togliere "web" ed inserire "global". Google indicizza già i caption di alcune trasmissioni TV e nessuno sa se/quanto influisca la citazione di un dominio internet sulla CNN (lo consideriamo un "link"?) sull'opinione che Google avrà del sito ospitato su quel dominio.

    I motori di ricerca non si accontenteranno di Internet (e dico "Internet" e non "Web" perché si potrebbero fare tante gustose supposizioni sulla posta elettronica o sulla chat).


  • Community Manager

    @LowLevel said:

    Giustissimo, ma consiglio di fare un passo oltre: togliere "web" ed inserire "global". Google indicizza già i caption di alcune trasmissioni TV e nessuno sa se/quanto influisca la citazione di un dominio internet sulla CNN (lo consideriamo un "link"?) sull'opinione che Google avrà del sito ospitato su quel dominio.

    I motori di ricerca non si accontenteranno di Internet (e dico "Internet" e non "Web" perché si potrebbero fare tante gustose supposizioni sulla posta elettronica o sulla chat).

    Ora c'è anche Google Calendar 😄

    GTalk come sapete memorizza le chattate e Google ha tantissimi strumenti per monitorare il comportamento degli utenti. Tutti ora si aspettano l'uscita del PC con possibilità di vedere la Televisione e cliccare su Adsense 😄


    Però vorrei introdurre un argomento di cui si parla poco nei Forum SEO, ringraziando Stuart per l'apprezzamento alla community e dicendo che Low ci ha dato, in tempi non sospetti, una [url=http://www.giorgiotave.it/forum/viewtopic.php?t=6145]grossa spinta.

    17 Dic 2005

    Vi chiederete perché faccio questo discorso proprio alla comunità di giorgiotave e proprio su questo forum. Risposta: siete i migliori. E dico internazionalmente, senza scherzare.

    16 Apr 2006

    Su questo Forum sono il pane quotidiano; all'estero, anche su Forum autorevolissimi, certi discorsi sarebbero quasi improponibili.

    Abbiamo introdotto e discusso su molti concetti come Information Retrieval, vector model, Booleano, espansione della query, Hilltop, Topic sensitive pagerank, Latent Semantic Indexing, TrustRank, Thesauri

    ed ora ce ne sono altri da approfondire citati da Stuart e da Low in vari post che vedrò di recuperare (qualcuno fà una lista dei nuovi termini? :D).

    Tutto questo grazie a questa bella comunità che non si è fermata ed ha deciso di approfondire l'argomento SEO.

    Agoago sà benissimo che sono gli utenti "nuovi" del mestiere ad avere l'idea geniale 😄


    Torniamo all'argomento che vorrei introdurre nel Topic l'essenza dei motori di ricerca. Perchè Stuart e Low hanno parlato dei fattori importanti completandosi con i loro discorsi però io ho un dubbio tremendo:

    Domanda: Come fà un webmaster a creare un sito valido e farlo salire nelle Serp di una competitività mostruosa?

    Risposta: creare una risorsa utilissima e differenziarsi.

    La risposta, ovvia, banale, ripetitiva, scontata, di circostanza, ma che di sicuro racchiude il mestiere del SEO e SEM in sè, provoca un'altra domanda:

    Come fà Google a determinare che quel sito è valido e quindi presentarlo nelle SERP competitivissime ai suoi utenti cercando di non farli ridere?

    Invitando anche Agoago, Fradefrà, Beke, Dell'Orto, Rinzi, Marco Tuscany e tutti gli altri che non cito perchè vado di fretta mi sentirei di citare alcuni punti che un motore di ricerca tiene in considerazione, secondo il mio parere:

    • Flaggare un sito
      Ho sentito varie volte sia in questo Forum sia in vari articoli (forse Beke?) parlare del Flag del sito, ovvero (almeno credo) del momento in cui Google dice: Bene tu sei Ok. (qualcuno identifica questo momento con l'uscita del Sandbox, argomento molto discusso in passa tra i SEO).

    • Link dai Flaggati
      Quindi se un sito è Flaggato la sua importanza nel dare un voto ad altri siti aumenta e quindi un link è più importante.

    • Link dagli HUB
      Gli Hub sappiamo cosa sono e quanto sono importanti e considerati da Google.

    • Ritmo di crescita dei contenuti e link
      Questo determina anche il Flag. Secondo me (vi ricordo che sono solo idee) c'è un primo controllo da parte di Google che permette di valutare quanto in realtà è buono il sito per gli utenti. In questo periodo vengono contati anche i ritmi di crescita dei contenuti e dei link in entrata.

    In un motore ideale sarebbe veramente ottimo avere dei fattori che controllino alcuni fattori, ma ci sarebbe un grande consumo di risorse, nascono troppi siti.

    Quindi stringendo al sodo credo che la qualità dei link (ed il tempo di crescita) ed in qualche modo il tempo di crescita dei contenuti ancora oggi sono importantissimi per controllare i siti validi.

    Serp, dove sei finito che dicevi che un tuo amico controllava le SERP a mano, ce lo fai questo post Ru Iaang? :fumato:


  • Super User

    EDIT:scusami Giorgio, hai postato mentre scrivevo 🙂
    Insomma, Low, vuoi proprio costringermi a stempare tutto il post e incorniciarmelo sul muro :)?

    @LowLevel said:

    Ma se le informazioni sui click vengono integrate con dati di altro genere, come la velocità di reazione dell'utente o la capacità della pagina raggiunta di fungere da hub per una risorsa/pagina secondaria, allora il quadro generale cambia e il motore inizia a possedere delle informazioni utili anche per valutare le pagine cliccate ed eventualmente modificarne la posizione nelle SERP.

    Ad esempio, non vi è dubbio che una delle pagine del mio sito abbia finora raggiunto una ottima posizione nelle SERP solo in funzione di tali fattori. Tale pagina tratta un argomento poco rilevante con i contenuti del sito, sta infossata nella gerarchia di navigazione, non beneficia di backlink particolarmente utili a migliorarne la posizione ed i suoi testi non sono ottimizzati. Ciononostante gode di una posizione inaspettata. Perché?

    A mio parere perché la lettura del solo titolo di quella pagina nelle SERP porta l'utente ad esclamare "cazzarola!" e a cliccarla in una frazione di secondo. L'utente effettua la ricerca in tema con quella pagina, e si aspetta che Google e Yahoo gli propongano di tutto, tranne che l'informazione scritta nel titolo di quella pagina. Reazione istantanea e capacità della pagina di inviare l'utente ad una risorsa esterna (e quindi il tempo di visualizzazione della pagina è davvero minimo): un'accoppiata vincente. Primo o poi gli metto un AdSense.

    Questo a sottolineare come l'assunto "più tempo = più utile per l'utente" non è necessariamente corretto.

    Si, ma si potrebbe sicuramente affermare questo: un conto è la scarsa permanenza dovuta ad un click sul link presente nella pagina stessa che fungerebbe, come dici tu, da perfetto hub :), un conto è la scarsa permanenza dovuta alla chiusura della finestra.
    Vedrò di scoprire qual è quella pagina , mi hai incuriosito :).

    @LowLevel said:

    Citazione:

    Quali sono tutti questi parametri, allora chiedo, ragazzi?

    Questa è una domanda importante ai fini del reverse engineering, ma da alcuni anni ho affiancato a queste pratiche una filosofia indiretta: creando il miglior sito possibile, lo si ottimizza indirettamente anche per quei fattori, presenti e futuri, di cui noi ignoriamo ed ignoreremo l'esistenza.

    Su queste affermazioni sono stradaccordo. In altri post, ho affermato più volte come il mio sforzo personale nello studio per raggiungere le prime posizioni sui motori di ricerca stia lentamente ma inesorabilmente andando a convergere verso il filone usabilità. L'arte della Search Engine Optimization è un'altra strada parallela e asintoticamente (;) ) convergente verso quell'arte che fa fare il miglior sito web possibile, e non il sito web più ottimizzato possibile come era una volta.
    Quanto più ci sforzeremo per fregare i motori, tanto più questi diventaranno bravi nel considerare le risorse giuste.
    Nella mia tesi sull' "active learning nella classificazione automatica di documenti di testo" si cercava, sfruttando il lavoro di alcuni operatori umani, di addestrare una rete neurale per smistare automaticamente alcuni documenti di testo nelle relative categorie. Si partiva da un seme di documenti costruiti ad hoc, vari documenti perfetti per ogni categoria per l'addestramento iniziale della rete neurale. Poi si davano in pasto nuovi documenti alla rete stessa e la si lasciava svolgere il suo lavoro di classificazione monitorandolo con gli operatori. Quando la rete non era in grado di classificare un documento spurio con sufficiente sicurezza, "chiedeva" all'operatore umano di intervenire classificandolo manualmente, e questo "errore", anche se in questo caso preannunciato, andava a rafforzare gli ingressi della rete addestrandola a comportarsi di conseguenza di fronte a documenti che presentassero delle affinità con quelli potenzialmente passibili dello stesso tipo di dubbio. Bè con questo sistema si raggiungevano asintoticamente ( e daglie :D) percentuali di classificazione variabili tra l'80% ed il 97%.
    Potrebbe essere plausibile che il motore sfrutti allo stesso modo i siti che ricevono maggiori segnalazioni tramite l'apposito modulo anti SPAM.
    Del resto il cervello dell'uomo, la rete neurale per eccellenza, in questo momento sta apprendendo che il signor Micky deve essere proprio il nerd perfetto, se il giorno di Pasquetta si mette a scrivere queste cose 😉


  • Super User

    Vedrò di scoprire qual è quella pagina , mi hai incuriosito

    Ricerca [encarta], sto in prima pagina sulle ricerche italiane su Yahoo e stavo in prima pagina fino a qualche giorno fa (adesso in seconda) su Google.it

    Potrebbe essere plausibile che il motore sfrutti allo stesso modo i siti che ricevono maggiori segnalazioni tramite l'apposito modulo anti SPAM.

    Un ingegnere di Google una volta si lasciò scappare una frase che faceva supporre l'utilizzo di tecniche di apprendimento tipiche dei sistemi neurali per l'identificazione di siti di spam.

    In particolare, disse che è teoricamente possibile essere scambiati per spammer se il sito possiede diversi elementi simili a quelli presenti nei siti degli spammer.


  • Super User

    [EDIT]: ho visto la pagina, Low 😄

    Supponiamo che abbia un pagina con ottimi contenuti e parecchi link verso lo stesso sito cui appartiene, o anche verso un sito esterno, a maggior ragione alla luce del discorso che sto per fare.
    Sarebbe meglio, in virtù del fattore hubbing, vale a dire la capacità che ha la pagina di far cliccare verso le risorse(link) che possiede, mettere il link con i target"_blank" per dare la possibilità di cliccare su altre risorse?


  • Super User

    @Giorgiotave said:

    • Flaggare un sito
      Ho sentito varie volte sia in questo Forum sia in vari articoli (forse Beke?) parlare del Flag del sito, ovvero (almeno credo) del momento in cui Google dice: Bene tu sei Ok. (qualcuno identifica questo momento con l'uscita del Sandbox, argomento molto discusso in passa tra i SEO)
      Potrei sbagliarmi, ma il 'Flag' di un sito è generalmente considerato un fattore negativo, e attiene al momento in cui un sito è ufficialmente sospettato di mettere in atto pratiche spam che meritano approfondimenti.

    Anche in accordo con l'utilizzo che Matt Cutts fa del termine 'Flag' in alcuni suoi post, un sito viene flaggato quando a) algoritmicamente il motore identifica all'interno di un sito un'operatività simile allo spam (pagine uguali, redirect sospette, troppi link in entrata in breve tempo ecc ecc....), oppure b) quando a carico di un dato sito pendono un gran numero di spam report, e quindi il sito viene segnalato per una futura indagine.

    Il termine, forse, giusto per evidenziare siti che vengono considerati OK, e/o autorevoli, importanti, perfettamente assimilati all'interno dell'archivio (e che quindi beneficiano di ottimi posizionamenti, e danno link 'pesanti' all'esterno) è "Established Sites*".

    Non penso che lo status di established lo si ottenga con l'uscita dalla sandbox, visto che il concetto di sandbox racchiude in sè tutto e niente, e forse attiene semplicemente alla mancanza di una storia (link e traffico) da parte di un sito nuovo.
    Tuttavia il fattore 'età del dominio', o meglio "cronistoria all'interno degli archivi di Google" non credo sia secondario anzi.
    Un established site è un sito che è in Google da un bel po' di tempo, linkato spontaneamente da diverse fonti e in maniera graduale (meno link ma di maggiore qualità), che ha visto crescere progressivamente la quantità di pagine e contenuti, che presenta [macro]argomenti di interesse generale.

    Cordialmente,
    Stuart


  • Community Manager

    Azz 🙂

    Grazie mille Stuart questa non la sapevo proprio 😄

    :ciauz:


  • Super User

    Potrei sbagliarmi, ma il 'Flag' di un sito è generalmente considerato un fattore negativo, e attiene al momento in cui un sito è ufficialmente sospettato di mettere in atto pratiche spam che meritano approfondimenti.

    The Rating Categories We make use of the following categories for evaluating our search results:

    Vital
    Useful
    Relevant
    Off Topic
    Offensive

    Erroneous
    Didn?t Load
    Foreign Language
    Unrated


  • Super User

    @LowLevel said:

    Potrei sbagliarmi, ma il 'Flag' di un sito è generalmente considerato un fattore negativo, e attiene al momento in cui un sito è ufficialmente sospettato di mettere in atto pratiche spam che meritano approfondimenti.

    The Rating Categories We make use of the following categories for evaluating our search results:

    Vital
    Useful
    Relevant
    Off Topic
    Offensive

    Erroneous
    Didn?t Load
    Foreign Language
    Unrated

    Quindi...
    è una lista di "Flag" che possono essere attribuiti ad un sito (immagino che un sito ne possa avere più di uno...), oppure è meglio parlare appunto di 'rating categories' che utilizza un mdr per catalogare un sito?

    Cordialmente,
    Stuart


  • Super User

    Ok, chi fa da sè... 😄
    Le Rating Categories sono quelle utilizzate dai "Google Search Result Quality Evaluators"
    http://www.seobook.com/archives/000915.shtml

    Sempre convinto che il 'flag' di un sito attenga maggiormente al sospetto su pratiche spam del sito stesso (almeno nel senso comune..) 😉

    Cordialmente,
    Stuart