• User

    google e viste

    premetto che è una pura curiosità;

    ipoteticamente, Avendo un unico browser sul mio pc - come posso fare apparire più visite a google con lo stesso browser nello stesso giorno) - tramite proxy? oppure entrando in anonimo? o che altro?


  • Super User

    Ciao Emanuele,

    Cosa intendi con "fare apparire più visite a google"?

    google analytics?


  • User

    si esattamente.


  • Moderatore

    Ciao Emanuelevt,
    Posso chiederti perché mai vorresti falsare un dato visibile solo a te (o a un tuo cliente)? Cui prodest?

    P.S.: rispondendo in modo strettamente tecnico: nuove sessioni anomine, o proxy, o visita con cancellazione cookie, o disabilitare cookie su browser, etc....


  • User Attivo

    Le visite con lo stesso browser le ottieni, semplicemente, aggiornando più volte le pagine ... se utilizzi un proxy la provenienza delle visite sarà tracciata come da IP differenti, ovviamente. Ma forse non ho capito perfettamente la natura della tua richiesta... e mi associo alla domanda espressa da Federico nel precedente intervento.


  • User

    grazie delle risposte,
    ritengo che non sia una pratica corretta - però poiché uno dei fattori come ben sapete sono il num. dei visitatore e il loro tempo medio di permanenza sulle pag. etc... potrebbe essere un modo per "spingere" quantomeno inizialmente i siti web caricati su google?


  • Moderatore

    Ciao Emanuelevt,
    @Emanuelevt said:

    ... poiché uno dei fattori come ben sapete sono il num. dei visitatore e il loro tempo medio di permanenza sulle pag. etc...
    Temo quest'affermazione non abbia alcun riscontro con la realtà.


  • User

    Perdona la mia insistenza Federico, ma ritengo che prendendo due siti identici sotto i punti di vista SEO - se il sito a ha 100 visite al giorno e il sito b ha 10 visite al giorno - presumo che google dia più importanza al sito a; inoltre se entrambi i siti hanno lo stesso num di visitatori ma cambia il tempo medio; presumo che google dia più importanza al sito che ha una visita media maggiore (poiché forse lo ritiene più interessante).


  • Moderatore

    ciao Emanuelevt,
    @Emanuelevt said:

    Perdona la mia insistenza Federico, ma ritengo che prendendo due siti identici sotto i punti di vista SEO - se il sito a ha 100 visite al giorno e il sito b ha 10 visite al giorno - presumo che google dia più importanza al sito a; inoltre se entrambi i siti hanno lo stesso num di visitatori ma cambia il tempo medio; presumo che google dia più importanza al sito che ha una visita media maggiore (poiché forse lo ritiene più interessante).
    Non mi fraintendere, capisco il tuo spirito di sperimentazione e la voglia di esplorare il comportamento dei motori di ricerca...
    ...e lo apprezzo; proprio per questo, permettimi di spiegare meglio la mia affermazione.

    Google non utilizza i dati di Analytics per la valutazione dei siti. Lo ha affermato da anni, ripetutamente, categoricamente. Non si è mai visto uno studio indipendente in grado di contraddirla, solo conferme.
    Non avrebbe nemmeno senso, perché sono dati troppo facilmente alterabili, e non tutti i siti usano Analytics.

    Detto questo, è da molto e più volte stato ipotizzato Google utilizzasse i cosìdetti "segnali comportamentali" rilevabili non da Analytics, ma da come l'utente interagisce con la SERP.

    Il caso più citato è il "bounce back to SERP" ("Tasso di ritorno alla SERP", spesso confuso con il Bounce Rate riportato da Analytics).
    BB2SERP indica il seguente fenomeno: se l'utente clicca una voce in SERP per visitare un sito, poi torna indietro con il browser e selezionare un'altro link, potrebbe voler dire che il primo link presentato per la query di ricerca non l'ha presentato, e ha optato per il secondo. Potrebbe essere allora ragionevole pensare il secondo risultato sia più pertinente, e da posizionare meglio rispetto al primo in futuro... le sfumature e i casi possibili sono innumerevoli.
    Qualche anno fa ero tra i volontari per un esperimento che mirava a misurarne l'effetto, purtroppo non se ne fece più nulla.

    Google ha ammesso di avere perlomeno sperimentato in passato con il BB2SERP, dichiarando però di non utilizzarlo perché troppo inaffidabile (dalle dichiarazioni ho potuto leggere non si può escludere tuttavia utilizzi altre sfumature di segnali comportamentali).
    Nella terminologia interna di Google, la loro sperimentazione distingueva "short clicks" (intervallo molto ridotto tra il primo click in SERP, il back e il secondo click sul link successivo) da "long clicks" (intervallo più prolungato a suggerire l'utente avesse trovato in qualche modo pertinenti anche i primi risultati.
    Bill Slawski a più volte richiamato l'attenzione su brevetti di Google riguardanti l'analisi dei dati di comportamento degli utenti.

    Sia Bing che Yandex hanno dichiarato in passato di "analizzare" i segnali comportamentali (Yandex facendo proprio intendere anche di utilizzarli).

    L'analisi dei segnali comportamentali (se vuoi googlare un po': "search behavioral signals" o "user search behavior") non passa comunque per Analytics, passa per la SERP.
    Quindi non si può parlare di numero di visite (comprese dirette, da outbound links, altri motori, etc...), Google può valutare solo il numero di click dalle proprie SERP.

    Se tu volessi provare ad "alterare" la percezione di Google sulla "popolarità" dei risultati del tuo sito, dovresti pertanto automatizzare - sto parlando in via ipotetica, non sto invitando a fare qualcosa in contrasto con i termini d'uso del servizio di Google - query anomine e click ripetuti, passando da numerosi proxy, con user-agent diversi, con frequenze non regolari, etc... e non facendo solo un po' di visite dirette in più cancellando i cookie dell'unico browser sulla tua macchina.

    Spero d'esserti stato utile


  • User Attivo

    Mi associo e concordo pienamente con la bella analisi di Federico.


  • User

    Ho appreso perfettamente; probabilmente ho frainteso il libro in quanto non intendeva l'analytics ma ai click degli utenti su google - quindi l'unico effetto che otterrei sarebbe un'analisi non corretta dell'andamento del sito. detto questo vorrei essere abbastanza "schietto" e probabilmente avete già fatto questo esperimento, però

    automatizzando un processo in cui

    • creo un array di query e la relativa posizione SERP del sito in questione e disabilito i cookie
    1. apro il browser e vado su google
    2. prelevo (casualmente) la variabile query
    3. apro il sito web in questione
      apro nuovamente il proxy
    4. apro una nuova finestra (dopo secondi x)
    5. ripeto il procedimento precedente
    6. dopo y secondi chiudo la finestra precedente

    a questo punto se al posto di x metto un numero casuale - google potrebbe intendere che il processo non è automatizzato!

    Mi rendo conto che non sia facile da creare , ma penso anche che non sia poi così impossibile. Secondo la vostra esperienza è ritenete che google abbia algoritmi abbastanza complessi da apprendere le nostre "cattive" intenzioni e se si su cosa si potrebbero basare tali algoritmi?

    visto che ci sono vado ancora avanti (scusatemi anche se mi discosto dal tema principale) però ammesso che abbia la seguente stringa:

    $arte_marziale è $var1, $var2

    a questo punto
    $arte_marziale="muhai thai","thai box","lotta tailandese";
    $var1="forza","intensità","energia";
    $var2="velocità","rapidità";

    a questo punto casualmente su ogni variabile prelevo l'indice - quindi il senso della frase è lo stesso ma google effettivamente vede frasi diverse (e quindi un contenuto aggiornato) - mi potete dire cosa pensate relativamente anche a questo ?

    secondo esperimento?


  • Moderatore

    Ciao Emanuelevt!

    @Emanuelevt said:

    Secondo la vostra esperienza è ritenete che google abbia algoritmi abbastanza complessi da apprendere le nostre "cattive" intenzioni e se si su cosa si potrebbero basare tali algoritmi?
    Da utente normale sono stato più volte bloccato da Google che sospettava fossi un bot.... quindi la mia risposta è sì, ha sistemi piuttosto raffinati, dove presumo controlli frequenza, ip, user-agent, dimensione paginate, sessione autenticata/anonima, http/https, ripetizione query, presenza/assenza di cookies, etc...

    Probabilmente una migliore simulazione si otterrebbe non con un browser vero, ma automatizzando il più possibile tutte le chiamate HTTP simulando il più possibile le condizioni reali di vari profili di utente/browser diversi (cookies, accept-language, IP proxato, referrer, user-agent, etc...)
    Ovviamente sto speculando tanto "pour parler", non dico di farlo...

    @Emanuelevt said:

    ...ammesso che abbia la seguente stringa:

    $arte_marziale è $var1, $var2

    a questo punto
    $arte_marziale="muhai thai","thai box","lotta tailandese";
    $var1="forza","intensità","energia";
    $var2="velocità","rapidità";

    a questo punto casualmente su ogni variabile prelevo l'indice - quindi il senso della frase è lo stesso ma google effettivamente vede frasi diverse (e quindi un contenuto aggiornato) - mi potete dire cosa pensate relativamente anche a questo ?
    secondo esperimento?
    Non sono sicuro d'aver capito bene, stai parlando di presentare contenuti (titoli? testi?) diversi della pagina a googlebot?
    Per dare parvenza di contenuto aggiornato?
    Non credo possa dare un boost nel ranking per quella famiglia di keyword, al massimo convincere il bot a visitare il sito più spesso. Però non ho mai misurato l'effetto di simili interventi, e le ipotesi a volte possono essere sbugiardate da esperimenti pratici.

    Spero d'esserti stato utile


  • User

    cavolo, quelli di google sembrano veramente bravi 😄 ! Ok meglio essere onesti con loro - inutile avventurarsi in pratiche "forzate". Grazie!


  • Super User

    @Emanuelevt said:

    cavolo, quelli di google sembrano veramente bravi 😄 ! Ok meglio essere onesti con loro - inutile avventurarsi in pratiche "forzate". Grazie!

    Don't be evil.

    A volte penso sia riferito a noi, piuttosto che a loro 😉


  • Gli esperimenti son sempre interessanti, ma faccio un paio di considerazioni: uno, sottoscrivo quanto detto da Federico Sasso: son dati facilmente modificabili e alterabili quelli di analytics.
    Due, io non credo proprio che basti un semplice proxy a "fregare" Google. Non lo dico con prove certe o esperimenti fatti, ma così a naso penso che non sia così facile.
    Quindi, penso che la cosa sia un po' una perdita di tempo. 🙂