• User Attivo

    Bloccare Javascript con Robot.txt

    Da una idea di Karapoto di bloccare allo spider di Google la spiderizzazione degli annunci adsense e di analytics (il tutto dovrebbe dare risultati migliori come velocizzazione di pagina per Google)... avrei individuato queste due stringe da inserire nel robot.txt:

    User-agent: Googlebot
    Disallow: /*.js$

    Vanno bene? Dovrebbero bloccare la scansione di tutti i link in javascript. Giusto?


  • User Attivo

    Scusa 444523, ma la velocità del sito google la rileva tramite la google toolbar, non tramite l'accesso dello spider.
    Se non ho capito male il tuo intento è non fare caricare asdense quando accede Google per fargli credere che il caricamento è più veloce?


  • User Attivo

    Invece di bloccare l'accesso degli spider ai javascript che secondo me non serve a nulla, forse potresti usare un tool di compressione per ridurne (a volte notevolmente) il peso.


  • User Attivo

    @Swalke said:

    Se non ho capito male il tuo intento è non fare caricare asdense quando accede Google per fargli credere che il caricamento è più veloce?

    Ciao Swalke... mi riferivo a questo intervento di Karapoto alcuni giorni fa:

    @Karapoto said:

    Molti di noi usano analytics ed adsense, ebbene è lo stesso strumento page speed di google a segnalarli come pesanti 😄

    Guarda caso, da quando ho reso gli annunci non spiderizzabili dal crawler non specifico, le pagine sono state rilevate molto più veloci e la voce relativa agli annunci è sparita dalla segnalazione.

    Se quindi, nel suo score, google si baserà davvero sullo strumento page speed, dovrà tenere conto che i suoi strumenti possono contribuire alla lentezza di un sito.


  • ModSenior

    Ciao 444523,
    col il file robots puoi impedire l'indicizzazione solo dei file sul tuo dominio, per cui quelli esterni non farebbe riferimento al tuo file robots in ogni caso.


  • User Attivo

    Quello che dice Thedarkita è vero e aggiungo questo:
    il fatto che gli script di adsense, analitics, facebook ecc rallentino il sito è vero.
    Quello che invece prenderei con le pinze è che non rendendo spiderizzabile adsense aumenti la velocità rilevata dagli strumenti per i webmaster.

    In primo luogo la velocità misurata da webmaster tools si basa sui dati inviati dalla google toolbar e non sui dati del crawler (vedi qui:http://www.google.com/support/webmasters/bin/answer.py?answer=158541&hl=it)

    In secondo luogo gli spider non eseguono il codice javascript di conseguenza gli annunci adsense non sono indicizzati già di loro.

    In ogni caso la questione di fondo è che comunque i dati sulla velocità li forniscono gli utenti con la loro Google toolbar quindi velocizzando l'accesso dello spider non dovresti vedere aumentare la velocità del tuo sito all'interno dei webmaster tool.


  • User Attivo

    @Thedarkita said:

    Ciao 444523,
    col il file robots puoi impedire l'indicizzazione solo dei file sul tuo dominio, per cui quelli esterni non farebbe riferimento al tuo file robots in ogni caso.

    Hai ragione... ma che tonto che sono.
    😄


  • User Attivo

    @Swalke said:

    Scusa 444523, ma la velocità del sito google la rileva tramite la google toolbar, non tramite l'accesso dello spider.

    Anche questa cosa... non la sapevo.

    Pensavo fosse un "bilanciamento" tra i vari spider... questo aspetto mi è del tutto nuovo...

    Poiché ho un sito, il maggiore, in puro html ed è molto rapido nella risposta, mi sembrava davvero strano che fosse "penalizzato" nella velocità. I valori riportati sul webmaster tool sono "falsati"... credevo fosse un problema degli spider...

    Ok.