• Super User

    Prestazioni del sito nuova funzione di google strumenti webmaster

    Credo che l'abbiate notato un pò tutti , nelle funzioni sperimentali di Google strumenti webmaster , c'è da un paio di giorni la voce "prestazioni del sito".
    Funzione molto interessante, solo che mi sono venuti dei dubbi.

    Google considera "lenti" tutti i siti che fanno come tempi di caricamento più di 1,4 sec ( 1400 ms ).

    Ora ho provato a guardare un pò i miei siti controllandoli per bene e...provando a ottimizzarli con la compressione gzip, anche quella php, ho diminutio il "peso" delle immagini ecc.

    Ora esaminando anche i miei siti con webpagetest ( che ritengo affidabile al pari degli strumenti suggeriti dallo stesso Google ) ho notato che una fetta consistente dei tempi di caricamento se li "mangia" proprio AdSense ( e credo che a causa delle reti non google trovo link ...i più strani, tanto che pensavo ad un hackeraggio del sito ).

    La domanda è : sono io un incapace a ottimizzare i siti oppure Google sta dando di testa?

    Tempi da 1,4 di caricamento li fa solo una pagina di testo : ho fatto un paragone con alcuni mie concorrenti "blasonati" e ho notato che sono tutti almeno 7 o 8 volte più lenti di me .
    E io vengo considerato lento per tempi poco più del 70 % del limite per essere definiti "veloci" ( da cui ormai si è capito dipenderà il posizionamento ).

    Poi no vi dico tra i consigli...per ottimizzare!
    Esempio :

    I domini dei seguenti URL offrono solo una risorsa ciascuno. Se possibile, evita le altre ricerche DNS offrendo queste risorse da domini esistenti:

    pagead2 . googlesyndication . com/pagead/show_ads.js
    www . google-analytics . com/ga.js

    Se seguissi il consiglio dovrei togliere Analytics e AdSense?

    Ma il bello viene quando leggo i consigli su :

    Abilita la compressione gzip

    www . google-analytics . com/ga.js(13,6 KB)

    Che faccio a compimenre un file che sta sul loro server?

    Insomma se 1,4 secondi pe ril caricamento è il limite massimo per definire un sito "veloce" e tutto ciò che sta su è "lento" beh...penso che il 99,99 5 dei siti è lento.
    Che ne pensate? Sono un asino io oppure c'è qualcosa che non quadra?

    Ah dimenticavo un sito dove ho tolto analytics e adsense perchè ho intenzione di fare il restyling è rientrato nel range dei siti "veloci". Roba da pazzi.


  • Moderatore

    Ciao bluewebmaster,
    mi sono posto anch'io una serie di domande abbastanza simili sul tema delle prestazioni, in particolare in questo post di un paio di settimane fa, che concludevo appunto con questo interrogativo:
    @gianrudi said:

    Per esempio: che cosa esattamente rientra nel load time di una pagina?
    Se una pagina contiene codice con una chiamata esterna per esempio ad adsense o a gg analytics, il tempo di risposta a tale chiamata, che pure grava sul load time dell'utente (ma non su quello del crawler) va conteggiato oppure no?

    Ora grazie alla funzione sperimentale è arrivata la risposta, per cui evidentemente il tempo dovuto alle chiamate esterne va conteggiato, anche perchè la metodologia di rilevazione è descritta molto chiaramente nel Google Centro Webmaster, e si riferisce all'intera pagina;
    Il tempo di caricamento delle pagine rappresenta il tempo totale trascorso dal momento in cui l'utente fa clic su un link che indirizza alla tua pagina fino al momento in cui l'intera pagina viene caricata e visualizzata in un browser. I dati vengono raccolti direttamente dagli utenti che hanno installato Google Toolbar e hanno attivato la funzione facoltativa PageRank.

    Anch'io ho alcuni siti considerati lenti dalla funzione sperimentale dove la maggior parte del load time dipende dal codice gg, e se pure riducessi a zero il tempo di caricamento del mio codice rimarrebbe comunque lento.

    Comunque si tratta di una funzione appunto sperimentale e probabilmente ci saranno degli aggiustamenti, se no sarebbe davvero paradossale, e anche un po' tafazziano.
    Però mi sembra interessante disporre di una rilevazione del load time direttamente sul campo a partire dai browser in fase operativa, che evidentemente non ha molto a che fare con il tempo di scansione del crawl.


  • Super User

    Si concordo pienamente , solo che ho letto da più parti che nel 2010 questo dovrebbe avere un incidenza "importante" sui posizionamenti in serp.

    Consentimi però un osservazione : è "sperimentale" la funzione che ci è stata data, ma , a mio avviso e salvo miglior parere, la "cosa" è forse già tenuta in conto.

    Faccio questa osservazione perchè avevo già avuto modo di constatare , quest'anno , che in occasione del miglioramento delle prestazioni del server, e quindi della velocità dei siti ospitati, questi avevano ricevuto un miglioramento netto in serp oltre ad essere aumentato notevolmente la quantità di pagine sottoposte a scansione giornaliera e la quantità di Kb scaricata dal crawler.

    Ora credo che il termine "sperimentale" sia rierito unicamnete al fatto che ci viene data la possibilità di visualizzare il parametro che probabilmente userà, se non sta già usando.

    Per il resto sono d'accordo su tutto quello che dici, e questo vale ad organizzarsi anche.
    Penso che saranno molti quelli che cercheranno di ottimizzare al massimo le prestazioni, ricorrendo, ad esempio, a server esterni velocissimi per le sole immagini.
    Ho fatto un pò di verifiche , diciamo, sui miei concorrenti più "blasonati" : risultati pessimi e circa 7 o 8 volte maggiori rispetto ai miei.
    Ma quello che mi colpisce di più è che con la diffusione maggiore di immagini, video, audio, che rendono sicuramente più interessante il web, Google stabilisce un paramentro , a mio giudizio, troppo basso, per definire un "sito lento" superata quella soglia.

    Se quelli sono i criteri che Google usa, o userà, ohi ohi, siamo fritti.
    Anzi siamo tutti lenti.