• User

    Cambio di hosting e guadagni adsense dimezzati

    Come da titolo del post, com'é possibile che un semplice cambio hosting mi abbia fatto crollare i guadagni su adsense? Il numero di click si é praticamente dimezzato! Ho controllato con google analytics, e gli accessi unici giornalieri al sito sono identici a prima che cambiassi server.
    I primi giorni credevo fosse una casualità e invece la situazione continua da una settimana..
    Da cosa può dipendere?


  • User

    In effetti sembra strano ma ci sono altri casi di persone che riportano cali nel ctr coincidenti con problematiche relative al server/hosting.

    Nel cambio server il tuo sito è rimasto sempre online?

    Anche poche ore di buio potrebbero provocare problemi nel bot Mediapartners di Google, che inizia ad erogare annunci meno pertinenti ed in alcuni casi annunci di pubblico servizio.
    Hai controllato che gli annunci erogati siano più o meno gli stessi di prima?

    Ovviamente c'è anche la possibilità che si tratti di una coincidenza.


  • User

    Il sito é rimasto offline per 24h dieci giorni fà.
    Si effettivamente gli annunci non sono molto pertinenti come prima, infatti ho tolto qualche link tramite "il filtro degli annunci della concorrenza" ed ho provato con i tag <!- google_ad_section_start -> e <!- google_ad_section_start -> ma con scarsi risultati.
    Quindi la domanda sorge spontanea, come faccio a far ritornare gli annunci come prima? 🙂


  • User

    Credo che l'unica sia aspettare e prima o poi la situazione si normalizzerà.


  • Super User

    Il numero di click è rimasto invariato?

    Hai detto che gli accessi sono gli stessi, ma hai verificato se per caso non ci sono problemi nei tempi d'accesso e caricamento delle pagine?


  • User

    Può anche darsi che dipenda da questo, in particolare quando nel sito ci sono decine di utenti collegati contemporaneamente rallenta un pò.
    Esiste per caso qualche strumento per verificare i tempi di accesso ad una pagina?


  • ModSenior

    Ciao zpeppev e benvenuto nel Forum GT.

    Ti segnalo anche questa vecchia discussione dove avevo trovato dei test USA in cui a server più veloci corrispondevano sempre più entrate:
    http://www.giorgiotave.it/forum/adsense/73186-adsense-su-server-piu-veloce-25-a.html .


  • User

    Grazie per il benvenuto Mr Jinx 😉
    Ora provo a contattare i gestori dell'hosting, chiedendo spiegazioni sui rallentamente del mio sito...
    Grazie di nuovo a tutti!


  • User Attivo

    Ti segnalo questo sito, dove potrai verificare la velocità di caricamento del tuo sito, sperando ti sia utile:
    http://www.iwebtool.com/speed_test
    Ciao!


  • ModSenior

    Ciao zpeppez,

    2 consigli facili facili:

    1. Guardare i tempi di scaricamento delle pagine dal Google Webmaster Tools, in particolare il terzo grafico in rosso.
    2. Usare Firefox e installare Google Page Speed, Firebug e YSlow di Yahoo e testare i caricamenti delle pagine dal tuo browser.

  • User

    Intanto di nuovo grazie a tutti!

    Ho provato il primo tool e i risultati ottenuti sono questi:
    Size: 67.55 KB
    Load Time: 1.72 seconds
    Average Speed per KB: 0.03 seconds

    Mentre dagli strumenti per i webmaster ecco il grafico:

    Tempo trascorso per il download di una pagina (in millisecondi).

    img207.imageshack.us/img207/986/chartr.png

    Che ne dite?


  • ModSenior

    Sei al limite: 1500 è accettabile.
    Tempi inferiori sono migliori e ottimali.


  • Super User

    Per mia esperienza, già a 1000 c'è una forte riduzione delle pagine scansionate.

    Attenzione che nel grafico ci sono picchi di circa 3mila, anche se dovrebbero riferirsi al precedente hosting.

    Se hai un sistema di caching, attivalo.


  • Moderatore

    Già a 1000 una riduzione delle pagine scansionate?

    In base alla mia esperienza ero arrivato a una stima più vicina a quella di mister.jinx, per cui consideravo i 1500 ms accettabili e i 1000 ms una sorta di soglia di sicurezza che sarebbe inutile, o comunque non significativamente utile, abbassare ancora.
    Devo dire però che la questione non mi è affatto chiara e spesso mi chiedo se non varrebbe la pena di sforzarmi di scendere ancora, cosa che comunque avrebbe un costo.

    Attualmente sul mio sito più trafficato trovo questi valori:

    [CENTER] Tempo trascorso per il download di una pagina (in millisecondi)
    Alto
    *** 1.439****** Medio 869 Basso 332***
    [LEFT]
    Di solito li ho sempre considerati tempi validi, però adesso mi viene il dubbio che abbassandoli ancora forse potrei migliorare la frequenza di scansione, anche se a dire il vero non è tanto la scansione che mi lascia spesso insoddisfatto quanto piuttosto l'indicizzazione, nel senso che il bot passa, scansiona, ma molte volte non indicizza.

    Sarebbe interessante conoscere in dettaglio anche altre esperienze da poter confrontare.
    [/LEFT]
    [/CENTER]


  • ModSenior

    Ne ha parlato Cesarino Morellato al Symposium GT di Roma.
    1500 è il tempo "limite".


  • Super User

    Per quanto mi riguarda, quando raggiungo i 1000ms, le pagine scansionate si riducono a circa un terzo.

    La scansione ritorna ai picchi solo con valori di massimo 600ms.

    Il grafico è troppo costante per trattarsi solo di un caso, tant'è che sto appunto per ottimizzare l'ottimizzabile per cercare di limitare le flessioni.

    Poi, magari, esistono delle scale per tipologie di siti e quindi lo spider può "accettare" valori più alti per alcuni e meno per altri.


  • User

    @Karapoto said:

    Per mia esperienza, già a 1000 c'è una forte riduzione delle pagine scansionate.

    Attenzione che nel grafico ci sono picchi di circa 3mila, anche se dovrebbero riferirsi al precedente hosting.

    Se hai un sistema di caching, attivalo.

    Il sito é basato su piattaforma Wordpress, quindi utilizzando un plugin per il caching delle pagine dovrei ridurre i tempi, no?


  • Super User

    Assolutamente si, velocizzerai l'accesso in maniera sensibile.


  • Super User

    Ecco, tanto per rimanere in tema, la velocità di accesso alle pagine è aumentata ed ho quasi raddoppiato le pagine scansionate, arrivando a praticamente il download integrale del sito.

    Il valore era sotto i 600ms che, a questo punto, ritengo ideale quantomeno per la mia tipologia di sito se esiste effettivamente una scala apposita.


  • Moderatore

    Grazie Karapoto: per velocità di accesso alle pagine intendi il valore medio a lato del grafico intitolato Tempo trascorso per il download di una pagina (in millisecondi) nelle Statistiche Scansione di Webmaster Tools?

    Oltre che dalla tipologia del sito, secondo me la frequenza di scansione potrebbe dipendere anche dal peso medio delle pagine scaricate, la velocità del server non corrisponde infatti semplicemente al tempo di download della pagina ma al tempo di download della pagina /peso della pagina, e avrebbe senso che il bot considerasse per esempio accettabili 1000 ms per scaricare una pagina di 200 Kb ma non accettabili per scaricarne una di 10 Kb.

    Nel mio sito che citavo prima, a un tempo medio di download per pagina di 870 ms corrisponde un peso medio per pagina di 19,2 Kb (ricavato dividendo il valore medio a lato del secondo grafico Kilobyte scaricati giornalmente per il valore medio a lato del primo grafico Pagine sottoposte a scansione giornalmente), per una velocità media di download del server stimabile intorno ai 45 ms per Kilobyte (22 Kb/sec).

    In ipotesi, a mio parere il bot potrebbe considerare anche il tempo di download per kilobyte, ricavabile dai valori medi delle statistiche di scansione con la semplice formula: Tempo trascorso per il download di una pagina/(Kilobyte scaricati giornalmente/Pagine sottoposte a scansione giornalmente), anzichè solo il semplice tempo di download per pagina.