• User Attivo

    Requisiti per un sistema di statistiche mirato ai SEO

    Eccoci quà,
    la domanda è questa, non è banale come potrebbe sembrare, infatti ognuno di noi ha un suo contatore di statistiche e usa un proprio metodo per sapere cosa succede nei nostri siti e per apportare in seguito a considerazioni sul traffico, le modifiche e le ottimizzazioni alle pagine.

    Insieme ad amici Hoster, ci siamo posti il problema di buttare giù una base di requisiti che un buon sistema di statistiche deve avere per essere adatto ad un uso PRO e per questo chiedo a voi, magari avete delle proposte che non mi sono venute in mente.

    Quindi cominciamo, ditemi cosa vorreste ci fosse in un ottimo sistema di stats.

    :ciauz:


  • Super User

    log dettagliati degli errori 😉


  • User Attivo

    @Rinzi said:

    log dettagliati degli errori 😉

    Bene, ottimo inizio Rinzi.

    :ciauz:


  • Super User

    Per me sarebbe bello avere qualcosa in grado di analizzare in modo parametrico i parametri degli url (chiedo scusa per il gioco di parole).
    Provo a spiegarmi con un esempio: se io sono così schiappa da non saper usare l'url rewrite troverei utile poter analizzare le statistiche riferite a una determinata pagina. Esempio: citta.asp?id=12 dove 12=Palermo e 5=monza. Se io potessi memorizzare 12 per Palermo e 5 per Monza e averee una letture resa più leggibile ... sarei molto contento.

    Ma magari esiste già qualcosa del genere oppure è una cosa che potrebbe servire solo a me. Io la butto lì...


  • User Attivo

    Allora, rendiamo la cosa più semplice basandosi su un sistema che conosciamo.

    Cosa manca a Php stats per essere il miglior programma di statistiche per SEO ?


  • Super User

    @pieru said:

    Per me sarebbe bello avere qualcosa in grado di analizzare in modo parametrico i parametri degli url (chiedo scusa per il gioco di parole).
    Provo a spiegarmi con un esempio: se io sono così schiappa da non saper usare l'url rewrite troverei utile poter analizzare le statistiche riferite a una determinata pagina. Esempio: citta.asp?id=12 dove 12=Palermo e 5=monza. Se io potessi memorizzare 12 per Palermo e 5 per Monza e averee una letture resa più leggibile ... sarei molto contento.

    Ma magari esiste già qualcosa del genere oppure è una cosa che potrebbe servire solo a me. Io la butto lì...

    google analytics lo fa 🙂
    basta che gli mandi un csv con le traduzioni!

    i miei due cent alla discussione:
    un database bello grosso. i sistemi di statistica tendono a DIVORARE spazio su database a ritmi vertiginosi, direi quasi logaritmici se solo sapessi esattamente COSA ho detto 😛

    il sito più grosso che gestisco in ufficio con webtrends fa 1milione di visite al mese, non vi dico che disastro sia il database. per ovvie ragioni le tabelle sono trimmate ad un certo punto, ma capirete anche voi che così facendo, per periodi lunghi, si perdono dati piuttosto significativi. Poi dipende anche da QUANTO siete esigenti (o quanto è esigente chi vi fa la richiesta del dato, ma questa è un'altra storia...)


  • User Attivo

    @Tambu said:

    ...direi quasi logaritmici se solo sapessi esattamente COSA ho detto :P...

    Credo tu intendessi esponenziali... 😄


  • Super User

    @MarcoTuscany said:

    Allora, rendiamo la cosa più semplice basandosi su un sistema che conosciamo.

    Cosa manca a Php stats per essere il miglior programma di statistiche per SEO ?

    1. la definizione di obiettivi come puoi fare con google analytics, e relative statistiche (non è cosa da poco sapere, ad esempio, quale kw di accesso ha maggiori conversioni...)
    2. un codice decente (e in formato unix, non dos!!!!)

  • Super User

    @Salatti.NET said:

    Credo tu intendessi esponenziali... 😄

    appunto 😉


  • Bannato User Attivo

    io uso AWstats. Ho

    • numero visitatori dirversi e numero visite totali
    • statistiche mensilizzate
    • statistiche giornaliere
    • statistiche divise per i sette giorni della settimana
    • statistiche per orario
    • statistiche per dominio (it, de, com, net, ecc)
    • elenco degli hosts da cui arriva la visita
    • elenco degli spider, numero delle loro visite ed ultima data di accesso
    • durate delle visite
    • statistiche dei tipi di file letti (html, php, gif, ecc)
    • statistiche per TUTTE le pagine del sito visitate
    • statistiche dei sistemi operativi adoperati dai visitatori
    • statistiche dei browser adoperati dai visitatori
    • statistiche delle provenienze dei visitatori (google, virgilio, DMOZ, ecc)
    • statistiche degli accessi da BL
    • rapporto delle frasi e delle singole parole tramite le quali il visitatore mi ha trovato
    • rapporto errori dettagliato per numero di volte, pagina con l'errore e provenienza

    Può bastare? 😎


  • Super User

    Il sistema ideale a mio avviso dovrebbe utilizzare i log file del server (à la AWStats) e JavaScript (à la Google Analytics). E poi incrociare questi dati. Buon lavoro. 😉


  • User Attivo

    ma il log degli errori si può avere solo se il servizio di hosting permette l'accesso ai file di log? O si può trovare un espediente con il mod rewrite e l'htaccess? Se si, come credo, per quali tipi di codice errore?
    Questo dovrebbe essere un elenco esaustivo dei [url=http://www.aota.net/Server_Performance/responsecodes.php3]codici di ritorno del server
    :ciauz:


  • Super User

    @centix said:

    ma il log degli errori si può avere solo se il servizio di hosting permette l'accesso ai file di log?
    Sì.
    O si può trovare un espediente con il mod rewrite e l'htaccess?
    Gli errori si possono anche intercettare da .htaccess utilizzando la direttiva [url=http://httpd.apache.org/docs/2.0/mod/core.html#errordocument]ErrorDocument, che dice ad Apache di servire un determinato documento, che può essere anche uno script PHP, per un determinato codice di errore HTTP (lo script potrà poi registrare i dati relativi all'errore in un database, ad esempio, oppure in un log file).


  • User Attivo

    un sistema decente di statistiche deve risiedere al di fuori del server web e deve analizzare i log e non i record di una funzioncina scritta in Js, non siamo parlando di SEM STats ma di Web Site Stats.

    proprio una settimana fa ho fatto installare ad un mio tecnico un cluster di 2 pc per l'elaborazione on-line di statistiche per un sito web di una importante tv privata italiana...il sito web in se non riusciva a fare tutto, mentre il cluster mi garantiva rindondaza,sicurezza ed affidabilità su dati certificati.


  • Super User

    @Stealth said:

    un sistema decente di statistiche deve risiedere al di fuori del server web e deve analizzare i log e non i record di una funzioncina scritta in Js, non siamo parlando di SEM STats ma di Web Site Stats.

    ma la domanda verteva proprio sull'opposto 🙂

    cmq "funzioncina" mi pare parecchio riduttivo... le hai mai guardate? fanno spavento!! i log files sono antidiluviani, perchè il js permette di elaborare parte del dato PRIMA di inviarlo al server di collect, quindi all'analisi.
    ad esempio: il titolo della pagina. un log conserva l'url e il sistema al momento dell'analisi deve O interrogare il database ove risiede l'informazione O fare il retrieve direttamente da internet. Invece col javascript, nel momento in cui viene scritto il title (sia statico o risultato di una query su DB) si ficca in una variabile JS e viene sparato al server di collect, che quando elabora già sa che è un title 🙂


  • User Attivo

    Secondo me un buon sistema di stats, a parte tutte le cose che avete detto che sicuramente son giustissime e premetto che sono per GOOGLE ANALYTICS che secondo me è il migliore, dovrebbe avere la gestione dei cookie per il semplice fatto che mi server per analizzare le campagne e sapere quando un utente torna sul sito.
    principalmente per analizzare il CR% e di conseguenza il ROI sia per le campagne pubblicitare tradizionali che per gli accessi da motore.
    ripeto che tutto questo lo gestisce gia GOOGLE ANALYTICS


  • User Attivo

    dunque,

    • il JS è a discrezione dell'utente/browser quindi una percentuale di utenza (seppur piccola) viene persa;
    • Il Js ed alcune funzioni di PHP/Asp attuano controlli su alcune sezioni dell'header Utente (esempio referrer) il quale può essere smascherato facilmente...Norton utilizza un algoritmo del genere;
    • L'elaborazione dei log può essere immediata con un sistema di calcolo affiancato alla macchina o semplicemente con un software di analisi real-time in background nella stessa macchina "Web";
    • Il sistema log analizza e registra tutto, banda compresa;
    • Hai perfettamente ragione sul retrieval del titolo pagina, ma sicuramente risulta essere più leggere di una gestione centralizzata da DB e ne ho le prove (php-stats per primo)

    riguardo alle "funzioncine" posso afferaralo tranquillamente nonostante esse possono richiedere ore ed ore di lavoro....tu che come me sei di genova hai mai dato un'occhiata ai sorgenti C++ del software gestionale dell'Ansaldo? (quello proprietario intendo) ... 3 volte superiore a quello di WIn.

    Ovviamente le mie sono idee personali, nulla contro nessuno. 🙂


  • Super User

    @jck said:

    Secondo me un buon sistema di stats, a parte tutte le cose che avete detto che sicuramente son giustissime e premetto che sono per GOOGLE ANALYTICS che secondo me è il migliore, dovrebbe avere la gestione dei cookie per il semplice fatto che mi server per analizzare le campagne e sapere quando un utente torna sul sito.
    I cookie traccianti si possono gestire anche lato server. Un sistema di tracking in JavaScript ha però il grosso vantaggio di essere facilmente integrabile su qualsiasi sito, dinamico o statico che sia, e di poter fornire facilmente tutta una serie di informazioni: sia quelle sul documento, citate giustamente da Tambu, sia quelle sul client (dalla risoluzione di schermo utilizzata dall'utente, fino ai click sugli outbound link) che non sono tracciabili lato server. D'altro canto, i due maggiori svantaggi di un sistema di tracking basato esclusivamente su JS sono il fatto che le richieste degli user-agent che non lo supportano (come ad es. gli spider e i browser col supporto JS disabilitato) vengono ignorate completamente, e il fatto che i dati registrati possono essere parziali o non molto precisi. Infatti, nella normale navigazione accade piuttosto spesso di "saltare" da un link all'altro, senza attendere il termine del caricamento di una pagina: queste interruzioni possono causare dei "buchi" nelle statistiche di un sistema che faccia affidamento solo su JS (e chi usa Analytics avrà avuto modo di verificarlo), poiché il codice di tracking viene eseguito solo dopo che il client ha terminato di caricarlo. Al contrario, un sistema basato sull'analisi dei log file è in grado di registrare tutte le richieste, comprese quelle dei bot e quelle parziali. I log permettono anche di misurare con precisione le richieste di file diversi dai documenti HTML, come ad esempio immagini, documenti PDF, file mp3, ecc. Per questo motivo penso che un sistema "ideale" dovrebbe quantomeno integrare il tracking lato-client (basato su JS) con l'analisi dei log file del server.

    @jck said:

    mi server
    :ot: LOL, vedo che non sono il solo a fare questo errore di digitazione (a volte mi scappa anche una "t" finale quando scrivo "interne"). Dicesi deformazione professionale... 💻


  • User Attivo

    quoto ArkaneFactors 🙂


  • User Attivo

    sottolineando l'esigenza SEO, a me piacerebbe avere una tabella semplice seplice che per ogni pagina del sito mi mostri quante volte la pagina:
    è stata mostrata
    è stata quella di entrata al sito
    è stata quella di uscita al sito
    è stata l'unica a essere visitata (quindi di entra e di uscita per stesso IP)

    e sapere quali sono:
    i referrer (e parole chiave) delle pagine di entrara
    la destinazione di quelle di uscita (un pò più complicato)
    i referrer (e parole chiave) di quelle uniche