• User

    indicizzazione e rank non funzionano?

    Ciao ho un sito di circa 5 milioni di pagine, di cui Google, guardando il WMT ne ha indicizzate circa 2 milioni.
    Ho 2 enormi problemi:

    1. quando provo con gli strumenti di ricerca avanzata site:nomesito mi escono "solo" 300000 pagine. La spiegazione che mi sono dato è che le altre sono abbastanza simili e G mostra solo i dati più rilevanti... (quindi circa 300k su 1,9M)
    2. MOZ non vuole saperne di fare il crawling del mio sito: il sit è fuori da circa 1 mese e ancora la mozbar mi dice che la HP ha rilevanza dominio 1 sebbene sia stato già linkato da importanti giornali (sono usciti vari comunicati stampa che linkano a noi).
      Ho provato anche a fare il crawling con Moz Pro ma mi restituisce errore.
      Guardando nel robot.txt ho verificato e non ci sono disabilitazioni allo user agent...

    User-agent: *
    Sitemap:
    Sono abbastanza confuso perché non mi è mai capitato niente del genere in tanti (e inutili a questo punto) anni di SEO. Qualcuno può aiutarmi??


  • Moderatore

    Ciao axoancona, ma il sito che anzianità ha? 1 mese? Considera che la struttura del sito e importante per il crawling. Che cms hai utilizzato inoltre?


  • Moderatore

    Ciao axoancona,

    anch'io la prima cosa chiedo è l'anzianità, come già suggerito da Giorgio Sanna. Lo chiedo perché è tra le cose che influiscono la velocità di scansione. Ora dici vi sono giù 2ML di pagine indicizzate, quindi immagino tanto nuovo non sia.

    Ti faccio un esempio numerico per farti capire il ragionamento.
    Su siti relativamente nuovi, e ancora poco autorevoli agli occhi di Google, è normale questi assegni una velocità di scansione massima di circa 30".
    Facciamo assieme un po' di calcoli: 30" x 5ML di pagine, fanno circa 5 anni per "crawl-are" e indicizzare tutte le pagine del sito.

    Andrei anche a vedere la velocità di risposta del sito, altro fattore che può incidere sul numero di pagine visitate giornalmente da googlebot.
    Puo ovviamente modificare da Search Console (ex GWT) la velocità di scansione, tieni conto che se il sito non è sufficientemente responsivo - intendo in termini di performance - ciò potrebbe essere più un danno che un beneficio.
    Google in generale cerca di impostare velocità di scansione che non rappresentino un onere eccessivo per il server. Non si tratta solo di banda passante: ogni chiamata HTTP "anonima", senza cookie di sessione, può comportare sul web server un'allocazione di memoria anche consistente per gestire una nuova sessione utente.

    Devo anche purtroppo ricordare che l'operatore site: per grossi siti come il tuo per stessa ammissione di dipendenti di Google non è assolutamente affidabile, può sbagliare anche di ordini di grandezza, insomma non è una misura affidabile purtroppo.

    Spero d'esserti stato utile


  • User

    @Giorgio Sanna said:

    Ciao axoancona, ma il sito che anzianità ha? 1 mese? Considera che la struttura del sito e importante per il crawling. Che cms hai utilizzato inoltre?

    Grazie! Si utilissimo. Il sito comunque è molto giovane ma ha le sitemap linkate molto bene. La velocità del crawling sinceramente non l'ho controllata. Di CMS ho usato Django CMS per la parte app. Per la parte sito invece monterò a breve WP perché sono un cane a programmare.

    Non sapevo proprio questa cosa del site: