• User

    Il mio sito sta muorendo

    Ciao ragazzi spero di trovare un aiuto da parte vostra perché non so più cosa pensare.

    Il problema è che il numero delle pagine indicizzate del mio sito ogni giorno diminuisce sempre di più.
    In pochi mesi sono passato da più di 600 pagine a poco più di 50 😞

    In particolare non vengono indicizzate le pagine del forum e la pagina delle News.

    La pagina delle news è molto importante perché è una pagina dinamica in asp che ne sviluppa altre 1000.
    I link prodotti da questa pagina hanno tutti i Meta Tag Description e Key
    diversi e il tag title cambia sempre.
    In più hanno dei link statici nella pagina relativa alla mappa del sito.

    Fino a qualche giorno fà utilizzavo google site maps ma ho deciso di togliere dalla directory del sito sia il file roobot che il sitemap.xml

    Dimenticavo di dire che il problema è sia su google e msn.

    Sperò di non aver sbagliato sezione e che possiate aiutarmi. Se volete dare un occhiata al sito è quello in firma.


  • Super User

    @Roland said:

    Il mio sito sta muorendo
    Guarda...
    per puro e semplice scrupolo, dimenticati per un attimo del comando** site:**

    Fai un test veloce veloce.

    *Prendi una porzione di testo da una pagina che secondo te non è più indicizzata, e copiala nel campo di ricerca di Google.
    *
    Vedi se esce tra i risultati.....
    Let us know...

    Cordialmente,
    Stuart


  • User

    Prima di tutto grazie per essere intervenuto.

    Ho eseguito il test che mi hai suggerito e questo è il risultato.

    Alcune pagine relative alle news non compaiono utilizando il comando site ma compaiono effettuando ricerche mirate.

    Altre pagine non compaiono più sia utilizzando il comando site che effettuando ricerche mirate.


  • Super User

    Hai confermato, in parte, una mia bislacca teoria (una delle tante), ossia che il comando site: non sia più attendibilissimo come una volta. 🙂

    Un altro consiglio, oltre a quello di ripristinare la sitemap (perchè l'hai tolta? ti dava errore con il robots.txt?), è di verificare, sempre con una ricerca mirata , la presenza di altre pagine su altri datacenter.

    Usa questo tool (ti permette la ricerca simultanea su diversi DC)
    http://www.mcdar.net/dance/index.php

    Secondo me (sottolineato per evidenziare la personalissima e opinabilissima interpretazione) il comando site: non restituisce tutte le pagine realmente in archivio, e quelle in archivio sono suddivise in diversi datacenter.

    Cordialmente,
    Stuart


  • User

    @Stuart said:

    Hai confermato, in parte, una mia bislacca teoria (una delle tante), ossia che il comando site: non sia più attendibilissimo come una volta. 🙂

    Sono d'accordo con te

    @Stuart said:

    Un altro consiglio, oltre a quello di ripristinare la sitemap (perchè l'hai tolta? ti dava errore con il robots.txt?), è di verificare, sempre con una ricerca mirata , la presenza di altre pagine su altri datacenter.

    L'ho tolta perchè pensavo causasse problemi, visto che il problema è iniziato quando l'avevo inserita

    Grazie per i consigli


  • User Attivo

    sto monitorando 4 siti, come pagine indicizzate è da anni che sono stabili .. (solo pagine in più naturalmente) ...
    in questi giorni ho visto un calo delle pagine indicizzate di oltre il 50 % ..

    come ho sentito da qualcuno mi sa che google stia attuando qualche rimescolamento...

    dubito che si tratti di un filtro antiduplicazione così sensibile, anche perchè i siti di cui parlo hanno contenuto orginale e unico, e niente è ripetuto.

    p.s. mi sembrava che dopo il colpo del Bigdaddy google si sarebbe fermato, invece ancora ci sono una decina di datacenter "completamente" diversi, con risultati "completamente" diversi. Che stanno facendo secondo voi??? Normali test che hanno sempre fatto? O ci si accinge a qualcos'altro?


  • Bannato User Attivo

    @Stuart said:

    Guarda...
    per puro e semplice scrupolo, dimenticati per un attimo del comando** site:**

    Fai un test veloce veloce.

    *Prendi una porzione di testo da una pagina che secondo te non è più indicizzata, e copiala nel campo di ricerca di Google.
    *
    Vedi se esce tra i risultati.....
    Let us know...

    Cordialmente,
    Stuart

    sei veramente una miniera di sapere seo!
    grazie per la dritta 😮


  • Super User

    @Stuart said:

    Hai confermato, in parte, una mia bislacca teoria (una delle tante), ossia che il comando site: non sia più attendibilissimo come una volta. 🙂

    Cordialmente,
    Stuart

    Grazie Stuart: sono settimane (mesi) che ho anche io questa sensazione ma essendo una schiappa attendevo una conferma più autorevole.
    Ho eseguito il test che hai suggerito e ho molte conferme positive.


  • User Attivo

    Mia personale opinione:
    non importa quante pagine hai in cache, conta il numero di accessi.

    Devi tenere sott'occhio quelli.. Perchè se ti rimangono 10 pagine in cache ma fai 100.000 unici in più, che ti frega?

    Ci sono siti con 4-500 mila pagine in cache ma che fanno 50 unici..

    Gli accessi quindi come vanno ?


  • User

    @uMoR said:

    Mia personale opinione:
    non importa quante pagine hai in cache, conta il numero di accessi.

    Devi tenere sott'occhio quelli.. Perchè se ti rimangono 10 pagine in cache ma fai 100.000 unici in più, che ti frega?

    Ci sono siti con 4-500 mila pagine in cache ma che fanno 50 unici..

    Gli accessi quindi come vanno ?

    Sono passato da una media di 85 visitatori unici ad una media di 70.

    La perdità è dovuta essenzialmente alla mancanza di 3 o 4 pagine fondamentali che non essendo più indicizzate mi hanno fatto perdere un pò di visitatori.

    Scusate, potete indicarmi come faccio a capire quando passa lo spider per indicizzare il mio sito ? esistono tool freeware ?


  • Super User

    @Roland said:

    Scusate, potete indicarmi come faccio a capire quando passa lo spider per indicizzare il mio sito ? esistono tool freeware ?
    Esistono gli analizzatori di traffico (o Web Stat)
    Personalmente uso AwStats ( http://awstats.sourceforge.net/ )

    Non è il migliore, ma il suo sporco lavoro lo fa a dovere 🙂

    ps: anche con un PM (private message) puoi dirmi quali sono le 3 o 4 pagine che secondo te non sono più indicizzate? Vedo se posso darti una mano.

    Cordialmente,
    Stuart


  • User Newbie

    Prova ad utilizzare il programma Google Sitemaps. Questo programma nasce per aiutare i webmaster a rendere le loro pagine più facile da trovare per il proprio spider.

    Il programma Google Sitemaps è particolarmente inportante se hai sito con moltissime pagine ed informazioni che tu vuoi rendere disponibile per Google.