Ciao a tutti,

mi auguro di aver inserito la mia domanda nel punto giusto del forum

mi sto occupando di un sito web nato nel settembre del 2013 da un CMS realizzato su misura, senza URL REWRITE, in pratica tutti i link del tipo /pippo.php?id=1&name=nome_prodotto&cat=nome_categor ia ecc.... prima di eseguire l'URL REWRITE il sito conta circa 80.000 pagine (molti doppioni dovuti ad impostazioni di visualizzazione tramite passaggio di querystring sull'url)

a fine febbraio 2015 faccio una URL REWRITE completa, tramite modifica dei link delle pagine ed implementazione del file .HTACCESS
ho inoltre inserito il CANONICAL perchè sul sito c'erano molte pagine "doppione" a causa delle modalità di visualizzazione dei prodotti (per griglia, in linea, 20 per pagina, 40 per pagina ecc...).
Dopo di che uso screaming frog e xenu per verificare che tutto fosse stato fatto correttamente, e produco una sitemap che contiene complessivamente 4400 pagine circa (grazie al rewrite ed inserendo con screaming frog solo i canonical)

per circa 20 giorni registro dei picchi di scansione di Googlebot che sembra scansionare tutte le vecchie pagine (80.000) anche in un solo giorno, poi si allinea sulla scansione media di 2000 pagine al giorno, sebbene sulla sitemap siano 4400... attualmente sul webmaster tools vedo che sono indicizzate 3100 pagine su 4400...

Le vecchie pagine, tramite l'HTACCESS, erano state riportate alla index tramite un 404. Poi ho modificato usando il 301, ma il 404 c'è stato per almeno 1 mesetto...

La cosa che vorrei domandare è: posso subire penalizzazioni agendo in questo modo? lo chiedo perchè è vero che il sito web è relativamente giovane, e il settore è piuttosto incentivato (enoteca online), ma i risultati sono molto scarsi e il pagerank tuttora me lo da NULLO...

mi auguro possiate darmi una mano, grazie a tutti!