• User Attivo

    404 penalizza molto? in tutti i casi?

    Salve a tutti,
    ho sfasciato e ricostruito un sito.

    Ci sono delle vecchie cose indicizzate, non solo file html ma anche pdf e swf.

    il sito è attualmente ben indicizzato.

    io ho:

    generato la nuova sitemap.xml
    ottimizzato le nuove pagine e inviato a google.

    per gli altri files indicizzati cosa mi conviene fare?

    ovviamente redirect javascript sono impossibili per i pdf e gli swf.

    pensavo ad un urlrewrite che rimanda alla home, ma la mia paura è che venga valutato come se il contenuto della home fosse copiato in tante pagine.

    oppure faccio semplicemente un robots.txt con gli indirizzi delle pagine da non indicizzare più e una volta "de"indicizzate le elimino?

    grazie :vaiii:


  • User Attivo

    Un robots in questo caso non ti serve a niente perchè le pagine sono già dentro.
    Un semplice 404 con un link statico alla home è sufficiente. La risora non trovata sputerà fuori il tuo 404 personalizzato ed eviterai problemi di ogni tipo.

    Al massimo, per le pagine o file più ricercato di frequente (e questo le vedi dalle tue statistiche) crei un 301 che ti rimanda alla nuova risorsa e fai ancora più bella figura sia verso l'utente che verso il motore.


  • User Attivo

    @moroandrea said:

    Un robots in questo caso non ti serve a niente perchè le pagine sono già dentro.
    Un semplice 404 con un link statico alla home è sufficiente. La risora non trovata sputerà fuori il tuo 404 personalizzato ed eviterai problemi di ogni tipo.

    Al massimo, per le pagine o file più ricercato di frequente (e questo le vedi dalle tue statistiche) crei un 301 che ti rimanda alla nuova risorsa e fai ancora più bella figura sia verso l'utente che verso il motore.

    Quindi anche il 404 che dà il server in automatico quando elimino i file può andar bene? non corro nessun rischio?