• User

    Rimozione url con querystring e robots.txt

    dovrei rimuovere molte pagine che hanno delle querystring relative ad eventi.
    Vi faccio un esempio
    dettaglio-eventi.php?id=1
    dettaglio-eventi.php?id=2
    dettaglio-eventi.php?id=3

    Nel robots è meglio scrivere
    Disallow: dettaglio-eventi.php

    oppure è meglio scrivere

    Disallow: dettaglio-eventi.php?id=*

    Perchè la prima soluzione è comoda nei software che mi creano la sitemap escludendo tutte le pagine dettaglio-eventi.php?id=n.
    Però ho visto che nello strumento di rimozione url di google mi accetta la seconda soluzione altrimenti non procede alla rimozione di tutte le url con querystring.
    Vi ringrazio


  • Community Manager

    Usa sia il GWT che il Robots.txt 😉

    Come hai risolto poi?


  • Moderatore

    Ciao morgue86,
    volevo aggiungere una nota sul robots.txt e darti la risposta per quale codice inserire.

    Parto dal presupposto che la pagina che vuoi bloccare sia nella root "/" del sito e non in una "/cartella/" dello stesso.

    Tu vuoi che vengano bloccate tutte le url con il "?", quindi la formula più corretta è:

    Disallow: /*?
    

    Molto più semplice e occupa meno bit 😄

    Ciao
    Enea


  • User

    Ho risolto mettendo tutte e due le opzioni in cascata.

    Disallow: dettaglio-eventi.php?id=*
    Disallow: dettaglio-eventi.php

    L'ordine sembra non avere importanza.

    Molti software che creano le sitemap non riconoscono * e quindi inseriscono lo stesso gli url però se uso anche la seconda istruzione non lo fanno.