• User

    File robots.txt e sito e-commerce

    Ciao a tutti,

    In un sito e-commerce vorrei bloccare tutte le pagine non direttamente inerenti il posizionamento, che potrebbero magari generare contenuti duplicati o comunque pagine inutili lato seo, come:

    • pagine del carrello: w w w.nomesito.i t/cart.php
    • pagine di ricerca: w w w.nomesito.i t/search.php
    • pagine di ordini: w w w.nomesito.i t/order.php

    Userei le seguenti voci in robots.txt:

    Disallow: /cart.php (blocca la pagina)
    Disallow: /cart.php$ (blocca tutte le paginine generate dalle variabili successive)

    Vorrei chiedervi se ritenete giusta questa strategia, e se il codice in robots.txt è giusto.

    Grazie a tutti.


  • User Attivo

    Ciao Number Nine,

    questa strategia, per aree completamente inutili o potenzialmente dannose (come le pagine di ricerca che possono generare duplicati) va bene.
    Però mi raccomando, occhio a non esagerare.

    Le corrette istruzioni da inserire nel robots.txt sono:
    User-agent: *
    Disallow: /cart.php*
    Disallow: /search.php*
    Disallow: /order.php*

    Un saluto, 🙂
    Angelo


  • User

    Angelo,

    Grazie per la precisazione e per la correzione del codice.