• User Attivo

    Consiglio robots.txt contenuti duplicati

    In strumenti web master tool ho notato che ho 88 meta descrizioni dupplicate, 22 descrizioni brevi e 52 tag title duplicati... Allora ho creato un robots.txt per bloccare i crawler e eliminare questi contenuti.
    Questo è il robots

    User-agent: *
    Allow: /
    Disallow: /category///page
    Disallow: /category//page
    Disallow: /tag/
    /page
    Disallow: /tag///page
    Disallow: /page
    Disallow: /scripts
    Disallow: /tags
    Disallow: /cgi-bin
    Disallow: /wp-admin
    Disallow: /wp-includes
    Disallow: /wp-content/plugins
    Disallow: /wp-content/cache
    Disallow: /wp-content/themes
    Disallow: /trackback
    Disallow: /feed
    Disallow: /comments
    Disallow: //trackback
    Disallow: /
    /feed
    Disallow: //comments
    Disallow: //
    ?*
    Disallow: //?
    Disallow: //
    .html$
    Disallow: //.ico$
    Disallow: //
    .opml$
    Disallow: //.php$
    Disallow: //
    .shtml$
    Disallow: //.xml$
    Disallow: //
    .php$
    Disallow: //.js$
    Disallow: //
    .inc$
    Disallow: //.css$
    Allow: /
    ?$
    Allow: //wp-content/uploads
    Allow: //index.php
    Allow: sitemap.xml
    Allow: /sitemap.xml
    Allow: /sitemap.gz
    htt p://miosito/sitemap.xml

    Può andar bene?


  • User Attivo

    Ciao all2aller

    Il tuo robots mi sembra giusto, ma per rendere il tuo sito un pò più Seo prendi spunto da questo articolo.
    http:// www. askapache.com/seo/wordpress-robotstxt-seo.html


  • User Attivo

    Ciao scusa ma io non conosco bene l'inglese e anche con la traduzione di google non ho capito a cosa serve questo pezzo di php
    <?php if(is_single() || is_page() || is_home()) { ?>
    <meta name="googlebot" content="index,noarchive,follow,noodp" />
    <meta name="robots" content="all,index,follow" />
    <meta name="msnbot" content="all,index,follow" />
    <?php } else { ?>
    <meta name="googlebot" content="noindex,noarchive,follow,noodp" />
    <meta name="robots" content="noindex,follow" />
    <meta name="msnbot" content="noindex,follow" />
    <?php }?>

    Serve a bloccare l'indicizzazione o l'aggevola?


  • User Attivo

    Serve a bloccare l'indicizzazione di tutto ciò che non è:
    single (articolo songolo)
    page (pagina)
    home (homepage del blog)

    È un roboto tramite meta diciamo.


  • User Attivo

    Quindi utilizzando quel codice non bisogna più usare il robots? Ed elimina tutti i contenuti duplici?


  • User Attivo

    No, il file robots.txt penso vada usato lo stesso, blocca l'indicizzazione di altri file che non hanno magari header.php incluso (file di funzioni, script, login, admin ecc).

    Per quanto riguarda i contenuti duplicati (esempio con doppia categoria), dovresti impostare il canonical. Se ti servi di plugin come All in One SEO Pack, la funzione è già inclusa.


  • User Attivo

    Ok grazie adesso ho capito. 🙂