- Home
- Categorie
- Coding e Sistemistica
- WordPress
- Consiglio robots.txt contenuti duplicati
-
Consiglio robots.txt contenuti duplicati
In strumenti web master tool ho notato che ho 88 meta descrizioni dupplicate, 22 descrizioni brevi e 52 tag title duplicati... Allora ho creato un robots.txt per bloccare i crawler e eliminare questi contenuti.
Questo è il robotsUser-agent: *
Allow: /
Disallow: /category///page
Disallow: /category//page
Disallow: /tag//page
Disallow: /tag///page
Disallow: /page
Disallow: /scripts
Disallow: /tags
Disallow: /cgi-bin
Disallow: /wp-admin
Disallow: /wp-includes
Disallow: /wp-content/plugins
Disallow: /wp-content/cache
Disallow: /wp-content/themes
Disallow: /trackback
Disallow: /feed
Disallow: /comments
Disallow: //trackback
Disallow: //feed
Disallow: //comments
Disallow: //?*
Disallow: //?
Disallow: //.html$
Disallow: //.ico$
Disallow: //.opml$
Disallow: //.php$
Disallow: //.shtml$
Disallow: //.xml$
Disallow: //.php$
Disallow: //.js$
Disallow: //.inc$
Disallow: //.css$
Allow: /?$
Allow: //wp-content/uploads
Allow: //index.php
Allow: sitemap.xml
Allow: /sitemap.xml
Allow: /sitemap.gz
htt p://miosito/sitemap.xmlPuò andar bene?
-
Ciao all2aller
Il tuo robots mi sembra giusto, ma per rendere il tuo sito un pò più Seo prendi spunto da questo articolo.
http:// www. askapache.com/seo/wordpress-robotstxt-seo.html
-
Ciao scusa ma io non conosco bene l'inglese e anche con la traduzione di google non ho capito a cosa serve questo pezzo di php
<?php if(is_single() || is_page() || is_home()) { ?>
<meta name="googlebot" content="index,noarchive,follow,noodp" />
<meta name="robots" content="all,index,follow" />
<meta name="msnbot" content="all,index,follow" />
<?php } else { ?>
<meta name="googlebot" content="noindex,noarchive,follow,noodp" />
<meta name="robots" content="noindex,follow" />
<meta name="msnbot" content="noindex,follow" />
<?php }?>Serve a bloccare l'indicizzazione o l'aggevola?
-
Serve a bloccare l'indicizzazione di tutto ciò che non è:
single (articolo songolo)
page (pagina)
home (homepage del blog)È un roboto tramite meta diciamo.
-
Quindi utilizzando quel codice non bisogna più usare il robots? Ed elimina tutti i contenuti duplici?
-
No, il file robots.txt penso vada usato lo stesso, blocca l'indicizzazione di altri file che non hanno magari header.php incluso (file di funzioni, script, login, admin ecc).
Per quanto riguarda i contenuti duplicati (esempio con doppia categoria), dovresti impostare il canonical. Se ti servi di plugin come All in One SEO Pack, la funzione è già inclusa.
-
Ok grazie adesso ho capito.