• User Attivo

    Problemi con il robots.txt

    Salve!
    Avrei preso spunto da un blog e quindi utilizzato questo robots.txt:

    User-agent: *
    
    Disallow: /wp-
    Disallow: /cgi-bin/
    Disallow: /wp-admin/
    Disallow: /wp-includes/
    Disallow: /wp-content/
    
    Allow: /wp-content/uploads/
    
    Disallow: /trackback/
    Disallow: /feed/
    Disallow: /comments/
    Disallow: */trackback/
    Disallow: */feed/
    Disallow: */comments/
    
    Disallow: /*?*
    Disallow: /*?
    
    Sitemap: miosito/sitemap.xml
    
    • Purtroppo però dal tool di google in suggerimenti html mi ritrovo pagine senza tag title di pagine /wp-content/plugins/etcetc php.

    • Altro problema è che se controllo le pagine indicizzate con la funzione site:// da google search mi ritrovo una marea di pagine con access denied sempre dai plugins.

    • Infine ultimo grandissimo aiuto che mi servirebbe..Ho una quindicina di pagine in "errori di scansione (in tool webmaster di google)" con errore 404 in quanto ho cancellato quelle pagine. Da accesso crawler ho rimosso quei link ma mi segna sempre gli errori in "errori di scansione"

    Spero di non chiedere troppo e che mi possiate aiutare :vai::ciauz: