• User

    Robots.txt e file PDF

    Ciao a tutti,
    al fine di ottimizzare al meglio il crawl budget, mi chiedevo se è utile far scansione al crawler i link ai file PDF presenti nelle pagine, come ad esempio questa: soluzionivacanze.com_slash_it_slash_pagine_slash_faq

    il link al file pdf presente in tale pagina è il seguente: soluzionivacanze.com_slash_html_slash_testi_termini_it.pdf

    Da un lato, penso che mettendola in disallow si risparmi crawl budget, dall'altro, temo che la mancata scansione possa far ridurre, agli occhi di google, il valore dell'intera pagina e ciò possa influire negativamente sul posizionamento dell'intero sito.
    Grazie in anticipo per eventuali pareri.
    Daniele


  • Moderatore

    Ciao raffaele80it,
    @raffaele80it said:

    Ciao a tutti,
    al fine di ottimizzare al meglio il crawl budget, mi chiedevo se è utile far scansione al crawler i link ai file PDF presenti nelle pagine, come ad esempio questa: soluzionivacanze.com_slash_it_slash_pagine_slash_faq

    il link al file pdf presente in tale pagina è il seguente: soluzionivacanze.com_slash_html_slash_testi_termini_it.pdf

    Da un lato, penso che mettendola in disallow si risparmi crawl budget, dall'altro, temo che la mancata scansione possa far ridurre, agli occhi di google, il valore dell'intera pagina e ciò possa influire negativamente sul posizionamento dell'intero sito.
    Grazie in anticipo per eventuali pareri.
    Daniele
    A mio parere sono entrambi falsi problemi:

    • Crawl Budget:
      il sito ha indicizzate 209 pagine, bazzeccole per Google. A meno che non sia un sito nuovo di cui il motore di ricerca ha visto solo la punta dell'iceberg, se quello è il numero delle pagine NON hai un problema di crawl budget.
    • Il PDF in questione è un documento di Termini del Servizio; cose che di solito si possono anche mettere tranquillamente in noindex e se non lo si fa di solito è il motore di ricerca che decide di suo di non mostrarlo.

    Non mi darei pena.

    Spero d'esserti stato utile.


  • User

    Utilissimo, grazie mille.
    Almeno adesso so di avere un problema meno.
    A presto 🙂


  • Moderatore

    @Federico Sasso said:

    Ciao raffaele80it,

    A mio parere sono entrambi falsi problemi:

    • Crawl Budget:
      il sito ha indicizzate 209 pagine, bazzeccole per Google. A meno che non sia un sito nuovo di cui il motore di ricerca ha visto solo la punta dell'iceberg, se quello è il numero delle pagine NON hai un problema di crawl budget.
    • Il PDF in questione è un documento di Termini del Servizio; cose che di solito si possono anche mettere tranquillamente in noindex e se non lo si fa di solito è il motore di ricerca che decide di suo di non mostrarlo.

    Non mi darei pena.

    Spero d'esserti stato utile.

    Condivido quanto scritto da Federico.


  • User

    🙂 grazie Sermatica