+ Rispondi alla Discussione
Risultati da 1 a 21 di 21

Gestione errori 404 dopo eliminazione tag e categorie

Ultimo Messaggio di Daniwebmaster il:
  1. #1
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212

    Gestione errori 404 dopo eliminazione tag e categorie

    Buongiorno a tutti, dopo aver fatto un po' di pulizia di tag e categorie inutili (circa 800 voci) mi sono ritrovato con una comunicazione da google riguardo un forte aumento di errori 404. Non ho provveduto a fare redirect perchÚ sapevo che link a tag e categorie non ne avevo in nessun sito quindi mi son detto: eliminiamo e via! Ho fatto la mia bella pulizia ed ora tutto Ŕ pi¨ ordinato, per˛ avendo google indicizzato quasi tutte le url ora mi da questo aumento di 404 credo riferendosi unicamente alle sue stesse pagine. Ho inviato una nuova sitemap e cancellato tutte le precedenti, google sta indicizzando correttamente le nuove url ma dopo circa 20 giorni il grafico degli errori 404 non cala.. come mai? Non dovrebbe calare man mano che google elimina le url non pi¨ esistenti dal suo indice?

    Vedo che nell'area webmaster di google sotto al grafico con gli errori 404 c'Ŕ una spunta "segna come corretti", faccio bene se li spunto tutti e li segno come corretti?

    Grazie in anticipo!!!
    Daniele
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

  2. #2
    User
    Data Registrazione
    Nov 2011
    LocalitÓ
    Codogno
    Messaggi
    144
    Potresti impostare dei redirect 301 alle sezioni pi¨ simili. Non maldarli tutti in home altrimenti rischi il "soft redirect" che Ŕ penalizzante. L'altra possibilitÓ Ŕ di escludere quelle url con il file robot.txt.
    Ultima modifica di Grifter72; 14-12-18 alle 10:26

  3. #3
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212
    Citazione Originariamente Scritto da Grifter72 Visualizza Messaggio
    Potresti impostare dei redirect 301 alle sezioni pi¨ simili. Non maldarli tutti in home altrimenti rischi il "soft redirect" che Ŕ penalizzante. L'altra possibilitÓ Ŕ di escludere quelle url con il file robot.txt.
    Grazie Grifter, opterei per la seconda opzione in quanto le sezioni simili sono centinaia.. Per "escludere quelle url" intendi bloccare la scansione su di esse con un codice tipo quello di questo articolo?
    softwareparadiso.it/web_e_pc/file_robots.html

    Oppure il codice da utilizzare Ŕ un altro? In tal caso saresti cosý gentile da postarmi un esempio? Grazie 1000
    Ultima modifica di Daniwebmaster; 14-12-18 alle 17:49
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

  4. #4
    User
    Data Registrazione
    Nov 2011
    LocalitÓ
    Codogno
    Messaggi
    144
    Quello va bene. Una volta che lo hai fatto, puoi cancellare gli errori dal GWT. Se lo fai prima, poi ti si riformano.

  5. #5
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212
    Quindi, non essendo cartelle ma url vado gi¨ in questa forma per 800 volte:

    Disallow: /incontri-potenza-basilicata/
    Disallow: /faq-siti-di-incontri/
    Disallow: /tag/chat-donne/
    Disallow: /tag/chat-ragazze/

    DopodichÚ vado nel GWT e spunto "segna come corretti".. ok?

    Ma google non dovrebbe accorgersi prima o poi anche da solo che queste url sono state rimosse?

    Grazie ancora Grifter, gentilissimo!
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

  6. #6
    User
    Data Registrazione
    Nov 2011
    LocalitÓ
    Codogno
    Messaggi
    144
    Ok

  7. #7
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212
    Citazione Originariamente Scritto da Grifter72 Visualizza Messaggio
    Ok
    Ciao Grifter72, ho fatto come mi hai consigliato, ho infilato nel robots.txt oltre un migliaio di url che non esistono pi¨ ma che google continua a "contestarmi".. Secondo te tra qualche mese potr˛ riportare il robots.txt in condizioni originali? Considerato che queste url non sono riprese da altri siti/motori ed ho giÓ provveduto all'invio di una nuova sitemap?

    Grazieeeeeeeeeee
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

  8. #8
    User
    Data Registrazione
    Nov 2011
    LocalitÓ
    Codogno
    Messaggi
    144
    Ogni tanto mi saltano fuori errori di url che ho cancellato anche pi¨ di 10 anni fa. Ho un "versus.php3" dinamico che mi perseguita. O te ne freghi e le lasci sul GWT o le ridirezioni come ti ho gia scritto. Se le togli con il file robots.txt Ŕ possibile che poi, quando smetti di bloccarle, ricompaiano.

  9. #9
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212
    Citazione Originariamente Scritto da Grifter72 Visualizza Messaggio
    Ogni tanto mi saltano fuori errori di url che ho cancellato anche pi¨ di 10 anni fa. Ho un "versus.php3" dinamico che mi perseguita. O te ne freghi e le lasci sul GWT o le ridirezioni come ti ho gia scritto. Se le togli con il file robots.txt Ŕ possibile che poi, quando smetti di bloccarle, ricompaiano.
    OK grazie.. allora lasciamole a tempo indeterminato sul file robot.. riguardo il fregarmene lo fare volentieri ma temo che un migliaio di 404 siano sufficienti a compromettere la DA di un sito..
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

  10. #10
    Utente Premium L'avatar di altraSoluzione
    Data Registrazione
    Jun 2017
    LocalitÓ
    Roma
    Messaggi
    457
    Segui altraSoluzione su Twitter Aggiungi altraSoluzione su Facebook Aggiungi altraSoluzione su Linkedin Visita il canale Youtube di altraSoluzione
    Puoi anche generare un errore 410 (Gone) per le pagine rimosse. In questo modo Google "imparerÓ" che le hai volutamente rimosse e che non esistono pi¨.

  11. #11
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212
    Citazione Originariamente Scritto da altraSoluzione Visualizza Messaggio
    Puoi anche generare un errore 410 (Gone) per le pagine rimosse. In questo modo Google "imparerÓ" che le hai volutamente rimosse e che non esistono pi¨.
    Grazie, Interessante soluzione, posso farlo sempre da file robots.txt o comunque in modo pratico? Essendo oltre 1000 url star li a creare cose tipo redirect per ogni url sarebbe un'impresa titanica..
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

  12. #12
    Utente Premium L'avatar di altraSoluzione
    Data Registrazione
    Jun 2017
    LocalitÓ
    Roma
    Messaggi
    457
    Segui altraSoluzione su Twitter Aggiungi altraSoluzione su Facebook Aggiungi altraSoluzione su Linkedin Visita il canale Youtube di altraSoluzione
    Citazione Originariamente Scritto da Daniwebmaster Visualizza Messaggio
    Grazie, Interessante soluzione, posso farlo sempre da file robots.txt o comunque in modo pratico? Essendo oltre 1000 url star li a creare cose tipo redirect per ogni url sarebbe un'impresa titanica..
    Puoi farlo con .htaccess:
    Codice:
    Redirect 410 /percorso/pagina/rimossa
    Oppure, se usi Joomla, c'Ŕ l'apposito componente Redirect.

  13. #13
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212
    Citazione Originariamente Scritto da altraSoluzione Visualizza Messaggio
    Puoi farlo con .htaccess:
    Codice:
    Redirect 410 /percorso/pagina/rimossa
    Oppure, se usi Joomla, c'Ŕ l'apposito componente Redirect.
    Quindi nell'htaccess invece di..

    Disallow: /incontri-potenza-basilicata/
    Disallow: /faq-siti-di-incontri/
    Disallow: /tag/chat-donne/
    Disallow: /tag/chat-ragazze/
    ecc..

    Devo mettere..

    Redirect 410 /incontri-potenza-basilicata/
    Redirect 410 /faq-siti-di-incontri/
    Redirect 410 /tag/chat-donne/
    Redirect 410 /tag/chat-ragazze/
    ecc..

    Giusto? Senza i due punti dopo 410.. Potrebbe essere un'ottima soluzione anche per Grifter visto che anche a lui ogni tanto rispuntano..

    Grazie!
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

  14. #14
    User
    Data Registrazione
    Nov 2011
    LocalitÓ
    Codogno
    Messaggi
    144
    L'ho giÓ provata ma tornano. Il mio problema per˛ Ŕ che quelle url sono linkate da altri siti. Per te potrebbe funzionare.

  15. #15
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212
    Citazione Originariamente Scritto da Grifter72 Visualizza Messaggio
    L'ho giÓ provata ma tornano. Il mio problema per˛ Ŕ che quelle url sono linkate da altri siti. Per te potrebbe funzionare.
    Esatto, fortunatamente linkate da altri siti avevo solo un paio di url e contattando i proprietari dei siti linkanti sono riuscito a farmeli sostituire. Qualora non ci fossi riuscito avrei pensato a creare dei redirect con qualche plugin, in modo di dirottare i click a pagine funzionanti.. potrebbe essere una soluzione.
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

  16. #16
    Utente Premium L'avatar di altraSoluzione
    Data Registrazione
    Jun 2017
    LocalitÓ
    Roma
    Messaggi
    457
    Segui altraSoluzione su Twitter Aggiungi altraSoluzione su Facebook Aggiungi altraSoluzione su Linkedin Visita il canale Youtube di altraSoluzione
    No, attenzione che stai confondendo robots.txt con .htaccess
    Il primo contiene le direttive per i motori di ricerca il secondo, invece, contiene le direttive per Apache.

    I redirect 410 devi metterli nel .htaccess ma se non sai come fare lascia perdere perchÚ rischi di bloccare il sito.


    Citazione Originariamente Scritto da Daniwebmaster Visualizza Messaggio
    Quindi nell'htaccess invece di..

    Disallow: /incontri-potenza-basilicata/
    Disallow: /faq-siti-di-incontri/
    Disallow: /tag/chat-donne/
    Disallow: /tag/chat-ragazze/
    ecc..

    Devo mettere..

    Redirect 410 /incontri-potenza-basilicata/
    Redirect 410 /faq-siti-di-incontri/
    Redirect 410 /tag/chat-donne/
    Redirect 410 /tag/chat-ragazze/
    ecc..

    Giusto? Senza i due punti dopo 410.. Potrebbe essere un'ottima soluzione anche per Grifter visto che anche a lui ogni tanto rispuntano..

    Grazie!

  17. #17
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212
    Citazione Originariamente Scritto da altraSoluzione Visualizza Messaggio
    No, attenzione che stai confondendo robots.txt con .htaccess
    Il primo contiene le direttive per i motori di ricerca il secondo, invece, contiene le direttive per Apache.

    I redirect 410 devi metterli nel .htaccess ma se non sai come fare lascia perdere perchÚ rischi di bloccare il sito.
    No tranquillo, so lavorare con entrambi Ŕ solo che ho fatto confusione (ogni tanto mi capita).. Quindi ok, il redirect 410 va nel file .htaccess ed il disallow nel file robots.txt.. chiarissimo.. e se usassi entrambi i metodi?
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

  18. #18
    Utente Premium L'avatar di altraSoluzione
    Data Registrazione
    Jun 2017
    LocalitÓ
    Roma
    Messaggi
    457
    Segui altraSoluzione su Twitter Aggiungi altraSoluzione su Facebook Aggiungi altraSoluzione su Linkedin Visita il canale Youtube di altraSoluzione
    Citazione Originariamente Scritto da Daniwebmaster Visualizza Messaggio
    No tranquillo, so lavorare con entrambi Ŕ solo che ho fatto confusione (ogni tanto mi capita).. Quindi ok, il redirect 410 va nel file .htaccess ed il disallow nel file robots.txt.. chiarissimo.. e se usassi entrambi i metodi?
    Hanno due scopi diversi.
    Se metti il Disallow, Google non leggerÓ la pagina, di conseguenza non "prenderÓ visione" del redirect 410.
    Quindi, o l'uno o l'altro

  19. #19
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212
    Citazione Originariamente Scritto da altraSoluzione Visualizza Messaggio
    Hanno due scopi diversi.
    Se metti il Disallow, Google non leggerÓ la pagina, di conseguenza non "prenderÓ visione" del redirect 410.
    Quindi, o l'uno o l'altro
    Giusta considerazione, quindi, nel mio caso sarebbe meglio fare imparare una volta per tutte a google che queste pagine non esistono pi¨ utilizzando il redirect 410..
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

  20. #20
    Moderatore L'avatar di Criss
    Data Registrazione
    May 2006
    LocalitÓ
    Rimini
    Messaggi
    454
    Ciao a tutti,
    facciamo un attimo di chiarezza

    Mettere le url in disallow nel robots.txt ha un impatto pressochŔ nullo per il tuo scopo in quanto quelle url son giÓ archiviate e come ti diceva giustamente altrasoluzione inibisci anzi la possibilitÓ al motore di vedere il destino al quale decidi di sottoporle.
    Quello che puoi fare Ŕ dare le direttive all'htaccess a seconda dell'utilitÓ delle url.
    L'url Ŕ linkata dall'esterno da fonte utile? 301 a nuova pagina
    L'url Ŕ linkata dall'esterno da fonte NON utile? 410
    L'url non Ŕ linkata dall'esterno ed Ŕ inutile? 410
    L'url non Ŕ linkata dall'esterno ma in qualche modo fa traffico utile? 301 a pagina attualmente online con contenuto similare migliorativo.
    Da search console invece puoi rimuovere temporaneamente le url per accelerare il processo di eliminazione dagli indici con 410, mentre per eliminare gli errori segnalati devi per forza di cose cancellare gli errori, in modo tale che al prossimo passaggio dello spider potranno ricrearsi gli eventuali "successivi".
    Spero sia tutto chiaro
    Buone Feste

  21. #21
    User
    Data Registrazione
    May 2018
    LocalitÓ
    Chioggia
    Messaggi
    212
    OK Criss, grazie per il tuo intervento di puntualizzazione, nel mio caso quindi, dovendo comunicare a google la definitiva eliminazione di url inutili opter˛ per un redirect 410 nel file .htaccess. Spero in questo modo che google, dopo aver spuntato come corrette le url in questione nella GWT capisca e non continui a rinfacciarmele come la peperonata.. Grazie ancora e tanti auguri di Buon Natale e felice 2019 a tutti!!!
    Qual'Ŕ la ragnatela dove tutti aspettano il ragno?

+ Rispondi alla Discussione

^ Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •  
  • Il codice BB Ŕ Attivato
  • Le faccine sono Attivato
  • Il codice [IMG] Ŕ Attivato
  • Il codice [VIDEO] Ŕ Attivato
  • Il codice HTML Ŕ Disattivato
  • Trackbacks Attivato
  • Pingback Attivato
  • Refback Attivato

SEO by vBSEO 3.6.0 PL2 ©2011, Crawlability, Inc.