+ Rispondi alla Discussione
Risultati da 1 a 9 di 9

Deindicizzazione sito staging duplicato

Ultimo Messaggio di Sermatica il:
  1. #1
    Fab è offline
    User
    Data Registrazione
    Nov 2006
    Messaggi
    19

    Deindicizzazione sito staging duplicato

    Ciao a tutti,

    ho un sito, https://www.nomesito.com, e mi sono accorto che la versione in staging dello stesso, http://staging.nomesito.com, è stata erroneamente indicizzata. Ho quindi un problema di contenuti duplicati indicizzati, essendo sito ufficiale e sito in staging fondamentalmente identici.

    Per risolvere, ho per ora inserito la direttiva ‘Disallow: /’ in http://staging.nomesito.com/robots.txt e ho aggiunto e validato la proprietà ‘http://staging.nomesito.com’ su Search Console. Ora ho intenzione di visitare la pagina https://www.google.com/webmasters/tools/url-removal, selezionare la proprietà ‘http://staging.nomesito.com’ e richiedere la rimozione dell’intero sottodominio.

    La mia domanda è: mi confermate che così facendo non corro alcun rischio di deindicizzazione del sito ufficiale https://www.nomesito.com? Credo sia così, ma vorrei una conferma, per maggior sicurezza.

    Grazie,
    Fab

  2. #2
    User L'avatar di aledandrea
    Data Registrazione
    Aug 2017
    Località
    Bologna
    Messaggi
    66
    Aggiungi aledandrea su Linkedin
    Ciao,

    Io metterei in noindex l'intero sito di sviluppo, così non devi nemmeno preoccuparti del robots o di agire tramite GSC.

    Se ne hai creato la proprietà, puoi verificare la deindicizzazione direttamente da lì.

    Peraltro è anche la nuova politica adottata da Wordpress, se non ricordo male.

  3. #3
    Fab
    Fab è offline
    User
    Data Registrazione
    Nov 2006
    Messaggi
    19
    Grazie aledandrea, avevo valutato in effetti questa possibilità, che scongiura ogni possibile rischio anche se richiede un po' più tempo per la completa rimozione dalle serp delle pagine dello staging già indicizzate.

    Ciao,
    Fab

  4. #4
    User L'avatar di screzzi
    Data Registrazione
    May 2016
    Località
    Italia
    Messaggi
    11
    Segui screzzi su Twitter Aggiungi screzzi su Linkedin
    Ciao Fab,
    un'altra idea potrebbe essere quella di mettere i canonical del sito in staging verso le pagine del sito in produzione.
    Altrimenti anche l'idea di aledandrea è sicuramente di facile implementazione e dal risultato assicurato.

  5. #5
    Moderatore L'avatar di Sermatica
    Data Registrazione
    Sep 2016
    Località
    Maleo
    Messaggi
    5,024
    Aggiungi Sermatica su Facebook
    Ciao
    io quando faccio copie del sito le metto visibili solo a me abilitando da htaccess solo il mio Ip. Inoltre metto disallow sul robots.txt e metto tutto in noindex. Ti consiglio di fare questo e null'altro, dovrebbe risolversi da solo.
    MODHelp Center: consigli per il tuo progettoMODE-Commerce
    Consulente con P.IVA: SEO / SEM / Google Business / Amazon - Sermatica.it


  6. #6
    User L'avatar di aledandrea
    Data Registrazione
    Aug 2017
    Località
    Bologna
    Messaggi
    66
    Aggiungi aledandrea su Linkedin
    Citazione Originariamente Scritto da Sermatica Visualizza Messaggio
    noltre metto disallow sul robots.txt e metto tutto in noindex.
    Ciao Sermatica,
    Così facendo però il bot non dovrebbe leggere il noindex, perché gli viene bloccata la possibilità di leggere la pagina.
    In settimana in Clickable, fine settimana sugli Appennini ⛰

  7. #7
    Moderatore L'avatar di Sermatica
    Data Registrazione
    Sep 2016
    Località
    Maleo
    Messaggi
    5,024
    Aggiungi Sermatica su Facebook
    Ciao Andrea,
    confermo, infatti è una doppia sicurezza per evitare situazioni spiacevoli come quella sopra.
    MODHelp Center: consigli per il tuo progettoMODE-Commerce
    Consulente con P.IVA: SEO / SEM / Google Business / Amazon - Sermatica.it


  8. #8
    User L'avatar di aledandrea
    Data Registrazione
    Aug 2017
    Località
    Bologna
    Messaggi
    66
    Aggiungi aledandrea su Linkedin
    Citazione Originariamente Scritto da Sermatica Visualizza Messaggio
    Ciao Andrea,
    confermo, infatti è una doppia sicurezza per evitare situazioni spiacevoli come quella sopra.
    Ciao Sermatica, no aspetta non mi sono spiegato (o non ho capito la risposta).

    Intendevo dire che, mettendo in disallow una pagina, Google non potrebbe leggere il noindex e quindi la metterebbe in SERP.

    Questo significa che, se metti in disallow il sito, il noindex viene ignorato perché G non lo può proprio leggere.
    In settimana in Clickable, fine settimana sugli Appennini ⛰

  9. #9
    Moderatore L'avatar di Sermatica
    Data Registrazione
    Sep 2016
    Località
    Maleo
    Messaggi
    5,024
    Aggiungi Sermatica su Facebook
    Ciao ok ora ho capito. Grazie
    MODHelp Center: consigli per il tuo progettoMODE-Commerce
    Consulente con P.IVA: SEO / SEM / Google Business / Amazon - Sermatica.it


+ Rispondi alla Discussione

^ Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •  
  • Il codice BB è Attivato
  • Le faccine sono Attivato
  • Il codice [IMG] è Attivato
  • Il codice [VIDEO] è Attivato
  • Il codice HTML è Disattivato
  • Trackbacks Attivato
  • Pingback Attivato
  • Refback Attivato

SEO by vBSEO 3.6.0 PL2 ©2011, Crawlability, Inc.