• User

    Sito clone (di sviluppo) "scoperto" da google

    Ciao,
    ho fatto un piccolo disastro 😢😮
    ho un sito, ok.
    ho il suo clone, che uso per test, e che è protetto da htaccess/htpasswd.
    il guaio è che ho cancellato l'htaccess per un test e poi ho dimenticato di riattivarlo e ce ne siamo accorti dopo 1 mese :lol:

    ora google ha in serp anche il sito clone, anche se mal indicizzato, saranno arrivati 16 click in 30 giorni. ho fatto richiesta attraverso il webmastertool di rimuoverlo.

    secondo voi rischio penalizzazioni sul sito "vero"?
    considerate che il sito ufficiale è online da anni, questo clone da un mese :quote::quote::quote::quote: non mi preoccupa il fatto dei contenuti duplicati (suppongo google sia sufficientemente intelligente da capire che il vero sito è l'altro) ma non vorrei che la cosa venisse scambiata per un tentativo di creare un circuito di siti-satellite o cose del genere.

    grazie! 😊


  • User Attivo

    Ciao lorna_j,
    non credo che rischi penalizzazioni se ripristini la protezione di htaccess/htpasswd, ma penso che occorrerà far passare del tempo per permettere a Google di rimuovere quelle pagine dalla cache.
    Secondo me hai fatto bene a richiedere la rimozione nel GWT.

    Ciao.


  • User Attivo

    @lorna_j said:

    Ciao,
    ho fatto un piccolo disastro 😢😮
    ho un sito, ok.
    ho il suo clone, che uso per test, e che è protetto da htaccess/htpasswd.
    il guaio è che ho cancellato l'htaccess per un test e poi ho dimenticato di

    Il clone è sullo stesso server/ip? Potrebbe essere un piccolo problema aggiuntivo... ad ogni modo si dovrebbe risolvere tutto rapidamente dopo la rimozione e reintroduzione della password.

    Anch'io ho un clone dove sto testando il datatabase, ma c'è un noindex per tutto il sito e in effetti non c'è una sola pagina nelle serp di Google, anche se, oltretutto, è su un server/ip diverso e in questo caso penalizzerebbe pesantemente solo il clone...


  • User

    @444523 said:

    Il clone è sullo stesso server/ip? Potrebbe essere un piccolo problema aggiuntivo... ad ogni modo si dovrebbe risolvere tutto rapidamente dopo la rimozione e reintroduzione della password.

    Anch'io ho un clone dove sto testando il datatabase, ma c'è un noindex per tutto il sito e in effetti non c'è una sola pagina nelle serp di Google, anche se, oltretutto, è su un server/ip diverso e in questo caso penalizzerebbe pesantemente solo il clone...
    si esatto è stesso server.
    la rimozione dal gwt me l'hanno approvata in meno di 24 ore, infatti ora non lo vedo piu in serp.
    va be ormai è andata.. del resto non credo che possa fare altro.


  • User

    Per sicurezza io metterei nel robots
    User-agent: *
    Disallow: /nome_cartella_del_sito_clone/

    Così intanto avverti google e gli altri MDR di non indicizzare il sito clone, poi puoi aggiungere anche il noindex all'interno delle pagine, tanto per star sicuri 😄


  • User

    @a-petrucci said:

    Per sicurezza io metterei nel robots
    User-agent: *
    Disallow: /nome_cartella_del_sito_clone/

    Così intanto avverti google e gli altri MDR di non indicizzare il sito clone, poi puoi aggiungere anche il noindex all'interno delle pagine, tanto per star sicuri 😄
    ma se è protetto da htaccess il robots non puo leggerlo.. 😞


  • User

    Certo che può leggerlo, il robots.txt di cui ti parlo io è quello che sta alla radice del server.

    Avrai sicuramente una situazione di questo tipo:
    website .com/ <- Sito web principale
    website .com /test <- seconda piattaforma di test
    In questo caso nel robots.txt dovrai mettere:

    User-agent: **
    Disallow: /test/
    *
    L'htaccess non interviene perchè limita l'accesso alla cartella /test/ non alla root del server
    😉


  • User

    @a-petrucci said:

    Certo che può leggerlo, il robots.txt di cui ti parlo io è quello che sta alla radice del server.

    Avrai sicuramente una situazione di questo tipo:
    website .com/ <- Sito web principale
    website .com /test <- seconda piattaforma di test
    In questo caso nel robots.txt dovrai mettere:

    User-agent: **
    Disallow: /test/
    *
    L'htaccess non interviene perchè limita l'accesso alla cartella /test/ non alla root del server
    😉

    no, il guaio è che si tratta di un altro sito... non è una sottocartella, è un altro dominio, per questo ho paura che google scambi per un tentativo di siti-satellite o cose del genere 😞


  • User

    bè poco male, nessun guaio, con l'htaccess neghi l'accesso direttamente dalla root giusto?

    Per stare più sicura potresti comunque aggiungere il file robots.txt così se dimentichi di nuovo di ripristinare l'.htaccess google non indicizzerà i contenuti (o almeno non dovrebbe 😉 )
    ovviamente il file sarà:

    **User-agent: ***
    Disallow: /