• User Newbie

    Come gestire i contenuti duplicati dei multi-store?

    Ciao a tutti, ho un problema riguardante i contenuti duplicati nei multi-store, spero mi possiate aiutare.
    So bene che google presta molta attenzione a queste problematiche, quindi non vorrei incorrere in penalizzazioni inutili.

    In pratica il mio cliente ha un eCommerce rivolto a privati ed aziende.
    Essendo anche produttori vogliono espandere il mercato a possibili rivenditori.
    Questo però dovrà essere gestito separatamente installando lo stesso store in un dominio di terzo livello.
    Ovviamente i contenuti saranno gli stessi (categorie, prodotti ecc..), cambierà un pò la grafica e qualche pagina informativa.

    Non è suo interesse indicizzare lo store dei rivenditori, quindi voglio sapere: basterà segnalare a google tramite il file robots.txt che tale sito non dovrà essere indicizzato? O corro comunque dei rischi?

    Come mi consigliate di procedere?

    Confido nelle vostre competenze :wink3:


  • Moderatore

    ciao mauriziocloud,
    @mauriziocloud said:

    basterà segnalare a google tramite il file robots.txt che tale sito non dovrà essere indicizzato? O corro comunque dei rischi?
    Google non "penalizza" (uso le virgolette perché i problemi di contenuti duplicati non sono vere penalizzazioni nel senso stretto) per contenuti duplicati, se non può accedere ai contenuti degli URL e rilevare la duplicazione.

    Se la soluzione di bloccare a livello di robots.txt è accettabile per i tuoi rivenditori (i.e. se non si aspettano d'essere indicizzati), personalmente è la soluzione adotterei.

    Spero d'esserti stato utile


  • User Newbie

    Infatti non conosco altro modo per segnalare una situazione simile.
    Il fatto che mi confermi che faresti lo stesso mi rassicura.

    Grazie per la risposta 😉


  • Moderatore

    Almeno un altro modo ci sarebbe:
    potresti per esempi mettere le pagine del sottodominio a "noindex" con il robots meta tag.

    • Vantaggi:
      saresti sicuro che i contenuti non sono indicizzati anche se hanno degli inbound link che vi puntano (come probabilmente sai, il robots.txt non impedisce l'indicizzazione: se G trova molti link verso a un URL, potrebbe ritenerlo ineressante e indicizzarlo lo stesso, di solito tali URL li si vedono visualizzando nella SERP i "risultati omessi")
    • Svantaggi:
      il crawler potrebbe potrebbe sprecare "craw budget", detto anche "crawl efficiency". Qui ci si può mettere però una pezza sempre con il robots meta tag, usando "noindex, nofollow", così al massimo il crawler spreca una sola chiamata HTTP per la pagina, e poi non segue altri link (dire "segue" è in realtà una semplificazione)

    Ciao


  • User Newbie

    Infatti era la mia prima strada ma pensavo fosse meno efficace, invece scopro il contrario.
    A questo punto sto pensando di fare entrambe le cose così sono più sicuro 😉


  • Moderatore

    se però vuoi che il crawler veda il meta tag, non puoi bloccarlo con il robots.txt 🙂


  • User Newbie

    :bigsmile: eh giustamente! vada per il robots.txt allora e vedo un pò che succede...come sempre in questo lavoro bisogna testare!
    Grazie mille 🙂