+ Rispondi alla Discussione
Risultati da 1 a 7 di 7

Come gestire i contenuti duplicati dei multi-store?

Ultimo Messaggio di mauriziocloud il:
  1. #1
    User Newbie
    Data Registrazione
    Jun 2013
    LocalitÓ
    milano
    Messaggi
    7

    Come gestire i contenuti duplicati dei multi-store?

    Ciao a tutti, ho un problema riguardante i contenuti duplicati nei multi-store, spero mi possiate aiutare.
    So bene che google presta molta attenzione a queste problematiche, quindi non vorrei incorrere in penalizzazioni inutili.

    In pratica il mio cliente ha un eCommerce rivolto a privati ed aziende.
    Essendo anche produttori vogliono espandere il mercato a possibili rivenditori.
    Questo per˛ dovrÓ essere gestito separatamente installando lo stesso store in un dominio di terzo livello.
    Ovviamente i contenuti saranno gli stessi (categorie, prodotti ecc..), cambierÓ un p˛ la grafica e qualche pagina informativa.

    Non Ŕ suo interesse indicizzare lo store dei rivenditori, quindi voglio sapere: basterÓ segnalare a google tramite il file robots.txt che tale sito non dovrÓ essere indicizzato? O corro comunque dei rischi?

    Come mi consigliate di procedere?

    Confido nelle vostre competenze

  2. #2
    Moderatore L'avatar di Federico Sasso
    Data Registrazione
    Dec 2012
    LocalitÓ
    Genova
    Messaggi
    1,842
    Segui Federico Sasso su Twitter Aggiungi Federico Sasso su Google+ Aggiungi Federico Sasso su Linkedin
    ciao mauriziocloud,
    Citazione Originariamente Scritto da mauriziocloud Visualizza Messaggio
    basterÓ segnalare a google tramite il file robots.txt che tale sito non dovrÓ essere indicizzato? O corro comunque dei rischi?
    Google non "penalizza" (uso le virgolette perchÚ i problemi di contenuti duplicati non sono vere penalizzazioni nel senso stretto) per contenuti duplicati, se non pu˛ accedere ai contenuti degli URL e rilevare la duplicazione.

    Se la soluzione di bloccare a livello di robots.txt Ŕ accettabile per i tuoi rivenditori (i.e. se non si aspettano d'essere indicizzati), personalmente Ŕ la soluzione adotterei.

    Spero d'esserti stato utile
    MODPosizionamento nei motori di ricercaFederico Sasso, autore di Visual SEO Studio - Il tool SEO Italiano, disponibile anche in Inglese, Francese, Polacco, Russo, Spagnolo e Tedesco.

  3. #3
    User Newbie
    Data Registrazione
    Jun 2013
    LocalitÓ
    milano
    Messaggi
    7
    Infatti non conosco altro modo per segnalare una situazione simile.
    Il fatto che mi confermi che faresti lo stesso mi rassicura.

    Grazie per la risposta

  4. #4
    Moderatore L'avatar di Federico Sasso
    Data Registrazione
    Dec 2012
    LocalitÓ
    Genova
    Messaggi
    1,842
    Segui Federico Sasso su Twitter Aggiungi Federico Sasso su Google+ Aggiungi Federico Sasso su Linkedin
    Almeno un altro modo ci sarebbe:
    potresti per esempi mettere le pagine del sottodominio a "noindex" con il robots meta tag.

    • Vantaggi:
      saresti sicuro che i contenuti non sono indicizzati anche se hanno degli inbound link che vi puntano (come probabilmente sai, il robots.txt non impedisce l'indicizzazione: se G trova molti link verso a un URL, potrebbe ritenerlo ineressante e indicizzarlo lo stesso, di solito tali URL li si vedono visualizzando nella SERP i "risultati omessi")
    • Svantaggi:
      il crawler potrebbe potrebbe sprecare "craw budget", detto anche "crawl efficiency". Qui ci si pu˛ mettere per˛ una pezza sempre con il robots meta tag, usando "noindex, nofollow", cosý al massimo il crawler spreca una sola chiamata HTTP per la pagina, e poi non segue altri link (dire "segue" Ŕ in realtÓ una semplificazione)

    Ciao
    MODPosizionamento nei motori di ricercaFederico Sasso, autore di Visual SEO Studio - Il tool SEO Italiano, disponibile anche in Inglese, Francese, Polacco, Russo, Spagnolo e Tedesco.

  5. #5
    User Newbie
    Data Registrazione
    Jun 2013
    LocalitÓ
    milano
    Messaggi
    7
    Infatti era la mia prima strada ma pensavo fosse meno efficace, invece scopro il contrario.
    A questo punto sto pensando di fare entrambe le cose cosý sono pi¨ sicuro

  6. #6
    Moderatore L'avatar di Federico Sasso
    Data Registrazione
    Dec 2012
    LocalitÓ
    Genova
    Messaggi
    1,842
    Segui Federico Sasso su Twitter Aggiungi Federico Sasso su Google+ Aggiungi Federico Sasso su Linkedin
    se per˛ vuoi che il crawler veda il meta tag, non puoi bloccarlo con il robots.txt
    MODPosizionamento nei motori di ricercaFederico Sasso, autore di Visual SEO Studio - Il tool SEO Italiano, disponibile anche in Inglese, Francese, Polacco, Russo, Spagnolo e Tedesco.

  7. #7
    User Newbie
    Data Registrazione
    Jun 2013
    LocalitÓ
    milano
    Messaggi
    7
    eh giustamente! vada per il robots.txt allora e vedo un p˛ che succede...come sempre in questo lavoro bisogna testare!
    Grazie mille

+ Rispondi alla Discussione

Tag per Questa Discussione

^ Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •  
  • Il codice BB Ŕ Attivato
  • Le faccine sono Attivato
  • Il codice [IMG] Ŕ Attivato
  • Il codice [VIDEO] Ŕ Attivato
  • Il codice HTML Ŕ Disattivato
  • Trackbacks Attivato
  • Pingback Attivato
  • Refback Attivato

SEO by vBSEO 3.6.0 PL2 ©2011, Crawlability, Inc.