+ Rispondi alla Discussione
Risultati da 1 a 7 di 7

Come gestire i contenuti duplicati dei multi-store?

Ultimo Messaggio di mauriziocloud il:
  1. #1
    User Newbie
    Data Registrazione
    Jun 2013
    Località
    milano
    Messaggi
    7

    Come gestire i contenuti duplicati dei multi-store?

    Ciao a tutti, ho un problema riguardante i contenuti duplicati nei multi-store, spero mi possiate aiutare.
    So bene che google presta molta attenzione a queste problematiche, quindi non vorrei incorrere in penalizzazioni inutili.

    In pratica il mio cliente ha un eCommerce rivolto a privati ed aziende.
    Essendo anche produttori vogliono espandere il mercato a possibili rivenditori.
    Questo però dovrà essere gestito separatamente installando lo stesso store in un dominio di terzo livello.
    Ovviamente i contenuti saranno gli stessi (categorie, prodotti ecc..), cambierà un pò la grafica e qualche pagina informativa.

    Non è suo interesse indicizzare lo store dei rivenditori, quindi voglio sapere: basterà segnalare a google tramite il file robots.txt che tale sito non dovrà essere indicizzato? O corro comunque dei rischi?

    Come mi consigliate di procedere?

    Confido nelle vostre competenze

  2. #2
    Moderatore L'avatar di Federico Sasso
    Data Registrazione
    Dec 2012
    Località
    Genova
    Messaggi
    1,869
    Segui Federico Sasso su Twitter Aggiungi Federico Sasso su Google+ Aggiungi Federico Sasso su Linkedin
    ciao mauriziocloud,
    Citazione Originariamente Scritto da mauriziocloud Visualizza Messaggio
    basterà segnalare a google tramite il file robots.txt che tale sito non dovrà essere indicizzato? O corro comunque dei rischi?
    Google non "penalizza" (uso le virgolette perché i problemi di contenuti duplicati non sono vere penalizzazioni nel senso stretto) per contenuti duplicati, se non può accedere ai contenuti degli URL e rilevare la duplicazione.

    Se la soluzione di bloccare a livello di robots.txt è accettabile per i tuoi rivenditori (i.e. se non si aspettano d'essere indicizzati), personalmente è la soluzione adotterei.

    Spero d'esserti stato utile
    MODPosizionamento nei motori di ricercaFederico Sasso, autore di Visual SEO Studio - Il tool SEO Italiano, disponibile anche in Inglese, Francese, Polacco, Russo, Spagnolo e Tedesco.

  3. #3
    User Newbie
    Data Registrazione
    Jun 2013
    Località
    milano
    Messaggi
    7
    Infatti non conosco altro modo per segnalare una situazione simile.
    Il fatto che mi confermi che faresti lo stesso mi rassicura.

    Grazie per la risposta

  4. #4
    Moderatore L'avatar di Federico Sasso
    Data Registrazione
    Dec 2012
    Località
    Genova
    Messaggi
    1,869
    Segui Federico Sasso su Twitter Aggiungi Federico Sasso su Google+ Aggiungi Federico Sasso su Linkedin
    Almeno un altro modo ci sarebbe:
    potresti per esempi mettere le pagine del sottodominio a "noindex" con il robots meta tag.

    • Vantaggi:
      saresti sicuro che i contenuti non sono indicizzati anche se hanno degli inbound link che vi puntano (come probabilmente sai, il robots.txt non impedisce l'indicizzazione: se G trova molti link verso a un URL, potrebbe ritenerlo ineressante e indicizzarlo lo stesso, di solito tali URL li si vedono visualizzando nella SERP i "risultati omessi")
    • Svantaggi:
      il crawler potrebbe potrebbe sprecare "craw budget", detto anche "crawl efficiency". Qui ci si può mettere però una pezza sempre con il robots meta tag, usando "noindex, nofollow", così al massimo il crawler spreca una sola chiamata HTTP per la pagina, e poi non segue altri link (dire "segue" è in realtà una semplificazione)

    Ciao
    MODPosizionamento nei motori di ricercaFederico Sasso, autore di Visual SEO Studio - Il tool SEO Italiano, disponibile anche in Inglese, Francese, Polacco, Russo, Spagnolo e Tedesco.

  5. #5
    User Newbie
    Data Registrazione
    Jun 2013
    Località
    milano
    Messaggi
    7
    Infatti era la mia prima strada ma pensavo fosse meno efficace, invece scopro il contrario.
    A questo punto sto pensando di fare entrambe le cose così sono più sicuro

  6. #6
    Moderatore L'avatar di Federico Sasso
    Data Registrazione
    Dec 2012
    Località
    Genova
    Messaggi
    1,869
    Segui Federico Sasso su Twitter Aggiungi Federico Sasso su Google+ Aggiungi Federico Sasso su Linkedin
    se però vuoi che il crawler veda il meta tag, non puoi bloccarlo con il robots.txt
    MODPosizionamento nei motori di ricercaFederico Sasso, autore di Visual SEO Studio - Il tool SEO Italiano, disponibile anche in Inglese, Francese, Polacco, Russo, Spagnolo e Tedesco.

  7. #7
    User Newbie
    Data Registrazione
    Jun 2013
    Località
    milano
    Messaggi
    7
    eh giustamente! vada per il robots.txt allora e vedo un pò che succede...come sempre in questo lavoro bisogna testare!
    Grazie mille

+ Rispondi alla Discussione

Tag per Questa Discussione

^ Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •  
  • Il codice BB è Attivato
  • Le faccine sono Attivato
  • Il codice [IMG] è Attivato
  • Il codice [VIDEO] è Attivato
  • Il codice HTML è Disattivato
  • Trackbacks Attivato
  • Pingback Attivato
  • Refback Attivato

SEO by vBSEO 3.6.0 PL2 ©2011, Crawlability, Inc.