• User

    Landing page e duplicazione contenuti

    Ciao a tutti,
    tutte le volte che penso ad un test su diverse landing page vengo poi assalito dal dubbio di rovinare il tutto per via del filtro antiduplicazone di google se il traffico che porto al mio sito è naturale.
    Come venirne fuori? L'unica idea che mi è venuta è d'intervenire sul robot.txt
    Che ne pensate?


  • User Attivo

    La linea guida ufficiale prevede l'utilizzo del** robots.txt o del meta tag noindex** nelle pagine "duplicate".

    Quando si tratta di Landing Page per PPC è una scelta logica che non introduce grossi problemi. Per il traffico organico, la cosa è leggermente diversa.

    Se hai più pagine che rispondono a differenti URL, il rischio è che differenti utenti le "linkino" splittando il page rank sulle varie pagine. Se poi solo una di queste non è noindex, rischi di perdere parte del ranking a causa del test.

    Un soluzione un po' black hat è di utilizzare uno script di cloacking basato su user agent od IP. In questo modo le varie landing page rispondono tutte allo stesso URL, i motori di ricerca vedono sempre la stessa pagina (es. quella di controllo) mentre agli utenti vengono proposte a rotazione le pagine da sottoporre a test.

    La seconda soluzione, peggiore dal punto di vista dell?usabilità e dell?affidabilità dei risultati, è l?utilizzo di uno script Ajax. In pratica la pagina viene aggiornata con i contenuti delle varie landing page sul client invece che sul server, evitando la necessità di usare **lo script di cloacking.

    **Tutto questo IMHO ovviamente.