• User Attivo

    Deviantart, e tecniche spammose

    Qui la notizia:
    http://www.progetto-seo.com/motori-di-ricerca/deviantart-robots-txt-nelle-sue-pagine

    La vostra opinione?

    Ciao


  • Super User

    La domanda che mi pongo è se dopo questa trovata ci perderanno più i seo o molto di più loro...

    Indiscusse le loro ragioni, però tecnicamente avrei fatto tutt'altre scelte, ben più diffuse ed efficaci, tipo il nofollow sui link esterni.


  • Bannato Super User

    @claudioweb said:

    La domanda che mi pongo è se dopo questa trovata ci perderanno più i seo o molto di più loro...

    Indiscusse le loro ragioni, però tecnicamente avrei fatto tutt'altre scelte, ben più diffuse ed efficaci, tipo il nofollow sui link esterni.

    Come ho scritto anche sul mio blog a mio avviso sicuramente i seo.

    Alla luce dei risulati prodotti "dall'ufficiosa Christmas Dance", attraverso la quale c'è stato un chiaro aggiornamento degli algoritmi, sembrerebbe che avere pagine e links off topic, essere linkati da pagine "pulite" ma "sospette" non sortisce più effetti positivi, anzi fuorviare lo spider mi sembra di capire interpretando i miei risultati è penalizzante.
    Non è certo una novità, però il segnale si sta facendo sempre più forte con il passare del tempo.

    Deviantart non credo ci abbia rimesso, anche da un punto di vista etico molte di quelle pagine non facevano altro che discreditare la sua immagine e quindi hanno voluto dare un segnale forte contro lo spam.

    Come dici giustamente te, avrebbero potuto utilizzare altri sistemi... Sarebbe interessante sapere se la scelta di utilizzare robots.txt sia stata casuale oppure per precisa scelta.

    :ciauz:


  • User Attivo

    @Dell'Orto Fabio said:

    Come ho scritto anche sul mio blog a mio avviso sicuramente i seo.

    Alla luce dei risulati prodotti "dall'ufficiosa Christmas Dance", attraverso la quale c'è stato un chiaro aggiornamento degli algoritmi, sembrerebbe che avere pagine e links off topic, essere linkati da pagine "pulite" ma "sospette" non sortisce più effetti positivi, anzi fuorviare lo spider mi sembra di capire interpretando i miei risultati è penalizzante.

    Immagino sarà sempre più di quanto ti
    Non è certo una novità, però il segnale si sta facendo sempre più forte con il passare del tempo.

    Ciao,

    anche se, da quanto vedo, l'aggiornamento in corso non è traumatico è vero che riguarda la valutazione dei backlink: una sorta di richiamo dell'effetto verificatosi circa un anno fa e poi attenuatosi.

    Non mi sembra che vengano colpiti tanto i link "fuori tema", sempre che sia facile individuare un tema con certezza, ma la vecchia concezione di scambio link ("tu butta un link là che io te ne butto uno qua").
    Un link da un sito non a tema ma ritenuto valido rimane un buon link, se però il link appare in un contesto di "scambio link" (in una lista arida, in una pagina con molti link esterni e scarso rapporto testo/link), allora sì che le conseguenze si vedono.

    Questo almeno quanto sto osservando anche se, come spesso accade, in breve tempo potrebbe tornare tutto come prima 🙂


  • User Attivo

    @claudioweb said:

    La domanda che mi pongo è se dopo questa trovata ci perderanno più i seo o molto di più loro...

    Indiscusse le loro ragioni, però tecnicamente avrei fatto tutt'altre scelte, ben più diffuse ed efficaci, tipo il nofollow sui link esterni.
    Scusa, se ho capito bene hanno praticamente inibito l'accesso agli spider di google in modo totale nel loro sito.
    Se è così il sito presto scomparirà da google?


  • Community Manager

    La soluzione ideale era mettere tutti i link esterni con un js 🙂

    Molto molto migliore per loro 🙂


  • Super User

    Mi sa tanto che era stato solo un errore... 🙂

    Mi sembrava una scelta inverosimile... e persino sciocca.

    Un robot.txt che bloccava gli spider utili e lasciava via libera a tutti gli altri inutili... una cosa che non avevo mai visto...

    Se proprio avessero deciso di bloccare i motori, bastava semplicemente mettere un Disallow con asterisco....

    Comunque in questo momento vedo un robots.txt esattamente opposto a quello dell'altro giorno.

    Sarà stata una disattenzione di qualche tecnico.

    Che ha messo lo slash dove non ci voleva, e se l'è dimenticato dove ci voleva :sbonk: