• User Attivo

    redirect 301 o 302? Agoago ha detto...

    Mi è successo di vedere molte pagine di un sito che gestisco prive di descrizione nelle serp di Google (http://www.google.it/search?hs=g9G&hl=it&client=firefox-a&rls=org.mozilla%3Ait%3Aofficial&q=site%3Awww.opendotcom.it&btnG=Cerca&meta=)

    A questo corrisponde anche una penalizzazione nelle posizioni in serp per parole chiave. Vorrei sapere da voi esperti a cosa può essere dovuto.

    Io credo che abbia a che fare con questa discussione del mitico Agoago:
    http://www.giorgiotave.it/forum/viewtopic.php?t=9108 G e redirect.

    Come suggerisce Agoago ho modificato i miei 301 in 302 ma non vedo risultati. Potete consigliarmi come fare per tornare alla situazione precedente all'aggiornamento di Google?

    Grazie


  • Super User

    Quindi un tempo le stesse pagine comparivano nelle serp con tanto di snippet di testo (o meta description)?

    Cordialmente,
    Stuart


  • User Attivo

    esattamente. sono due settimane che mi trovo in questa situazione. ho modificato l'.htacces togliendo tutti i 301 e all'interno delle pagine vecchie ho trasformato il 301 in 302 in questo modo:

    <?
    Header( "HTTP/1.1 302 Moved Temporary" );
    Header( "Location: http://www.dominio.it/nuova-cartella/" );
    ?>

    Come posso riavere le mie descrizioni?


  • Super User

    Due considerazioni.

    La prima è che la comparsa del solo Url in luogo del classico format URL+ Snippet + Copia cache, è classica delle pagine indicizzate da pochissimo. In pratica Google ti dice che ha registrato l'URL delle tue pagine, ma non ha ancora proceduto ad un'indicizzazione vera e propria.
    Primo hint: attendi con pazienza.

    Seconda considerazione è che il redirect 302 fa proprio ciò che dice: sposta TEMPORANEAMENTE l'attenzione degli spider da una data pagina (ancora esistente, ma in fase di restyling, con problemi di accesso ecc ecc..) ad un'altra che ne fa temporaneamente le veci.

    Hai citato Agoago, che è un fiero teorico del fatto che a Google non piaccia sprecare risorse per un sito, e che frazioni le risorse (accessi, indicizzazione) destinate ad un sito in base al suo valore.
    Non sono proprio d'accordo, ma spiegherebbe perchè le tue pagine non sono ancora state indicizzate correttamente: Google le vede come temporanee.

    Provo a formulare un'ipotesi sensata: con il redirect 302 hai detto a Google (e anche ad altri mdr, sia chiaro), che la pagina A.html è temporaneamente non disponibile, e che al momento disponi però di B.html che ha gli stessi contenuti.
    Google ti ha risposto memorizzando l'url della pagina B.html, ma resta comunque in attesa del 'ritorno' della pagina A.html, che lui vede come contenuto originale.

    Se vuoi tornare ad avere gli snippet, o togli qualsiasi tipo di redirect, o trasformi le redirect 302 (temporanee) in 301 (definitive), in modo che Google dimentichi presto la pagina A.html e si concentri sulla pagina B.html

    In ogni caso, attenderei ancora un po' per vedere se la situazione si risolve da sola (del resto hai detto che questo fenomeno ha due settimane, non 2 mesi)

    My opinions...

    Cordialmente,
    Stuart


  • User Attivo

    Grazie per le risposte che mi stai dando, sono molto precise.

    Agoago però suggerisce di non usare il 301 perchè è pericoloso.


  • Super User

    Le pagine che ora compaiono solo con l'Url sono ok.

    Sei hai piena fiducia nelle sue considerazioni (non vedo perchè non dovresti, del resto), la cosa più saggia che puoi fare è attendere pazientemente ulteriori passaggi di Googlebot e vedere se quelle pagine nuove vengono indicizzate correttamente 🙂

    Cordialmente,
    Stuart


  • User Attivo

    Grazie mille sei stato prezioso.


  • User Attivo

    @sole said:

    Come suggerisce Agoago ho modificato i miei 301 in 302 ma non vedo risultati. Potete consigliarmi come fare per tornare alla situazione precedente all'aggiornamento di Google?

    Grazie

    Sole non vorrei averti tratto in confusione, ma fai attenzione, dico nel post che:

    "Il 301 andrebbe usato, di norma, nel caso un sito cambi nome di dominio, o una dir ed il suo contenuto sia stata posta su una nuova url, idem per una pagina.
    Ma si parla di spostare. Contenuti identici, nuova locazione."

    Tu hai detto ai motori che url come:

    www.opendotcom.it/php/privacy/?PHPSESSID=e32eabf168fbc452eea311e116a7feb2

    dovevano diventare via 301:

    http://www.opendotcom.it/privacy/

    Questo e' perfetto, stesso sito stesso contenuto, pertanto ok per il 301 in base alla massima: "Contenuti identici, nuova locazione"


    Ora entriamo nel dunque, hai usato giustamente il 301 e non ha funzionato, hai usato il 302 e per adesso sei in attesa di risultati, di fatto il tuo cruccio sono le url in serp senza descrizione.

    Ma nel tuo caso non e' questione di 301 o 302, ma di contenuto. Le tue pagine riportate senza descrizione sono file pdf comuni ad altri siti, o pagine con contenuto identico al sito ragionieri.xyz

    Pertanto tutto regolare, G leva il superfluo e per lui i tuoi contenuti duplicati sono supeflui.

    Tuttavia abbiamo anche un altro problema.

    http://www.google.com/search?sourceid=navclient&ie=UTF-8&rls=GGLG,GGLG:2005-36,GGLG:en&q="che+provvederà%2C+tra+l'altro%2C+anche+alla+redazione+del+Documento"

    aveva descrizione, mentre:

    http://www.opendotcom.it/privacy/

    invece non ce l'ha.

    Questo perche' G considera la tua pagina http://www.opendotcom.it/privacy/ non utile, in barba a 301 o 302 vari.

    Dice: la vecchia dinamica l'avevo scartata (vedi Risultati supplementari), questa nuova, un redirect dalla vecchia, che senso ha considerarla ora se non consideravo prima la "vecchia"?

    Pertanto nel tuo caso tutto bene, G ti ha preso le pagine originali ed ha accantonato le pagine fotocopia-inutili. Sia vecchie che nuove via redirect.


    Nessun sito dovrebbe apparire su G con pagine senza descrizione o archiviate da G nei suoi Risultati supplementari.

    G e' uno strumento incredibile se usato bene.
    G non ti frega (in questi casi) ma ti illumina.

    Ci dice, attenzione: hai pagine inutili o utili ma fotocopie.

    Pertanto le pagine inutili o fotocopie devono essere cambiate in termini di contenuti, subito!

    Piuttosto cancellale, dove puoi...


    Inoltre ora con:

    http://www.opendotcom.it/robots.txt

    hai vietato l'accesso a tutti i motori, ed inoltre da un header check risulta che il tuo robots.txt:

    Last-Modified => Fri, 02 Dec 2005 08:30:26 GMT

    Pertanto o hai volutamente modificato il date del robots o sono 4 mesi che vieti ai motori qualsiasi accesso.

    Praticamente tutte le tue pagine presentano una media di 150 link in uscita, duretta fare i calcoli per i bot....

    Riassumendo, leva il robots sbagliato, limita molto i link in uscita per ogni pagina, evita redirect con htaccess e lascia le ottime vecchie dinamiche ad una varibile (evita di usare la stessa variabile per piu' pagine, ora ne hai anche 5 diverse con lo stesso numero di ID) leva od inibisci tramite robots le pagine fotocopia.


    Stuart scrive:

    "Hai citato Agoago, che è un fiero teorico del fatto che a Google non piaccia sprecare risorse per un sito, e che frazioni le risorse (accessi, indicizzazione) destinate ad un sito in base al suo valore. "

    Per amor di verita' la teoria di un preciso rapporto tra "valore di un sito - facilita' da parte di uno spider di conoscere e valorizzare le pagine a seconda di come sono "messi" i link- numero e velocita' di indicizzazione" e' di Key.

    La condivido in pieno, ma e' tutta roba sua. Tanto di cappello a Key, dice una marea di cose incomprensibili, ma quando fa centro fa male....

    Per quanto riguarda il rapporto tra valore di un sito e la sua resa (parliamo della resa prodotta dal sito in base agli accessi provenienti dai motori di ricerca a seconda delle key, pertanto un accesso per una key redditizia potrebbe valere come 100 accessi per una key di poca o nessuna resa) mi assumo ogni colpa e responsabilita'.

    Ne sono convinto in modo assoluto, ma e' una convinzione tutta mia, pertanto nulla di piu' facile che mi sbagli e che dica una sciocchezza madornale.

    Sposare una teoria come questa (per G e M) significa per un wm rivoluzionare il proprio modo di lavorare, violentarsi pubblicamente, giocarsi ai dadi i prossimi anni di potenziali incassi.

    Il problema per me oggi non e' piu' pormi dubbi se abbia ragione o meno, perche' a torto o a ragione sono illuso-convinto di aver ragione, ma il problema e' come cercare di forzare il valore di un sito, senza spendere troppe risorse rispetto la potenziale resa.

    Sono convinto (sempre nel bene o nel male) che backlink spontanei e a tema, contenuti originali e che "bloccano" gli utenti sugli stessi, anzianita' di un sito calcolato in base ai primi contenuti pubblicati ed ai primi link ricevuti dal sito determino in parte il valore del sito stesso.

    Posso creare contenuti originali in modo artificiale, ma non posso condizionare gli utenti a soffermarsi a lungo sulle pagine di questi contenuti pacco.

    Posso comprare vecchi domini scaduti ma poi se cambio owner e tipo-tema-genere di contenuti e' come se partissi da 0...

    Posso lincare un sito da altri miei siti ma dovrei farlo lentamente, in tema (sito con sito) ed avendo web server, dns server, owner, ecc ecc diversi per ogni sito.


    Insomma non e' facile.

    Ma per me e' importante aver capito il concetto che mentre prima gli accessi-resa erano dati dalla somma del valore di tutte le pagine di un sito ora invece sono dati dal valore del sito e poi ripartiti di conseguenza tra le sue varie pagine e le sue key forti.

    Ma si scende non si sale, dalla punta della piramide verso la base, mentre prima la base definiva forma e consistenza della futura piramide.


  • User Attivo

    Wow! Mi sento un privilegiato. Grazie Agoago per la risposta completa che mi hai dato. Sei stato molto d'aiuto.

    Relativamente al file robot 😮 😮 😮 😮 grazie per la segnalazione. Ancora non so spiegarmi perchè fosse pubblicato quello comunque ho ripristinato l'originale. :ciauz:

    Ancora grazie mille.