• User Attivo

    Sito semi-penalizzato

    Ciao a tutti,
    sono mesi che mi sto scervellando per togliere una semi-penalizzazione al mio blog personale. Premessa: sono conscio che è un sito umoristico e quindi non può pretendere chissachè ma almeno togliere la penalizzazione, che fa andare avanti nelle serp chi cita i miei post anche linkandoli..
    Nell'ultimo anno ho via via corretto gli errori (anche dietro suggerimenti di agenzia seo famosa in Italia) e a ottobre sembrava finalmente risolto il problema. Intanto la scheda:

    Dominio:
    magnaromagna.it
    **
    Motori**:
    Google
    **
    Prima indicizzazione o attività**:
    2001
    **
    Cambiamenti effettuati**:
    dopo l'uscita dalla semipenalizzazione (seoblog.giorgiotave.it/index.php/down-del-tuo-sito-fai-attenzione/ ) a fine settembre, la sezione cartoline è stata modificata in questo senso: le sottosezioni sono rimaste, ma anzichè avere 1/4 pagine per sottosezione ora ogni immagine ha la sua pagina (da /cartoline/caricature/pagina2.php con diverse immagini alle singole /cartoline/caricature/tremonti-social-card.html )

    Eventi legati ai link:
    non faccio scambi links. Ho inserito la possibilità di prelevare il codice con link a certe pagine per essere inserite in blog e forum. Il numero di backlink da GWT è calato negli ultimi mesi dopo essere salito.
    **
    Sito realizzato con**:
    php, wordpress

    Note importanti:
    da metà ottobre fino a metà novembre vi sono state delle pagine di spam sul forum interno (ora chiuso). Mea culpa, non mi ero accorto che avevano messo una decina di link a siti di viagra ecc. Rimossi il 12 novembre, sezione rimossa anche tramite GWT
    a fine ottobre sono stato sotto attacco DOS: 3 giorni di continui down :arrabbiato:
    a inizio novembre, dopo aver risolto l'attacco, ho aggiornato wordpress e non mi ero accorto che il plugin dei tags non funzionava con la nuova versione. Risolto dopo che i tags (che erano ben posizionati) non hanno funzionato per almeno 3-4 giorni :rollo:

    A parte continuare a sistemare eventuali errori 404 risultanti da GWT ed eliminare parti che possano essere scambiate per tenativi di keyword stuffing non so cosa altro fare... :bho:


  • User Attivo

    mah, mi aspettavo qualche aiuto...
    Comunque volevo aggiungere un'informazione, non so se sia utile: nella lista dei redirect 301 in htaccess fatta per reindirizzare le vecchie pagine indicizzate alle nuove dopo piattaforma di cambio CMS (avvenuta oltre 1 anno fa) mi sono accorto che nella prima riga l'istruzione è del tipo
    [L,R=301]
    questo vuol dire che le (tante) righe successive non sono state prese in considerazione?
    :mmm:


  • ModSenior

    Ciao robaldo,

    con il Convegno GT ci ha assorbito un pò tutti per cui era abbastanza facile immaginarsi qualche giorno di delay nelle risposte.

    Per quanto riguarda gli attacchi hacker ho visto un caso analogo a quanto dici e portato una case history al Convegno GT. In pratica Google, una volta ripuliti i template, ti fa rientrare in SERP molto velocemente.

    Vero è però nel tuo caso che hai avuto più volte questo problema per cui una traccia, o un redflag (a mio avviso) da qualche Google se lo tiene. Inoltre ricollegandomi al vecchio thread sono da considerare anche i 3 giorni di down.

    Riguardo alle pagine delle cartoline come quella che hai indicato per Tremonti e pagine simili mi sembra che il problema sia riconducibile a:

    • mancanza di contenuto specifico (leggi: testo). A parte l'immagine e il title c'è poco altro. Invece a mio avviso c'è un effetto "boilerplate" sul layout grafico e sul disclaimer.
    • mancanza di backlink forti sulle sotto pagine

    Potresti cortesemente indicare qualche parola chiave specifica per la quale vedi la semipenalizzazione ancora attiva recentemente?


  • User Attivo

    Grazie per la risposta (ho prenotato i video del convegno 😉 ).

    Per quanto riguarda la sezione cartoline:

    • ho letto della tua traduzione del brevetto boilerplate, se non ho capito male in sostanza dovrei ridurre il disclaimer o meglio confinarlo in altra sezione
    • dovrei togliere dei link dal menù o comunque sfoltirlo?
    • mancanza di testo: vero. Se non trovo un modo per modificare lo script cosa conviene fare? Tornare al vecchio sistema (pagine fatte manualmente)? Ma sarebbe l'ennesima modifica al sito che poi google deve digerire... e le vecchie pagine hanno già redirect verso le nuove..
    • ecco qualche chiave: test (notare i suggerimenti di google in fondo), video divertenti (questa era posizionata con i tags), curiosità.

    Grazie!

    p.s. Gli errori dal GWT sono scesi a 160: molti di questi sono già corretti, altri sono da blog amatoriali esterni: devo correggere via htaccess anche questi? ad esempio in molti blog ci sono robe del tipo ```
    a href="miosito/sezione/pagina1/"Guarda quiii bla bla</a>


  • ModSenior

    Ciao robaldo,

    sono boilerplate i pezzi di pagine ripetuti su molte pagine di un sito web a fondo pagina. Se invece le pagine sono troppo simili tra loro o presentano un'elevata percentuale di parti identiche allora è un problema non solo di boilerplate anche di near duplicates.

    La differenza tra le due cose comunque porta a una sola conclusione: aumentare i contenuti e diversificare le pagine.

    Riguardo all'inserimento del tuo sito nel cluster "test" di Google tra le risorse correlate anche di questo ho parlato al Convegno GT (sembra una coincidenza ma è stato il mio primo intervento).

    Puoi approfondire al riguardo guardando questi risultati qua:
    google.it/search?q=site%3Amagnaromagna.it+intext%3A"test"
    google.it/search?hl=it&q=site%3Amagnaromagna.it+inurl%3A"test"
    google.it/search?hl=it&q=site%3Amagnaromagna.it+inanchor%3A"test"

    Se ripeti le stesse ricerche con video divertenti vedrai risultati sensibilmente diversi (meno pagine).

    N.B.: nelle URL sopra dove vedi degli spazi vuoti uniscili.


  • User Attivo

    Ok, grazie della spiegazione,
    quindi pagine in cui cambia "solo" titolo immagine e tag alt di quell'immagine possono sembrare simili agli occhi di google. Nel caso non riesca ad aggiungere testo personalizzato (lo script crea la pagina in base alla singola immagine, aggiungendo il nome dell'immagine nel title e nel tag alt dell'immagine) secondo te è meglio togliere dal title la parte comune a tutte le pagine di foto (esempio foto curiose) oppure è meglio tornare all'antico, con le pagine fatte manualmente? (ma questo comporterebbe togliere i vari redirect 301, ovvero un nuovo cambiamento del sito)
    :bho:

    Ho trovato il modo di aggiungere una descrizione aggiuntiva ad ogni pagina (quindi non solo titolo e alt della foto). Una descrizione di 150 caratteri - specifica per ogni pagina - può bastare? :mmm:


  • User Attivo

    Nessun cambiamento, a parte il numero di link secondo GWT (calati). Un dubbio: mettere il redirect 301 alle molte pagine errate provenienti da link esterni sbagliati porta a un calo di questi backlinks?

    E' anche vero che non sono ancora riuscito a differenziare tutte le pagine della sezione interna che può sembrare che abbia pagine troppo simili tra loro.
    Qualche suggerimento?


  • User Attivo

    Ho il sospetto che il problema sia dovuto principalmente a due motivi:

    1. la sezione /cartoline , che rifacendola ha creato una pagina per ogni immagine, ma questa è povera di contenuti. Sto aggiungendo le descrizioni ad ogni singola pagina
    2. alcuni post (presentazioni di video o di giochi) hanno un testo breve, a differenza di altre pagine.

    Chi di voi ne capisce saprebbe dirmi se è così, se può essere una penalizzazioni da contenuti poveri o duplicati? Grazie


  • User Attivo

    Ciao Robaldo, si' secondo me dipende proprio da quello. E Mister.Jinx ti ha spiegato bene un problema tipico di molti siti che ha colpito il tuo sito.

    Guardando ai contenuti, unico vero motivo della tua penalizzazione, vedo che su circa 5000 pagine hai....

    a) circa 1500 pagine con contenuto scarso o inesistente nella cartella cartoline
    http://www.google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Fcartoline%2F

    b) circa 500 con contenuto originale inesistente in:
    http://www.google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Ftag%2F

    c) circa 200 pagine duplicate in
    http://www.google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Fbarzellette%2F

    d) aggiungici i post con poco contenuto di cui parlavi tu...

    significa che il 50% delle pagine del tuo sito e' fatto con contenuti duplicati e/o troppo ridotti... ovvero una penalizzazione prima o dopo ti doveva arrivare.

    Buon lavoro 🙂
    Enrico


  • User Attivo

    Intanto grazie della risposta. Quello che vorrei capire
    @madri said:

    a) circa 1500 pagine con contenuto scarso o inesistente nella cartella cartoline
    google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Fcartoline%2F
    Aggiungere una descrizione di circa 160 caratteri (sia nella pagina, sia nel tag description) ad ogni immagine (che è una url singola) può aiutare?
    @madri said:
    b) circa 500 con contenuto originale inesistente in:
    google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Ftag%2F
    Quindi i tag (tra l'altro pensati per gli utenti) sono deleteri? Anche se hanno (da pochissimo tempo) descrizioni differenziate? E quindi come si risolve, escludendo i tag dall'indicizzazione?
    @madri said:
    c) circa 200 pagine duplicate in
    google.it/search?num=100&hl=it&q=site%3Amagnaromagna.it%2Fbarzellette%2F
    non capisco, eppure sono tutte pagine diverse tra loro, sia nei contenuti, sia (almeno in parte) nei tag title e description :mmm:

    Grazie dei suggerimenti!


  • User

    Ciao robaldo, due siti giovani che curo hanno avuto un'impennata nel giro di 48 ore grazie a delle modifiche che ho apportato.

    • Ho eliminato tutti i tag.
    • Ho eliminato la ripetizione di parole nel titolo della pagina.

    Credo fossero stati colpiti da sovraottimizzazione delle pagine.


  • User Attivo

    @robaldo said:

    Intanto grazie della risposta. Quello che vorrei capire

    Aggiungere una descrizione di circa 160 caratteri (sia nella pagina, sia nel tag description) ad ogni immagine (che è una url singola) può aiutare?

    Quindi i tag (tra l'altro pensati per gli utenti) sono deleteri? Anche se hanno (da pochissimo tempo) descrizioni differenziate? E quindi come si risolve, escludendo i tag dall'indicizzazione?

    non capisco, eppure sono tutte pagine diverse tra loro, sia nei contenuti, sia (almeno in parte) nei tag title e description :mmm:

    Grazie dei suggerimenti!

    1. non mi limiterei a title e description, metterei almeno 3 o 4 righe di contenuto nel testo e/o eliminerei o ridurrei di brutto gli header, footer e menu di navigazione

    2. sono deleteri nel momento in cui iniziano ad essere "troppi". Nel tuo caso non e' "grave" la situazione, ma unita agli altri 2 problemi indicati sopra non aiuta di certo alla creazione di contenuti/pagine originali

    3. Sono diverse "tra loro" ma sono identiche a migliaia di pagine sul web. Non credo che le barzellette siano una tua produzione originale. Esempio : http://www.google.com/search?q="Passano+i+minuti,+le+prime+mosche+cominciano+a+banchettare+sulla+piramide+di+escrementi"&hl=en&filter=0

    Ciao 🙂
    Enrico


  • User Attivo

    Ciao a tutti e grazie dei suggerimenti. In questo periodo ho eliminato tutte quelle pagine con poco contenuto, concentrando 15 immagini (che erano 15 pagine) per pagina. Ora ogni pagina è "più ricca", ma ovviamente molte pagine ora danno 404. Ora non mi risultano link errati interni al sito.
    Secondo voi, se questo è il problema (non ho trovato spam links o commenti spammosi), quanto tempo ci vorrà per essere "riconsiderati"? :mmm: Dal GWT vedo che il sito viene controllato ogni giorno.


  • User

    Ciao robaldo, sui miei blog nel giro di 24 - 72 ore è tutto ritornato alla normalità.
    Magari aspetta una settimana e se vedi che non risale nella serp, continua a fare tagli di cose che secondo te potrebbero infastidire google.

    Negli ultimi 10 giorni ho notato che google è diventato molto più attento alla sovraottimizzazione, basta pochissimo per essere penalizzati.


  • User

    Ciao a tutti
    mi intrometto ( chiedo scusa a robaldo) per chiedere maggiori delucidazioni in merito al boilerplate.
    Il discorso del boilerplate è valido per tutti i siti internet o in particolar modo i siti che hanno moltissime pagine ??

    Sto ancora cercando la causa della penalizzazione del mio sito, e così leggendo questo thread mi sono chiesto se il mio sito poteva essere penalizzato per una ripetizione della header e del footer. La mia testata e composta dal logo e motore di ricerca interno, il footer è composto da 7 link.

    Grazie a tutti.


  • User Attivo

    Non ho ancora visto cambiamenti "veloci". Mentre attendo ho un dubbio: nel sito esistono molti tag. Che sia il caso di disabilitarli tramite il robots.txt oppure eventualmente attendo ancora 1 o 2 settimane per vedere se queste modifiche fatte nell'ultimo mese (aggregazione delle tante pagine con poco contenuto in poche pagine)?

    Grazie!


  • User Attivo

    Strana cosa: vedo che il bot passa ogni giorno ma.. la cache mostrata da google è vuota! C'è da preoccuparsi? Eppure cercando il sito viene mostrato, con backlinks :?:():

    Grazie a chi saprà consigliarmi


  • User Attivo

    Proverò ora a mettere noindex sia alle pagine dei tags, sia alle category (uso wordpress) perchè il numero di pagine restituite dal comando site:miosito .it mi sembra più alto del numero di pagine reali.
    Cache di google ancora vuota. :mmm:


  • User Attivo

    In attesa di vedere se queste modifiche contano ho notato che il pagerank è aumentato. Strano paradosso.


  • User Attivo

    Ciao Robaldo,
    per curiosita' personale, mi sapresti dire se ci sono novita'?

    Sei uscito dalla penalizzazione e, se si', cosa hai fatto?

    grazie
    Enrico