• User Attivo

    Piccolo Vademecum SEO

    Premessa: Ho scritto questo vademecum senza alcuna pretesa di affermarsi come guida al posizionamento, è un articolo ispirato ad una pagina in lingua inglese già nota ai più esperti . (www.vaughns-1-pagers.com/internet/google-ranking-factors.htm)
    Lo posto qui per convidere e per sapere se ci sono errori in alcune cose che affermo

    Ho pensato di prendere spunto dai singoli temi, tradurre alcune parti e aggiungere delle considerazioni personali su degli aspetti che per molti possono sembrare banali e scontate, ma possono essere importanti per chi è nuovo dell'argomento e si pone molte domande.

    In questo articolo si parlerà maggiormente dei fattori on-page ossia l’insieme di quei parametri che sono controllabili dal webmaster a scopo di migliorare il posizionamento. Proprio per questo motivi sono considerati in maniera sempre minore da Google, per limitare abusi che causano l’inquinamento delle Serp e perdita quindi di qualità.

    1. Keyword nell’url e nel dominio: La parole più a sinistra hanno rilevanza maggiore.
      L’influenza del nome a dominio è ridotta a causa degli abusi dei cybersquatter.
      La verà utilità di usare delle keyword nel nome a dominio sta nel fatto che i link spontanei al nostro sito conterranno con molta probabilità le keyword di nostro interesse nell’anchor.

    2. Keyword nel tag title: E’ abbastanza rilevante questo tag, ma non bisogna eccedere nella lunghezza.
      Poche parole ma buone e correlate all’argomento reale trattato. Le parole più a sinistra hanno rilevanza maggiore.
      Google usa questo tag come titolo nelle serp, quindi deve essere concepito in maniera appetibile principalmente per un eventuale utente e non al motore di ricerca.
      I cambi frequenti e totali del tag title sono dannosi, è bene avere un tag title stabile nel tempo poichè conferma l’identità e il contenuto della pagina.
      E’ buona norma inoltre differenziare il title per ogni pagina, indicando in due/tre parole ciò che la pagina mostra all’utente. E’ sconveniente indicare il nome del dominio nel title.
      Piccole modifiche al title una tantum non comportano cali di posizione.
      Molti affermano che il 50% dei fattori di posizionamento di un sito siano determinati da un buon tag title.

    3. Keyword nel meta tag Description: Anche qui non bisogna eccedere nella lunghezza, Google utilizza questo tag come breve descrizione nelle serp.

    4. Keyword nel meta tag “keyword”: Google ignora questo meta tag, anzi se si usano parole non corrispondenti al corpo della pagina è probabile che possa essere considerato spam. Altri motori minori leggono il meta tag “keyword”.
      Sconsigliato da utilizzare se non si è certi di un corretto utilizzo.

    5. Densità di parole chiavi nel corpo della pagina: Dopo recenti aggiornamenti agli algoritmi di Google la densità non ha più il peso di una volta, ma è comunque un fattore incisivo per tematizzare la pagina. E’ bene però comprendere che una eccessiva ripetizione della parola può insospettire i motori. Non c’è una soglia ben definita per rischiare penalizzazioni. Si consiglia di rileggere il testo e verificare se in italiano il discorso è fluido, lineare e non troppo ripetitivo nel concetto.

    6. Uso del tag html H1,H2,H3: E’ utile per posizionare bene una keyword o una keyfrase, ma una pagina con molti tag Hx pare che venga classificata come spam se non sufficientemente linkata.
      Leggere informazioni aggiuntive in post : http://www.giorgiotave.it/forum/laboratorio-seo/15828-far-indicizzare-una-pagina-finora-largamente-snobbata-da-google.html

    7)** Grassetto**: Il tag ** e [strong] sono trattati allo stesso modo dal motore di ricerca, la differenza sta nel fatto che è il vecchio tag e [strong] è definito negli standard w3c.
    L’influenza sulla indicizzazione di questo tag è talmente minima che è meglio grassettare ignorando l’ottimizzazione seo.

    😎 Adiacenza di keyword:** due parole chiavi adiacenti sono ben assimilate nelle serp, ad esempio se fittiamo appartamenti a milano, è utile concentrarsi sulla scrittura del testo pensando ad un accostamento di questi termini, questo vale in qualunque area: nel body, nel title, etc.

    9)** Ordine delle keyword:** la keyword “bed and breakfast” non avrà serp identiche a “breakfast and bed”, quindi è utile studiare quale sia l’ordine più consono.

    10)** Posizione delle keyword nella pagina:** Più la keyword è in alto nella vostra pagina e più è visibile quindi maggiore sarà la sua rilevanza.
    Per questo è preferibile realizzare pagine usando i css al posto delle tabelle, in modo da gestire la posizione del testo nel codice html indipendentemente dalla visualizzazione all’utente; Ciò nasce dal fatto che gli spider hanno fretta e non sempre leggono tutto il corpo della pagina, ma solo spezzoni, per cui ciò che c’è in alto viene letto prima e si presume che sia più rilevante.

    11)** Keyword nell’attributo ALT:** utile per il posizionamento in google image.

    1. Keyword nell’attributo title: Google nelle sue guidelines raccomanda l’utilizzo del tag title (Cito: Assicurati che i tag TITLE e ALT siano descrittivi e precisi), In ogni caso c’è un errore formale nelle guidelines: Propriamente Il tag title è quello in alto a tutto (< title >) mentre per attributo si intende ad esempio [a href=”…” title=”blabla”]
      In ogni caso è stato effettuato un test in agosto del 2006 e pare che risulti essere ignorato.
      Riferimento al test: http://www.giorgiotave.it/forum/laboratorio-seo/14512-test-indicizzazione-dellattributo-title-dei-link.html

    2. Link interni: Una buona struttura interna ad albero in un sito aiuta moltissimo, le pagine interne devono essere raggiungibili con massimo due click di profondità, altrimenti tali pagine vengono considerate poco.
      E’ molto utile creare una navigation bar in alto per permettere all’utente di tornare al livello livello precedente senza dover usare il tasto back.
      E’ di alta utilità creare una mappa del sito navigabile, con struttura ad albero, utile sia per l’utente che per rendere meno profonde agli occhi del motore alcune sezioni del sito.

    3. Sitemap: La Google sitemap, è un file XML letto da google da non confondere con la mappa del sito in html.
      Creare una sitemap xml ha una indubbia utilità per aiutare l’attività di crawling dello spider nella navigazione del nostro sito.
      La sitemap è consigliata ad esempio per i siti nati da poco, momento delicato in cui lo spider ha ancora una idea incerta della nostra struttura.
      La Google sitemap non permette di pilotare lo spider a nostro piacimento, ma è una sorta di consiglio che noi forniamo allo spider.
      Tale consiglio deve essere sempre attendibile e veritiero per avere buone chanche.
      Bisogna evitare ad esempio di inserire nella sitemap pagine non presenti, o di indicare informazioni fuorvianti.
      Se noi informiamo lo spider attraverso la sitemap che ad esempio la frequenza di aggiornamento di una pagina è giornaliera mentre la pagina non varia quasi mai l’interprete della sitemap quando si renderà conto della “bugia” scarterà il nostro consiglio alterando quindi l’attendibilità globale della sitemap.
      La sitemap consente di impostare delle priorità a determinate pagine, è consigliabile ad esempio ridurre questo parametro per pagine prive di contenuti utili.
      Per gestire la sitemap ed altri parametri utili ai webmaster, Google ha creato una apposita area chiamata: Strumenti per i webmaster.

    4. Link esterni: Linkare risorse autorevoli ed “a tema” con il sito è indice di qualità, fa anche intendere che il sito non è un network chiuso (senza esagerare con la quantità).
      Non bisogna eccedere nell’aggiunta di link per non disperdere l’informazione che intendiamo fornire. C’è il rischio di essere considerati una link farm o venditori di link.
      Linkare siti considerati “cattivi” è molto penalizzante.
      Bisogna verificare periodicamente che i link in uscita siano funzionanti, non bannati e che non siano zeppi di link (link farm)
      Se date visibilità a siti di contenuto contrario alle policy di google la responsabilità ricade su di voi. Il cattivo vicinato (bad neighborhood) vi pone in una situazione penalizzante per il posizionamento.
      Evitare di utilizzare anchor text troppo lunghi.
      Evitare di cambiare spesso l’anchor o l’href, si rischia di essere scambiati per venditori di link e Google non ama coloro che influenzano in maniera indiscriminata il pagerank.
      Evitare di usare più di 100 link esterni per pagina.

    5. Dimensione della pagina: Evitare pagine di dimensioni superiori ai 100k, sia per comodità dell’utente che per gli spider.

    6. Uso del trattino nell’url: Il trattino (hypens) Viene utilizzato come separatore di testo; Nel nome di dominio o nel resto dell’url consentono una separazione ottimale, ma bisogna essere cauti; Troppi trattini sono indice di spam (Esempio: a occhio quale delle due url è più probabile che sia visto come spam? 1-http://www.prodottimedici.com/viagra.htm 2- http://www.vendita-viagra-e-cialis.com/prodotti-farmaceutici-a-basso-costo/cheapest-viagra-cialis-sex.htm )
      Nel percorso dell’url si possono usare come separatori di parola tutti i simboli (anche la virgola) ad esclusione di questi: & _ * + che a quanto pare non sono influenti nella query di ricerca. Provate ad esempio a cercare su google hotel-roma o hotel roma … la serp è identica, Usando invece l’underscore la query hotel_roma restituisce pochissimi risultati. per cui anche se può sembrare più gradevole sconsiglio l’utilizzo dell’undescore come separatore.

    7. Lunghezza dell’url: Come già detto sopra, un url breve viene preferita dai motori e si evita di incappare in filtri antispam.
      Google non le ignora, ma non ama di certo le url con troppi parametri: Un parametro specie se non numerico viene letto senza alcun problema.

    8. URL Rewrite: E’ molto utile usare il rewrite dell’url per nascondere i parametri e rendere la pagina dinamica simile in tutto ad una pagina statica. Ad esempio i forum con migliaia di post spesso non vengono indicizzati completamente per i troppi parametri. l’url rewrite consente di indicizzare più pagine ed è risaputo che maggiori contenuti = miglior posizionamento.

    9. Aggiornamenti frequenti: Google predilige i siti con contenuti sempre aggiornati e crescenti. La frequenza di crawling è proporzionale alla frequenza di aggiornamento della pagina da parte del webmaster, per non rischiare di perdere qualcosa.
      Svantaggi: Se la pagina cambia completamente ad ogni passaggio a mio avviso non è tanto positivo, il motore può intuire che non è una risorsa attendibile, ed anche lato utente se non è possibile verificare a breve distanza il contenuto precedente si rischia di demotivare la navigazione nella pagina in oggetto.

    10. Età del sito: Conta molto.
      Attenzione: non bisogna confondere l’età del dominio con l’età del sito. Il primo è utile a conferire una certa autorevolezza, ma solo se vi è costanza nel mantenere il sito in ottima forma. Se un sito resta under construction per anni, quando lo apriamo non possiamo sperare di avere la stessa autorevolezza di un sito che è in linea realmente da anni. A mio avviso quindi è possibile che se esista un effetto sandbox questo possa sussistere anche in siti anziani di data, ma che hanno subito lunghi periodi di down.

    11. Testo nascosto: Non è direttamente penalizzante, ma si rischia un ban in caso di segnalazioni.

    12. Redirect in html e in javascript: vengono considerati come sistemi per nascondere delle doorway page: In alcuni casi il gioco vale la candela, ma si rischia con molta probabilità il ban del sito da cui parte il redirezionamento.
      Il sito di destinazione in linea teorica non dovrebbe subire penalizzazioni se non è correlata in alcun modo alla pagina di origine, poichè ci potrebbe essere la remota possibilità che un competitor stia cercando di danneggiare la nostra immagine e cercare di incastrarci nei confronti del motore.
      Il redirect in html si può utilizzare come alternativa client-side al redirect “301 Moved Permanently”, ma per farlo in maniera pulita la pagina origine di redirezione deve essere vuota, perchè evitare di dare l’impressione che nascondiate qualcosa all’utente (doorway page).

    13. Doorway page: Anni fa le doorway page erano delle accozzaglie di pagine con migliaia di keyword ripetute non attinenti e lo scopo era quello avere
      più visitatori e basta. Con il tempo ci si è evoluti, le doorway page classiche vengono facilmente riconosciute e bannate e necessitano di adattamenti
      per fornire risultati. Se avete intenzione di usare questo strumento, è bene sapere che è da evitare assolutamente sul dominio che volete spingere.
      Mettendolo su altri domini o spazi gratuiti il rischio è quello di perdere la doorway e non il dominio principale.
      La tecnica è decisamente poco corretta dal punto di vista del motore, perchè inquina le serp, ma se usata senza esagerare e con keyword a tema del sito è un buon
      sistema per posizionarsi.

    14. Keyword stuffing: la ripetizione di una singola keyword è da evitare poichè facilmente riconoscibile.

    15. Uso dei Frame: non consente una appropriata interpretazione della struttura del sito, sconsigliato ai fini del posizionamento.

    16. Uso indiscriminato del tag rel=”nofollow”: A mio avviso il nofollow deve essere usato solo nelle aree in cui si rischia il comment spam.
      Un sito ha l’onere morale di dare un giudizio a chi sta linkando, altrimenti se tutti usassero il nofollow, l’algoritmo del pagerank crollerebbe, quindi se un sito ha tutte le pagine nofollow secondo me non è del tutto positivo.

    17. Contenuti duplicati: nelle linee guida di google è esplicitamente chiesto di evitare contenuti duplicati. E’ risaputo che google ha un brevetto per verificare se un testo o porzioni di quest’ultimo è duplicato.
      Purtroppo non ha modo di comprendere per bene la fonte reale, quindi può capitare che un testo da voi scritto viene scavalcato da un sito più autorevole che ricopia la vostra informazione.

    18. Scambi di link reciproci: da evitare soprattutto se provenienti di siti non a tema: Non si rischia il ban, ma i link in uscita perderanno valore.
      Se il sito è appena nato il link reciproco anche se sembra più facile da ottenere non è ben visto, perchè si può dedurre che lo scambio è stato creato ai fini del posizionamento.
      Nella fase iniziale di un sito è consigliabile registrarsi a molte directory free che passano pagerank e che non richiedono di ricambiare il link.

    19. Acquisto di text link:
      Un tempo la pubblicità su altri siti aveva lo scopo di renderci visibili all’utente, ora con la febbre del pagerank è nato il fenomeno dell’acquisto di link testuali puri.
      Utile nel caso che non riusciate ad ottenere link spontanei ma bisogna avere alcune accortenze:
      Se le pagine da cui venite linkati sono molto forti e il tema o la lingua è diversa dalla vostra vi è la possibilità che il tema del vostro sito agli occhi del vostro sito verta verso altre rotte,
      andandovi a penalizzare indirettamente per le keyword che invece desiderate posizionare.
      Quindi è sconsigliato comprare link esteri per un sito in lingua italiana.
      Esistono molti siti in giro per l’acquisto di link (anche su ebay), ma è solo con una certa esperienza che si riesce a trovare il link adatto al prezzo giusto.
      Molti webmaster appena arrivati sulla soglia del pagerank 5 vogliono subito monetizzare e vi propongono link a basso costo (circa 4-5 euro al mese)
      su siti zeppi di link.
      Vi sono due articoli molto interessanti che trattano più in dettaglio il tema degli inbound links:
      http://www.kerouac3001.com/links-come-passaggio-dinformazione-6.htm
      http://www.marketingroutes.com/2006/10/28/inbound-links-che-la-forza-sia-con-voi/

    ——————————————-

    Non mi ritengo di certo un guru della materia per cui se ho commesso degli errori sono gradite correzioni e commenti al riguardo.
    Grazie,
    Giuseppe Liguori


  • Community Manager

    Ciao Giuseppe,

    secondo me hai fatto un post importante, anzi sarei per modificarlo sempre, oppure sfruttare WikiGT per fare: Due Parole su Ogni Argomento.

    E' importante secondo me perchè è utilissimo per gli utenti nuovi 🙂

    Che ne dici se facessimo su WikiGT un "come lo chiami tu SEO" 😄

    E poi creiamo per ogni punto una voce linkata 🙂

    In questo modo tutti possiamo portare il nostro contributo e possiamo linkare queste mini-pillole per i nuovi che si pongono mille domande 🙂

    😉


  • User Attivo

    @Giorgiotave said:

    Ciao Giuseppe,

    secondo me hai fatto un post importante, anzi sarei per modificarlo sempre, oppure sfruttare WikiGT per fare: Due Parole su Ogni Argomento.

    E' importante secondo me perchè è utilissimo per gli utenti nuovi 🙂

    Che ne dici se facessimo su WikiGT un "come lo chiami tu SEO" 😄

    E poi creiamo per ogni punto una voce linkata 🙂

    In questo modo tutti possiamo portare il nostro contributo e possiamo linkare queste mini-pillole per i nuovi che si pongono mille domande 🙂

    😉

    Ciao Giorgio, lo scopo era proprio quello 😉 partire da piccoli punti per creare qualcosa di utile per gli utenti nuovi.
    Vediamo prima gli altri "masti" del settore se mi bacchettano per qualche castroneria che ho scritto. 🙂


  • Super User

    Ciao eLLeGi
    Ti ringrazio
    per questo post, davvero esaustivo 🙂

    Conoscevo la pagina su v**aughns-1-pagers.com **che, come annotato dall'autore stesso, è costruita e aggiornata lurkando su vari forum di settore (webmasterworld.com in primis).

    Non ho mai dato credito eccessivo a quella pagina, anche se oltreoceano è linkatissima e spesso citata. Forse perchè è strutturata come una classifica ed è di facile consultazione: in una pagina singola hai tutti i do e i dont della seo.

    Miei appunti (opinabili, of course).

    1. Meta keyword. Innocuo su siti anziani (che già lo includono), dannoso su siti nuovi anche laddove il lavoro seo non sia marcatissimo. Io sarei per non usarlo mai.

    2. Densità parole chiave. Non è un fattore che i motori pesano. Quantomeno non Google. Non la calcolerei, e nella produzione di una pagina/sito nuovo farei ben attenzione a mantenere un *profilo basso *per poi fare un tweaking dei contenuti in seguito.

    3. Uso degli heading tag. Utile ma solo per formattare quelle che sono le intestazioni (vedi specifiche HTML sul sito W3c) che precedono un paragrafo di testo reale. (Vale per Google, in quanto Msn e Yahoo, come visto, si comportano diversamente).

    4. ALT delle immagini. In quanto indicizzato come testo, contribuisce ad incrementare le informazioni testuali della pagina. Sia che l'immagine sia usata come link, che non.

    5. **Acquisto di link. **Se proprio di deve, lo si faccia con criterio e non puntando alla logica del PR a tutti i costi.

    Cordialmente,
    Stuart


  • Super User
    1. Link interni: Una buona struttura interna ad albero in un sito aiuta moltissimo, le pagine interne devono essere raggiungibili con massimo due click di profondità, altrimenti tali pagine vengono considerate poco.
      E’ molto utile creare una navigation bar in alto per permettere all’utente di tornare al livello livello precedente senza dover usare il tasto back.
      E’ di alta utilità creare una mappa del sito navigabile, con struttura ad albero, utile sia per l’utente che per rendere meno profonde agli occhi del motore alcune sezioni del sito.
      Una buona struttura inoltre consente già dal sistema di navigazione di linkare le pagine interne con keywords rilevanti.

    Inoltre consente l'utilizzo, fondamentale imho, di link interni al contenuto vero e proprio, nel quale, ogni volta che si tocca un argomento viene inserito un link con la key o una parola strattamente correlata alla pagina che deve posizionarsi per quell'argomento/key.


  • Super User
    1. Link interni: Una buona struttura interna ad albero in un sito aiuta moltissimo, le pagine interne devono essere raggiungibili con massimo due click di profondità, altrimenti tali pagine vengono considerate poco.
      E? molto utile creare una navigation bar in alto per permettere all?utente di tornare al livello livello precedente senza dover usare il tasto back.
      E? di alta utilità creare una mappa del sito navigabile, con struttura ad albero, utile sia per l?utente che per rendere meno profonde agli occhi del motore alcune sezioni del sito.Lo fa soltanto se la key è contenuta nel tag title.

    Adiacenza di keywordForse è meglio usare il termine "prossimità"

    Densità parole chiave. Non è un fattore che i motori pesano. Quantomeno non Google. Non la calcolerei, e nella produzione di una pagina/sito nuovo farei ben attenzione a mantenere un *profilo basso *per poi fare un tweaking dei contenuti in seguito.Non sono daccordo, in tutti gli algoritmi di tieffeiddieffe la densità della key è indirettamente tirata in ballo, insieme alla frequenza con la quale la key è presente nell'indice ed altri fattori di peso.


  • Super User

    @"Beke" said:

    ...in tutti gli algoritmi di tieffeiddieffe la densità della key è indirettamente tirata in ballo, insieme alla frequenza con la quale la key è presente nell'indice ed altri fattori di peso. Appunto 🙂
    Proprio perchè indirettamente presa in causa nei calcoli di term frequency e inverse document frequency, la misurazione di una keyword density fissa o variabile che sia (alias: "se voglio posizionare un documento per hotel roma, non devo superare una kd del 30%", oppure "Google considera spam una kd > 20%" ecc ecc...) diventa un calcolo assai fuorviante.

    Imho 🙂
    Stuart


  • Super User

    [LEFT]Certo, proprio per questo sparisce il concetto di una Kw density magica a cui avvicinarsi ma resta confermato l'approccio:

    if (la qualità del testo è mantenuta) and (non si supera una soglia antispam) then
    aumenta il numero di occorrenze della keywords nel testo
    end if

    My 0,2 cents
    [/LEFT]


  • User Attivo

    complimenti!
    un vero bignami di SEO!


  • User Attivo

    @Stuart said:

    Non ho mai dato credito eccessivo a quella pagina, anche se oltreoceano è linkatissima e spesso citata. Forse perchè è strutturata come una classifica ed è di facile consultazione: in una pagina singola hai tutti i do e i dont della seo.

    Infatti ho notato, per questo ho cercato solo di catturare i punti e poi espandere i concetti secondo le mie conoscenze.

    @Stuart said:

    1. Meta keyword. Innocuo su siti anziani (che già lo includono), dannoso su siti nuovi anche laddove il lavoro seo non sia marcatissimo. Io sarei per non usarlo mai.

    Infatti l'ho sconsigliato proprio per aver letto più volte di evitarli. Sono convinto che pagine zeppe di keyword e non a tema possano essere dannose, ma per quale motivo secondo te c'è danno sui siti nuovi visto che il tag è ignorato da google? Cioè perchè google vuole fare un torto al classico e diffuso webmaster che SA erroneamente che le keyword servono a uscire su google?

    1. Densità parole chiave. Non è un fattore che i motori pesano. Quantomeno non Google. Non la calcolerei, e nella produzione di una pagina/sito nuovo farei ben attenzione a mantenere un *profilo basso *per poi fare un tweaking dei contenuti in seguito.

    In alcune prove fatte da me la keyword density in alcuni casi ha funzionato, anche usando il tanto condannato keyword stuffing ho ottenuto risultati, certo è rischioso ma credo che un certo peso seppur minimo esista ancora. che intendi di preciso con "tweaking dei contenuti in seguito"?

    1. ALT delle immagini. In quanto indicizzato come testo, contribuisce ad incrementare le informazioni testuali della pagina. Sia che l'immagine sia usata come link, che non.

    Si giusto.:)

    Grazie dei consigli.


  • Super User

    @eLLeGi said:

    Infatti ho notato, per questo ho cercato solo di catturare i punti e poi espandere i concetti secondo le mie conoscenze. La mia critica (che poi non era una critica, tutto sommato) era rivolta alla tua fonte ispirativa, non al tuo post, che ripeto, trovo davvero utile ed esaustivo 🙂
    E che anzi, in ossequio alla pagina yankee, trasformerei, con la tua collaborazione, in una sorta di classifica dei 10 più importanti fattori seo e dei **10 più importanti errori seo **con tanto di variazioni di posizione, come in una chart.

    @"eLLeGi" said:

    [meta Kwd]...Cioè perchè google vuole fare un torto al classico e diffuso webmaster che SA erroneamente che le keyword servono a uscire su google? LowLevel fece una considerazione molto illuminante: il meta keywords era un tempo utilizzato per identificare, sottoforma di un elenco di parole chiave, il contenuto di un documento.
    Ora il meta keyword è usato per dichiarare le parole chiave con le quali si vuole uscire nelle serp. E la differenza sembra sottile, ma è sostanziale.

    @"eLLeGi" said:

    che intendi di preciso con "tweaking dei contenuti in seguito"? Produco una pagina non-ottimizzata (inserendo pochissime occorrenze dei termini di mio interesse) e la faccio indicizzare. Dopodichè incremento la popolarità (anche solo a livello di gerarchia dei link interni) e aggiungo gradualmente contenuti e occorrenze dei termini che voglio spingere.

    A volte faccio il contrario. Parto esagerando e, gradualmente, in accordo con l'aumento di link in entrata, "bonifico" la pagina riducendo occorrenze al minimo.

    Cordialmente,
    Stuart


  • Super User

    @eLLeGi said:

    1. Uso indiscriminato del tag rel=?nofollow?: A mio avviso il nofollow deve essere usato solo nelle aree in cui si rischia il comment spam.
      Un sito ha l?onere morale di dare un giudizio a chi sta linkando, altrimenti se tutti usassero il nofollow, l?algoritmo del pagerank crollerebbe, quindi se un sito ha tutte le pagine nofollow secondo me non è del tutto positivo.
      Sono tanti gli usi possibili per l'utilissimo attributo rel=nofollow. Ad esempio io lo uso abbastanza spesso sui link interni della navigazione (es. sui link "Ordina per...") per prevenire l'indicizzazione di pagine con contenuti sostanzialmente duplicati*. Così facendo, faccio un favore ai motori di ricerca (oltre che ai miei siti). Perciò non credo affatto che Google e gli altri motori di ricerca possano vedere come negativo l'uso di questo attributo (che, peraltro, loro stessi hanno introdotto).
    • Come noto, infatti, Google e MSN (ora Live Search) non indicizzeranno una pagina che ha solo back link con rel=nofollow; Yahoo! invece sì.

  • User Attivo

    @Everfluxx said:

    Sono tanti gli usi possibili per l'utilissimo attributo rel=nofollow. Ad esempio io lo uso abbastanza spesso sui link interni della navigazione (es. sui link "Ordina per...") per prevenire l'indicizzazione di pagine con contenuti sostanzialmente duplicati*. Così facendo, faccio un favore ai motori di ricerca (oltre che ai miei siti). Perciò non credo affatto che Google e gli altri motori di ricerca possano vedere come negativo l'uso di questo attributo (che, peraltro, loro stessi hanno introdotto).

    • Come noto, infatti, Google e MSN (ora Live Search) non indicizzeranno una pagina che ha solo back link con rel=nofollow; Yahoo! invece sì.

    Io non dico che si venga penalizzati dall'uso eccessivo del nofollow, però mi sono fatto una idea, forse un po' strampalata.
    Ho notato che i link esterni a risorse autorevoli se fatti con un certo criterio in taluni casi possono risultare positivi poichè stai fornendo delle informazioni all'utente.
    Linkare siti esterni può essere anche utile per non farci apparire come network chiusi di spam.

    Beh, se quindi può esserci un riscontro positivo al linkaggio, il nofollow potrebbe impedire al motore di valutare quel link, poichè se lo tagghi in quel modo non ti fai carico della responsabilità dei link, per cui non ricevi penalizzazione, ma nemmeno benefici positivi dall'uso esagerato del nofollow. Questo attributo è utile contro lo spam, ma è anche deleterio sui link spontanei ai fini del sistema pagerank.

    Lo so è una teoria un po' strana, però chissà 🙂


  • Super User

    @eLLeGi said:

    non ricevi penalizzazione, ma nemmeno benefici positivi dall'uso esagerato del nofollow. Messa giù così, mi trova d'accordo. 😉