• Super User

    provatemi l'intelligenza dello spider

    Mi sono sempre chiesto questa cosa:
    supponiamo faccia un sito con html purissimo, senza errori.
    seguo tutte le linee guida che un buon SEO conosce sui vari tag <h1> <h2> <h3> ** ** ecc, title e descrizioni giuste, metatag...
    supponiamo crei un'ottima struttura interna di link e directory ecc.
    Faccio una buona campagna di scambio link.
    Insomma rispetto tutti i parametri che un SEO con una buona esperienza conosce.
    Veniamo ai contenuti.
    Supponiamo scriva una marea di contenuti, inventati di sana pianta, copiati a caso non da roba già indicizzata, ma magari dal giornale del grande fratello o dai sottotitoli di un pornazzo.
    Poi all'interno dei vari testi, scrivo qua e la le varie keyword che mi interessano con delle keyfrases opportune messe qua e la in questi testi strampalati!
    Cosa dovrebbe succedere?
    Vi prego ditemi tutte le vostre più disparate opinioni, su come un tale sito si posizionerebbe, se i motori si accorgerebbero di qualcosa allo stato attuale delle cose cosa il motore "vede e capisce" e cosa no!

    P.S.
    fissiamo, dopo qualche feedback speigherò perchè, il fattpre LINK POPULARITY, dicendo per il momento, come scrivevo su, che ho condotto una buona campagna di scambio link e basta


  • User

    Ciao Micky,
    il tuo ps non l'ho capito (forse non vuoi che tocchiamo la LP?).

    Visto che il PS non l'ho capito, ti dico ma chi ti linkerebbe?
    Io non linkerei un sito che ha una marea di contenuti, inventati di sana pianta, copiati a caso non da roba già indicizzata.

    Tu lo linkeresti? Lo consiglieresti ai tuoi visitatori?

    Sai come fanno gli spam engine?
    Davanti hanno un portale, neanche tanto grande, e lo tengono aggiornato di frequente, dietro hanno tantissime pagine generate da query fatte ai DB come overture etc.

    I BL che si sono presi è perchè qualcuno ha ritenuto che gli articoli (nella parte del sito reale) sono interessanti. Ecco spiegato il trucco. Se non avessero quegli articoli interessanti non avrebbero nemmno un BL spontaneo.


  • Super User

    Ciao Micky,
    il tuo ps non l'ho capito (forse non vuoi che tocchiamo la LP?).

    Visto che il PS non l'ho capito, ti dico ma chi ti linkerebbe?
    Io non linkerei un sito che ha una marea di contenuti, inventati di sana pianta, copiati a caso non da roba già indicizzata.

    Tu lo linkeresti? Lo consiglieresti ai tuoi visitatori?

    Sai come fanno gli spam engine?
    Davanti hanno un portale, neanche tanto grande, e lo tengono aggiornato di frequente, dietro hanno tantissime pagine generate da query fatte ai DB come overture etc.

    I BL che si sono presi è perchè qualcuno ha ritenuto che gli articoli (nella parte del sito reale) sono interessanti. Ecco spiegato il trucco. Se non avessero quegli articoli interessanti non avrebbero nemmno un BL spontaneo.

    Ci sarà il suo motivo per cui ho detto per il momento di fissare il parametro link popularity :)!
    Ho detto supponiamo abbia condotto una campagna di scambio link che mi dia un numero di link buono, non dovuto ai contenuti ma alla politica di scambio link! Analizzeremo dopo il fattore LP


  • User

    Non capivo quel fissiamo.

    Allora supponendo che tu abbia già dei BL precedenti e che da oggi inizi ad inserire contenuti alla azzo (passami il termine), molti BL acquisiti resteranno invariati, anche perchè non credo che i wm medi stanno a controllare i siti linkanti in continuazione. Altri BL, dei webmaster più attenti, spariranno. Questo potrebbe essere già un primo segnale.

    Poi credo che alcuni motori siano in grado di analizzare la prossimità delle parole (non keyword) che non sono attinenti con il discorso. Non credo che puoi in un articolo parlare delle celle fotovoltaiche e discuterne in modo tecnico e poi saltare di palo in frasca e parlare della puntata di quelli che il calcio e magari facendo presente che anche Di Canio usa le celle fotovoltaiche, per tornare in tema.


  • Super User

    Poi credo che alcuni motori siano in grado di analizzare la prossimità delle parole (non keyword) che non sono attinenti con il discorso. Non credo che puoi in un articolo parlare delle celle fotovoltaiche e discuterne in modo tecnico e poi saltare di palo in frasca e parlare della puntata di quelli che il calcio e magari facendo presente che anche Di Canio usa le celle fotovoltaiche, per tornare in tema.

    d'accordo, ma se l'argomento non è così tecnico, ma magari si parla di turismo, ed io piazzo letteralmente una marea di pagina scopiazzate (non da siti indicizzati ovviamente!) sul turismo in generale piazzando qua e la qualche keyword? (tralasciamo sempre i link, per il momento)


  • User

    Non saprei dirti. Non ho esperienza in merito.
    Secondo me è molto rischioso, perchè anche se tu dici non consideriamo i link esterni, i motori di ricerca si basano molto sui fattori esterni.

    Agoago what do you think?


  • Super User

    poi ti dico il mio parere sui link, grazie WebCarlo, gentilissimo!
    Se qualcun altro vuole esporre le sue idee in merito, non sia timido... 😄


  • Super User

    Qual'è il nocciolo, il fattore portante della discussione, che mi sa troppo di arcano?


  • User

    Ipotizziamo che il sito in questione raggiunga un'ottima posizione nella serp con alcune keyword, magari anche molto importanti.
    Quanto dura questa posizione???

    Google (è lui il riferimento) tiene conto delle scelte che fa un utente messo davanti a una serp??

    nella versione explorer della googlebar c'è la possibilità di indicare una preferenza, puo forse dire che oltre agli algoritmi conta anche un giudizio umano??

    A mio parere link title description e quant'altro contano meno dei contenuti.

    Sono i contenuti che fanno si che il tuo sito sia linkato da un blogger o da un'altro sito.

    :ciauz:


  • Super User

    @Vins said:

    Ipotizziamo che il sito in questione raggiunga un'ottima posizione nella serp con alcune keyword, magari anche molto importanti.
    Quanto dura questa posizione???

    Google (è lui il riferimento) tiene conto delle scelte che fa un utente messo davanti a una serp??

    nella versione explorer della googlebar c'è la possibilità di indicare una preferenza, puo forse dire che oltre agli algoritmi conta anche un giudizio umano??

    A mio parere link title description e quant'altro contano meno dei contenuti.

    Sono i contenuti che fanno si che il tuo sito sia linkato da un blogger o da un'altro sito.

    Ok mi piace questo post! 🙂
    -allora, per quanto riguarda la google toolbar, è una cosa troppo ristretta come diffusione ed è uno strumento che usiamo al 95 % noi addetti ai lavori, e quindi se è probabile che google stia attentissimo a pesare tale fattore (arcano , eh Serp? :1: in positivo, magari lo fa ancor di più quando si tratta di penalizzare un sito. Se poi pensi che stiamo parlando di uno strumento interno della google toolbar che non è neanche visibile a meno di settarlo nelle opzioni avanzate...
    alla fine viene utilizzato dall uno per cento delle persone che tra l'altro sono in grandissima percentuale dei Seo.

    Google (è lui il riferimento) tiene conto delle scelte che fa un utente messo davanti a una serp??
    Sicuramente, ma visto che nelle serp si trova spesso e volentieri la description, e non ho detto dei metterla a capocchia...
    Questo che dici, magari può essere applicabile ad un altro punto: il tempo di permanenza degli utenti su un sito che ho messo in evidenza in un altro [url=http://www.giorgiotave.it/forum/viewtopic.php?t=6969] post sul tempo di permanenza sulle pagine ma che probabilmente google ancora non pesa a causa dei troppi dati da elaborare

    Voi parlate tutti di link spontanei! Ma quando il bacino di utenza è ristretto, un buon scambio link e l'iscrizione in molte directory, con una marea di contenuti ottimizzati, possono eccome fare la differenze rispetto a pochi contenuti, magari anche migliori ma molti meno, che generano qualche link spontaneo in più!
    Il senso del post all'inizio era un pò estremizzato; ma quello che voglio sostanzialmente dire è questo:
    devo ottimizzare "hotel firenze" ad esmepio!
    Copio (ripeto ancora non da siti indicizzati ma da altre fonti) una marea di pagine su firenze, la storia, ecc. letteralmente una marea, e qui e li ci spiattello termini correlati agli hotel in modo da aumentare a dismisura contenuti pertinenti per i motori, e metterci anche delle frasi e key ad hoc!
    L'ho descritto ancora una volta brutalmente, ma il senso è questo più o meno. Non penso che il motore, "capirebbe" ciò che faccio


  • User

    Però ragazzi qual'è l'obbiettivo di un seo???

    Portare un sito tra i primi risultati forniti dai motori di ricerca?

    Ma l'utente che cerca su gg "hotel firenze" sta cercando un hotel a firenze, magari vuole prenotare una stanza ecc.. non un sito che contenga una marea di pagine su firenze su storia cultura locali o quello che volete??

    Il seo dovrebbe, a mio parere, prendere in mano un sito modificare, ottimizzare il codice in maniera tale che risponda ai canoni dei motori di ricerca, scambiare link ecc... insomma far si che nn venga penalizzato per erroi di codice x una struttura non navigabile.

    Il resto lo fa google o l'utente che poi linkerà il sito sul suo blog xè ha ritenuto che il nostro sito sia valido.

    Se poi i contenuti del sito non sono sufficenti per dare popolarità al sito il seo non puo fare altro che comunicare a chi ci ha commissionato il lavoro (potremmo essere noi stessi) di fornirci altri testi immagini qualcosa cmq pertinente all'"obbiettivo del sito"

    questo è un mio parere voi che ne pensate??? si potrebbe aprire una discussione su questo che ne dite?? :ciauz:


  • Super User

    Ma l'utente che cerca su gg "hotel firenze" sta cercando un hotel a firenze, magari vuole prenotare una stanza ecc.. non un sito che contenga una marea di pagine su firenze su storia cultura locali o quello che volete??

    Non ho detto che all'utente tu gli facca vedere questo ma la pagina principale sugli hotel a firenze con tutte le info dettagliate... le altre pagine le linki tutte all principale in modo che solo il motore le considera e il risultato delle serp sia quello effettivo da te voluto.

    Se poi i contenuti del sito non sono sufficenti per dare popolarità al sito il seo non puo fare altro che comunicare a chi ci ha commissionato il lavoro (potremmo essere noi stessi) di fornirci altri testi immagini qualcosa cmq pertinente all'"obbiettivo del sito"

    E'chiaro, se lo fai per l'utente gli chiedi altri contenuti, ma se lo fai per te stesso devi farli tu i contenuti, ed una volta che hai parlato dell'hotel, delle stanza, del cesso, del parquet ed il tuo sito non è posizionato, devi estendere, tra le altre cose i contenuti. Per fare una pagina buona scritta da te con attenzione, ci vuole un giorno, per scopiazzare qualcosa affidando il lavoro anche ad altri data enter, ci vuole una frazione di giorno:
    metodo razionale = 1 pagina al giorno
    metodo tarocco = 10 - 50 - 100 pagine al giorno (oltre a quelle valide e opportune che devono essere sempre presenti)
    Il post è solo uno spunto di studio, ovviamente è un qualcosa per capire se il motore potrebbe accorgersi della situazione!


  • Community Manager

    @micky said:

    Poi all'interno dei vari testi, scrivo qua e la le varie keyword che mi interessano con delle keyfrases opportune messe qua e la in questi testi strampalati!
    Cosa dovrebbe succedere? **

    Che si posiziona peggio di uno con i testi scritti bene.

    Ora vi provoco, forse un pò duro:

    Titolo del Topic:

    provatemi l'intelligenza dello spider

    Primo dovrebbe essere l'intelligenza dell'algoritmo non dello spider, secondo ribatterei, vista la confusione con questo titolo:

    provatemi l'intelligenza dei SEO

    Sono convinto che se anche Google spiegasse come posizionare un sito sul suo motore (e molte indicazioni le dà) e fornisse i sorgenti, pochissimi sarebbero in grado di applicare quei concetti, perchè?

    Semplice, leggete male, poco e svogliati.

    Basterebbe aver letto i concetti del vector model e dell'IR per capire come funzionano le cose, magari approfondendo il tutto con l'espansione della query 🙂

    Non vi offendete, anzi, che sia uno stimolo per andare a studiare quei topic e quei link verdi in alto 😉

    E poi applicateli quei concetti, nelle mille gare-test in cui vi si offre la possibilità di studiare, oppure fate dei test per conto vostro.

    :ciauz:


  • Super User

    @Giorgio said:

    Sono convinto che se anche Google spiegasse come posizionare un sito sul suo motore (e molte indicazioni le dà) e fornisse i sorgenti, pochissimi sarebbero in grado di applicare quei concetti, perchè?

    Semplice, leggete male, poco e svogliati.

    Basterebbe aver letto i concetti del vector model e dell'IR per capire come funzionano le cose, magari approfondendo il tutto con l'espansione della query

    Non vi offendete, anzi, che sia uno stimolo per andare a studiare quei topic e quei link verdi in alto

    No no ma quale offendere! Hai ragione eccome 🙂
    Io accetto sempre le critiche perchè fanno crescere!
    Non sto leggendo le cose che consigli tu perchè sono solo agli inizi e non voglio mettere troppa carne al fuoco.
    Quando avrò un pò di esperienza pratica oltre che teorica passerò a studiare in primo luogo l'information retrieval.
    Ho fatto la mia tesi sull' "active learning nel campo della classificazione automatica di documenti di testo" e ora mi sto mangiando le mani perchè ho solo sfiorato l'argomento IR e motori di ricerca.
    Lo studio è alla base di tutto, altrimenti si diventa degli amanuensi! Ed io non voglio esserlo.
    Il mio post è solo provocatorio, non userò queste tecniche o almeno sempre in parallelo ad un sito che rispetti e che tenga sempre presente le regole: http://www.google.it/intl/it/webmasters/guidelines.html

    😉


  • User Attivo

    Inserire testi a caso purchè sul tema, con in mezzo le due o tre chiavi che ci interessano è sicuramente un modo per confondere le acque agli algoritmi di valutazione dell'attinenza (non dell'indicizzazione!)

    E' chiaro che un algoritmo non ha intelligenza ed il suo limite è dato dalla complessità della sua implementazione, dal numero di variabili che riesce a considerare, dal range di ognuna delle variabili e dai collegamenti creati tra una variabile e l'altra.

    Attualmente, al di là di quello che sperimentalmente si può fare in un laboratorio e di quello che la teoria del IR dimostra possibile, in produzione (cioè in una azienda che deve fare i conti e valutare qual'è il livello qualitativo minimo ed indispensabile e quale il costo massimo sostenibile) gli algoritmi non si sviluppano mai ai massimi livelli.

    La maggior parte dei motori, visto che i loro algoritmi di valutazione dell'attinenza non sono evoluti come potrebbero essere e come in una qualunque università si potrebbe sviluppare (ma poi lì non ci sarebbero i 10 miliardi di pagine, i 100 milioni di termini da collegare, i 100 mila collegamenti possibili tra i vari termini), si lasciano confondere da un testo casuale (anche generato random da appositi programmi).
    Però, c'è un però. Gli algoritmi più sofisticati hanno una "leggera" capacità di crescita data dalla loro facoltà di memorizzare e tener conto di glossari in continuo aumento.
    Grazie all'espansione delle query ed al fatto che il glossario è continuamente alimentato da altre ricerche, il testo generato casualmente perde nel tempo la sua attinenza al tema. La presenza di 4 chiavi su testi di 100 mila parole, può addirittura essere controproducente. Inoltre, alcuni esami sul costrutto delle frasi sono fattibili senza troppi problemi (li fa persino Word) anche se grandi quantità di dati.

    Varie volte s'è dimostrato a chi ha fatto le prove che la generazione di testi in modo random o con acquisizione fraudolenta da altre pagine, ma secondo un criterio rigoroso, è sicuramente più efficace che avere poche pagine o poco testo.
    A parità di dimensione del contenuto, però, il testo random perde.

    Non posso mettere le fonti ed i committenti, per riservatezza, ma queste prove le ho fatte personalmente e ripetetute più volte nel tempo e su sistemi diversi.


  • Super User

    @Fradefra said:

    A parità di dimensione del contenuto, però, il testo random perde.

    🙂 grande Fradefra, è l'essenza del mio ragionamento!
    Sicuramente gli algoritmi dei motori sono reti neurali e quindi apprendono, con una certa saturazione, con il passare del tempo.
    Il discorso è che se uno copia i testi, non indicizzati, (non vuol dire che io lo faccia, si sta parlando si ipotesi, di casi studio!!!) avrà una quantità di contenuti esponenziale, e che quindi potenzialmente potrebbero stracciare letteralmente poche pagine fatte benissimo. E' questo il succo del mio post.
    Le perplessità che mi porto dietro sono queste:
    forse l' aumento a dismisura di pagine potrebbe essere controproducente, perchè aumenterebbero sì i contenuti, ma diminuirebbero il PR ,quindi andrebbe studiata una struttura che preservi il PR di alcune pagine.
    Il fattore link popularity sarà un fattore sempre più importante perchè è l'unico modo per capire se i contenuti e anche la "grafica", il gradimento del sito sono accettabili al di là dell'analisi computazionale dei contenuti.
    Quindi si potrebbe pensare di strutturare un sito con un certo numero di pagine fatte benissimo, e che diano la possibilità di aumentare la LP, e parallelamente, sempre sullo stesso sottodominio, strutturare una marea di pagine che linkano quelle "effettive".