+ Rispondi alla Discussione
Pagina 3 di 5 PrimaPrima 12345 UltimaUltima
Risultati da 101 a 150 di 213

Panda ubriaco?

Ultimo Messaggio di mutazione il:
  1. #101
    Utente Premium
    Data Registrazione
    Nov 2008
    Messaggi
    269
    Citazione Originariamente Scritto da wolf_cub Visualizza Messaggio
    Niente affatto. Ne prenderà in considerazione moltissimi.

    Ho solo detto che tra questi molteplici fattori ce ne deve essere qualcuno predominante e assolutamente oggettivo poichè la user experience come dice il nome stesso può essere in sè soggettiva e quindi non valutabile.

    Ci sono parametri migliori del bounce rate per valutare la user experience nel suo complesso? Chiedo. E' una domanda la mia.
    A quanto pare Google ha creato un algoritmo che, secondo loro almeno, avvantaggia la user experience... purtroppo sono tanti i fattori che utilizza e se pure ci fosse uno più pesante di un altro, non ci è arrivato ancora nessuno... e se qualcuno ci è arrivato se lo tiene stretto .

  2. #102
    Utente Premium
    Data Registrazione
    Nov 2006
    Messaggi
    867
    Uno dei fattori è l'interazione degli utenti con il sito: oltre alle fan page, alle segnalazioni Facebook, al Google+ ho visto che conta molta l'interazione diretta dei commenti.

    Un sito che seguo ha diversi commenti con botte e risposte sia da parte degli utenti che dal proprietario del sito stesso, nei commenti vengono validate ipotesi, aggiunte informazioni, nuovi link ad altri siti in tema... insomma una vera e propria interazione che arricchisce le pagine.

    Non sono commenti fasulli si nota nettamente che c'è "tensione" ed interesse per quelle pagine. E' proprio uno dei siti che ha perso pochissimo ed adesso sta cominciando a guadagnare utenti... (sto parlando di siti medio-grossi, oltre ventimila unici al giorno...)

  3. #103
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da hendez Visualizza Messaggio
    Ma dove li prendi quei dati.
    Giorgio tave 12.000 unici al giorno, al femminile 30.000?
    Dovrebbero fare quasi 10 volte tanto, ma forse intendi incremento.

    Comunque vi state facendo troppe s.eghe mentali su questo panda. Ho letto cose che rasentano la fantasia, si tratta pur sempre di uno script di una azienda!
    Mai sentito parlare di AdPlanner ? Se i dati non sono collegati ad Analytics a mezzo dello stesso proprietario del sito, loro prendono in esame i cookie.
    Da li provengono i dati.
    Poi alfemminile casomai ho detto che è stimato in 130 k , non 30 k !
    Mi spiace che tu non conosca questo strumento e non vedo io da dove tu trai queste stime che per il dominio che ci ospita ad Aprile 2011 registrava circa 20 k contro i circa 12 K di fine agosto , mentre ha fatto registrare un picco ad ottobre 2010 di circa 40 K.
    Non so da dove trai la conclusione che dovrebbe fare almeno 10 volte tanto ( sic ) ma se serve a consolarti TGCOM ne fa attualmente circa 70 k unici, sempre al giorno..e stiamo parlando del TGCOM !!!

    Sarà pure che ci stiamo facendo ...( beeep ) mentali e che tra le tante cose discusse ci siano "cose di fantasia" ma , con molta onestà, se non condividi quanto diciamo basta dire "non condivido" piuttosto che minimizzare ciò che, giusto o sbagliato che sia, stiamo dicendo e tra l'altro senza nemmeno che tu conosca lo strumento ( preziosissimo ) di AdPlanner .

    Ecco io lo sostengo : non condivido ciò che dici. Poi saranno anche ...(beep ) mentali, per carità, e chi lo mette in dubbio , ma sicuramente non sta a te giudicarlo.

    Ultima modifica di bluwebmaster; 21-10-11 alle 16:34

  4. #104
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da 444523 Visualizza Messaggio
    Uno dei fattori è l'interazione degli utenti con il sito: oltre alle fan page, alle segnalazioni Facebook, al Google+ ho visto che conta molta l'interazione diretta dei commenti.

    Temo che tu...abbia ragione.

    @redemption : si , concordo in pieno. Difatti i fattori saranno "multipli" e molto incrociati.

  5. #105
    User L'avatar di p_anhvu
    Data Registrazione
    Aug 2011
    Località
    Brescia
    Messaggi
    65
    ma sinceramente non capisco.
    A me è come se fosse stato "sbloccato" uno o due tre articoli dal mio blog da cui sto facendo un pò di visite.
    L'unico problema che sono trovabili solo con delle keyword specifiche. Usando il plurale non li trova più per esempio...

    Però è già meglio di niente. Preciso che gli articoli "sbloccati" non sono commentati. Non capisco perché sono stati riposizionati su Google mentre gli altri no.
    Può essere che stiano in qualche modo mettendo a posto le cose?
    Insomma per dire, che noi non abbiamo sbagliato niente...

  6. #106
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Il fatto che non le trovi con le keyword al plurale potrebbe essere il famoso taglio alla Long Tail : della serie se prima con "rinoceronte" , sia al singolare che al plurale, trovavi tutti quelli che parlavano sia della savana che dell'animale per se stesso, oggi invece magari è più attento a selezionare quei siti che hanno una keyword density riferita a quella ricercata e con estrema precisione sul termine.

    Vi è mai capitato di fare una ricerca proprio con il termine "rinoceronte" ?
    Io tempo fa ne feci una e...mi sono traovato anche siti che avevano nel testo "sei forte com un rinoceronte" oppure " nemmeno un esercito di rinoceronti" ti scalzerebbe.

    E questi due siti non mi sembravano paralere di rinoceronte come...avrei voluto.

  7. #107
    Moderatore
    Data Registrazione
    Oct 2009
    Messaggi
    1,282
    Salve.

    Vorrei parlare di AdPlanner, di Panda e di quanto è già stato sostenuto in questo lungo e bellissimo thread; giusto per provare a fare un po' di chiarezza se non altro tra le mie idee.

    1) Google Panda è stato attivato per le ricerche in italiano il 12 agosto. Per utilizzare AdPlanner oggi nel determinare i dati di Agosto servono almeno un righello e della fantasia.
    Per giorgiotave.it, ad esempio, vedo i dati fino ad inizio agosto...ma anche ammettendo di averli fino a settembre; mi chiedo:
    Come stabiliamo se il millimetrico calo è fisiologico del Ferragosto o è dovuto a Panda?
    Secondo voi i dati di AdPlanner hanno una confidenza statistica tale da poter fare ragionamenti del genere su un mezzo millimetro di calo tra la metà di agosto e l’inizio di settembre?

    2) Ammettiamo che Panda sia arrivato sulle ricerche in italiano ad Aprile (cosa che non condivido per niente).
    Guardiamo qualche grafico di AdPlanner: cala giorgiotave, calano altri siti nominati nel thread, cala Repubblica, cala il Corriere, cala nel mondo Wikipedia.
    Pessimi anche i dati riguardanti l’Italia di Youtube; mentre Facebook riesce a contenere le perdite.
    O qualcuno prova a spiegarmi cosa è successo da aprile a tutti i siti che mi vengono in mente, oppure sarò costretto a pensare che questo aggiornamento di AdPlanner su come vengono contati i visitatori unici (o uno dei successivi) abbia influito sui grafici.

    Se qualcuno può aiutarmi a capire meglio, lo ringrazio.

    Intanto m’è venuta in mente una frase:
    "Ci sono tre specie di bugie: le bugie, le sfacciate bugie, e le statistiche."

  8. #108
    Utente Premium
    Data Registrazione
    Nov 2008
    Messaggi
    269
    Citazione Originariamente Scritto da bluwebmaster Visualizza Messaggio
    Il fatto che non le trovi con le keyword al plurale potrebbe essere il famoso taglio alla Long Tail : della serie se prima con "rinoceronte" , sia al singolare che al plurale...
    Hai sollevato un quesito secondo me importantissimo, forse il più importante di questa discussione, ok la user exp per Panda ma la cosa che ho notato io è la stessa che hai notato tu: il plurale.

    Infatti con molte key con cui ero raggiunto prima sia in singolare che plurale adesso vengo raggiunto solo in singolare e se ci sono vado molto giù in serp. Questo secondo me potrebbe aver intaccato una percentuale altissima delle visite che ho perso... in fin dei conti è come se ne perdessi quasi la metà o almeno un 40%... era una mia teoria che stavo verificando sui siti colpiti... ma potrebbe non essere del tutto sbagliata.

  9. #109
    User
    Data Registrazione
    Jan 2006
    Messaggi
    405
    Nel mio caso vedo che le visite alle pagine, con le chiavi secche sono rimaste....ho perso invece tutte le visite provenienti dalle chiavi che avevo spinto con i backlinks, quindi mi fa presupporre che con l'ultimo aggiornamento mi hanno sgamato, anche se il lavoro che avevo fatto era stato abbastanza equilibrato...che palle

  10. #110
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Permettimi di fare altrettanta chiarezza nelle mie idee, che possono contribuire magari a farne anche in quella di altri con spirito di condivisione.

    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Salve.
    1) Google Panda è stato attivato per le ricerche in italiano il 12 AGOSTO . Per utilizzare AdPlanner oggi nel determinare i dati di Agosto servono almeno un righello e della fantasia.
    E' vero , il comunicato ufficiale cita la data del 12 agosto , tuttavia è ad aprile che molti notarono i primi sconvolgimenti in serp al punto che tantissimi pensavano, e ne trovi traccia anche su questo forum, che fosse già stato introdotto ad insaputa di tanti.
    Molti pensarono , infatti, a un pre-Panda.
    E sta di fatto, e qui veniamo ad AdPlanner, che proprio a cavallo del mese di aprile 2011 si notano i "crolli" per molti verticali e repentini di accessi.
    E' vero per analizzare i dati di adplanner occorrerebbe un buon righello, ma la fantasia credo, che per una volta tanto, la si possa mettere da parte.
    Vero è che infatti molti dati si fermano ad agosto 2011 e, non so perchè e non so spiegarmi come, per altri sono riportati fino a fine settembre, ma è anche vero che , centinaia in più centinaio in meno, le metriche quelle sono.
    Difatti non a caso moltissimi accettano per buoni quei dati.


    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Per giorgiotave.it, ad esempio, vedo i dati fino ad inizio agosto...ma anche ammettendo di averli fino a settembre; mi chiedo:
    Come stabiliamo se il millimetrico calo è fisiologico del Ferragosto o è dovuto a Panda?
    Non me ne voglia nessuno, ma qui va data una spiegazione ( e chiedo scusa al buon Giorgio, ma era un esempio come tanti ).
    Mi spiace ma non si tratta di "millimetrico" calo "fisiologico" dovuto all'estate.
    E spiego : intanto il dato può essere chiaramente e facilmente confrontabile con quello del periodo corrispondente, ovvero agosto 2010.
    Se è estate adesso, era estate anche l'anno scorso e i dati parlano per agosto 2010 di qualche millimetro sotto i 20.000 unici , mentre ad agosto 2011 si vede chiaramente essre posizionata alcentro tra lo zero e 20.000 che indica quindi un valore prossimo a 10.000, quindi praticamente dimezzato rispetto all'estate precedente.
    Ma non solo : se ci posizioniamo su Giugno 2010 siamo intorno ai 32.000 , millimetro più millimtero meno, se guardiamo la tacchetta corrsipondente a giugno 2011 noteremo che è "collassata" a circa 14.000 , millimetro più millimetro meno.
    Se poi prendiamo il periodo interessato, come abbaimo sostenuto alcuni di noi come pre-panda, ovvero aprile 2011-giugno 2011 noteremo che il dominio in questione dimezza praticamente gli accessi, che ad aprile 2011 erano circa come quelli di...luglio 2010 ( in piena estate precdente ! ).

    Questo per dire che o disconosciamo completamente i dati provenienti da AdPlanner come di "fantasia" e "inventati" , ma non da me, ma da Google, e allora va bene uguale, anche se poi non si capisce perchè in alcuni casi questi dati di AdPlanner vengono sbandierati, oppure se si ammette che abbiano un minimo di "riscontro" nella realtà, la lettura può farla chiucnque con o senza righello, ma di sicuro senza nessuna "fantasia" ossia senza nessuna "invenzione" da parte di chi li riporta fedelmente.




    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Secondo voi i dati di AdPlanner hanno una confidenza statistica tale da poter fare ragionamenti del genere su un mezzo millimetro di calo tra la metà di agosto e l’inizio di settembre?
    Purtroppo non è un calo millimetrico e, come tu stesso riconosci e ammetti dopo , io ho riportato anche quelli di tanti siti "blasonati" e ho citato quello del dominio che ci ospita per dovere di cronaca ( brutta cosa il dovere di cronaca ti può creare dei nemici ) e non perchè "godevo" della cosa, limitandomi a fare un paragone tra aprile 2011 e agosto 2011 senza "allungarmi" al corrispondente periodo estivo dell'anno precedente per evitare di ...affondare .

    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    2) Ammettiamo che Panda sia arrivato sulle ricerche in italiano ad Aprile (cosa che non condivido per niente).
    Guardiamo qualche grafico di AdPlanner: cala giorgiotave, calano altri siti nominati nel thread, cala Repubblica ....
    O qualcuno prova a spiegarmi cosa è successo da aprile a tutti i siti che mi vengono in mente, oppure sarò costretto a pensare che questo aggiornamento di AdPlanner su come vengono contati i visitatori unici (o uno dei successivi) abbia influito sui grafici.
    Purtroppo queste spiegazioni non posso dartele io, ma dovrebbe dartele Google.
    E ti dirò : questo è uno dei pochissimi forum dove alcuni specialisti SEO intervengono nella discussione confromntandosi e misurandosi.
    Altrove sto leggendo il deserto assoluto da parte di SEO anche "blasonati" perchè la verità sta nella semplice frase ..."ciò che era vero non lo è più" con l'aggiunta che molti ...brancolano nel buio assoluto.
    E non sono d'accordo , perdonami la franchezza, sul fatto che AdPlanner abbia mutato i criteri di contabilizzazione deglu unici, per il semplice fatto che per alcuni siti questi sono collegati a Google Analytics direttamente dal publisher !!!
    Se fosse vera la tua tesi significa che anche Analytics è diventato inaffidabile?

    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Intanto m’è venuta in mente una frase:
    "Ci sono tre specie di bugie: le bugie, le sfacciate bugie, e le statistiche."
    A me torna in mente invece il concetto che "il dovere di cronaca" crea molti nemici , ma rende amica la verità.
    E sai che un giornalista non deve mai avere paura di crearsi nemici avendo il coraggio di dire la verità ( o realtà, come preferisci).

    Inoltre mi permetto di correggere il tiro : quelle di AdPlanner non sono "statistiche" intese come quello che un italiano su due mangia un pollo a settimana, dunque ha mangiato mezzo pollo a testa anche se poi , nella realtà, non l'ha mangiato, ma sono "registrazione" puramente contabile di accessi mediante coockie dei visitatori.

    Del resto se hai letto, come credo, tutto il post ...sono tantissimi che lamentano una caduta verticale con dati analytics alla mano ( e anche adsense ).

    Un ultima cosa : io, come altri, abbiamo sempre sostenuto che è da aprile 2011 che si è verificato il "crollo" quasi come se fosse stato un pre-panda.
    Molti , soprattutto specialisti, si sono ostinati a dire che non c'era ancora nulla ( e ci facevano anche dell'ironia !!! ) : una sfacciata bugia ?

    E mentre il medico studiava...i malati soccombevano !

  11. #111
    Moderatore
    Data Registrazione
    Oct 2009
    Messaggi
    1,282
    Speravo di essermi spiegato meglio.
    Mi scuso e provo a chiarire qualcosa che forse non sono riuscito a comunicare con efficacia.

    Quando ho parlato di cali millimetrici su AdPlanner mi sono sempre riferito al calo di Panda: dati da agosto a settembre di questo anno.
    Chiamare pre-Panda il centinaio di cambiamenti algoritmici che ci sono stati tra aprile e Ferragosto e post-Panda quelli successivi è, a mio modo di vedere, fuorviante perché lascia sottintendere che tutti gli aggiornamenti siano legati a Panda.

    Riconoscere che i cali da metà agosto a settembre su AdPlanner sono (nei migliori dei casi) millimetrici è questione molto oggettiva e di buon senso, secondo me.

    Curiosità: per il sito giorgiotave.it, fino a quando vedi i dati? Fino ad inizio agosto o fino a settembre?

    Torniamo invece sullo strumento in se: dopo aver constatato che AdPlanner riporta cali di traffico per tutti i siti che ti ho citato e dopo aver letto un post ufficiale che ti ho linkato dal titolo "A new way to measure unique visitors to Ad Planner", come fai a sostenere questa frase?
    Non sono d'accordo , perdonami la franchezza, sul fatto che AdPlanner abbia mutato i criteri di contabilizzazione deglu unici
    Solo basandoti sul fatto che qualcuno collega Analytics ad AdPlanner? Non ci trovo alcun nesso logico.

    Un'altra tua citazione che merita essere chiarita:
    E sai che un giornalista non deve mai avere paura di crearsi nemici avendo il coraggio di dire la verità ( o realtà, come preferisci).
    Tu hai detto la verità quando hai mostrato i grafici di AdPlanner. Da quando hai cominciato a sostenere che quei dati rappresentassero la realtà di come sono andate veramente le visite sui siti hai abbandonato il sentiero della "realtà" ed hai imboccato quello della supposizione.
    Io ho semplicemente fatto notare che se veramente i dati di AdPlanner rappresentassero la realtà, sia Wikipedia che Youtube, che il Corriere che Repubblica che Facebook avrebbero perso visitatori.

    Mi permetto di farti una domanda: tu pensi che tutti questi siti (oltre ad altri che puoi cercare) abbiano perso così tanti visitatori o pensi di aver utilizzato male lo strumento?

    Spero di essere stato più diretto e chiaro, andando al nocciolo della questione; anche se mi dispiace non aver approfondito tutti gli argomenti sollevati.

    Un'ultima cosa: mai ho pensato alla cattiva fede da parte tua; dal mio personale punto di vista sei un utente encomiabile.

  12. #112
    Utente Premium
    Data Registrazione
    Nov 2006
    Messaggi
    867
    Citazione Originariamente Scritto da bluwebmaster Visualizza Messaggio
    Un ultima cosa : io, come altri, abbiamo sempre sostenuto che è da aprile 2011 che si è verificato il "crollo" quasi come se fosse stato un pre-panda.
    Molti , soprattutto specialisti, si sono ostinati a dire che non c'era ancora nulla ( e ci facevano anche dell'ironia !!! ) : una sfacciata bugia ?

    E mentre il medico studiava...i malati soccombevano !
    Non posso che quotarti, basta trovare anche qualche mio post dove ne parlavo apertamente. Certo, per me era più facile perchè ho archiviato in questi ultimi anni (per la precisione 6) un database enorme di dati e notavo chiaramente che non era un semplice "stravolgimento" delle serp per l'introduzione di qualche nuovo algoritmo (come tutti sappiano Google ne immette centinaia l'anno...).

  13. #113
    L'avatar di Giorgiotave
    Data Registrazione
    Oct 2004
    Località
    Monasterace
    Messaggi
    44,418
    Visita il canale Youtube di Giorgiotave
    Per quanto riguarda i dati di Giorgiotave.it vi sbagliate di grosso, giusto oggi citavo su Twitter l'inaffidabilità di alcuni dati.

    Il nostro Network raggiunge i 35.000 unici al giorno.

    Vi mostro i dati della gran parte degli accessi di Giorgiotave.it che sfiorano i 30.000 (in queste statistiche mancano alcune parti del sito).

    1 Gennaio 2010 - 22 Ottobre 2010


    1 Gennaio 2010 - 22 Ottobre 2011


    L'ultimo grafico si riferisce a oggi, mancano circa 10.000 accessi perchè lo screenshot è fatto di pomeriggio.

    Se confronto il numero di accessi, rispetto al 2010 abbiamo perso circa 150 accessi al giorno

    Tenendo presente che stiamo abbandonando alcuni progetti come il Social, mi pare un dato normale dovuto al progetto in se (la home vecchia era un danno ad esempio).

    Non siamo stati colpiti da Panda assolutamente, nè i nostri dati sono in calo.

    Mi confronto spesso con LaBussola e devo dire che concordo con lui

    Non ho paura di mostrarvi i dati, ci mancherebbe, mi piace molto condividere e lo faccio volentieri.

    Ai nostri eventi entriamo sempre nel dettaglio di Analytics e Strumenti per webmaster di Giorgiotave.it

    Condividiamo insieme quel poco che sappiamo, tramite un forum, per lasciare traccia del sapere a chi vuole imparare!

  14. #114
    Utente Premium
    Data Registrazione
    Nov 2006
    Messaggi
    867
    Citazione Originariamente Scritto da Giorgiotave Visualizza Messaggio
    Per quanto riguarda i dati di Giorgiotave.it vi sbagliate di grosso, giusto oggi citavo su Twitter l'inaffidabilità di alcuni dati.

    Il nostro Network raggiunge i 35.000 unici al giorno.
    Gli arrivi da Google sono identici, Giorgio?

    Adplanner per quanto riguarda gli accessi unici li misura con gran difetto, però, per la tendenza, con il mio network, ci ha preso in pieno.

    La curva di discesa e la tendenza al ribasso è perfettamente compatibile... ci sarebbe da capire perchè per alcuni siti, come il network di Giorgio, queste tendenze siano completamente sballate...

  15. #115
    L'avatar di Giorgiotave
    Data Registrazione
    Oct 2004
    Località
    Monasterace
    Messaggi
    44,418
    Visita il canale Youtube di Giorgiotave
    Citazione Originariamente Scritto da 444523 Visualizza Messaggio
    Gli arrivi da Google sono identici, Giorgio?
    Yes!

    Il calo di accessi giornaliero di cui ti parlavo, 150 al giorno, se prendo solo la fonte Google è di 130 al giorno.

    Cioè è per dire, non è che Google è calato di 5.000 e gli altri son saliti. La percentuale è la stessa.

    Sono identici.

    Ultima modifica di Giorgiotave; 22-10-11 alle 19:13
    Condividiamo insieme quel poco che sappiamo, tramite un forum, per lasciare traccia del sapere a chi vuole imparare!

  16. #116
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Quando ho parlato di cali millimetrici su AdPlanner mi sono sempre riferito al calo di Panda: dati da agosto a settembre di questo anno.
    Io personalmente, ma credo anche altri, non hanno mai parlato di dati tra agosto e settembre, ma sempre e soltanto, o quasi , di dati tra aprile 2011 e settembre 2011 .
    E dal momento che "estate" si definisce il periodo al massimo che va dal 15 luglio al 30 agosto ( crisi esclusa ! ) , io non mi sono mai sognato di fare un confronto tra questi periodi.

    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Chiamare pre-Panda il centinaio di cambiamenti algoritmici che ci sono stati tra aprile e Ferragosto e post-Panda quelli successivi è, a mio modo di vedere, fuorviante perché lascia sottintendere che tutti gli aggiornamenti siano legati a Panda.
    Sono in completo disaccordo, anche sul termine "fuorviante" che non amo in particolare , anzi credo che sia fuorviante esattamente l'opposto, ossia non ammettere che si stava muovendo qualcosa di "importante" verso aprile perchè da quel periodo sono iniziati crolli di unici mai visti prima proprio per quei portali "blasonati" , ma crolli verticali nel vero senso della parola.
    Io non sono uno specialista, ci mancherebbe, ma credo che molti specialisti si siano trovati "impreparati" all'evento e mentre "dormivano sonni tranquilli" qualcosa accadeva : ora chiamalo pre-panda, chiamalo pandino, pandetto o come più ti aggrada , di certo è che in quel momento è iniziato un "cambio epocale" mai visto negli ultimi anni.
    Se per te questo fa parte di uno dei normali algoritmi introdotti ogni mese da Google, io non sono d'accordo per nulla.
    Ho letto su un paio di altri forum ( non ferquento solo questo ) di "specialisti SEO" che continuavano a ripetere di stare tranquilli, altri ironizzavano , che non stava accadendo nulla, salvo poi , quando sono iniziati i cambiamenti a ...dileguarsi per almeno due ordini di motivi tra cui il primo è che invece "qualcosa accadeva" e il secondo è che "brancolano nel buio assoluto" .

    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Riconoscere che i cali da metà agosto a settembre su AdPlanner sono (nei migliori dei casi) millimetrici è questione molto oggettiva e di buon senso, secondo me.
    Torno a ribadire, a meno che la mia senilità precoce non mi giochi brutti scherzi, che io non ho mai parlato di scostamenti tra agosto e settembre, ma tra aprile e settembre.
    Se mi dici dove ne ho parlato te ne sarei grato...non vorrei che la senilità fosse davvero precoce al massimo.

    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Curiosità: per il sito giorgiotave.it, fino a quando vedi i dati? Fino ad inizio agosto o fino a settembre?
    Vedo qualche "millimetro" oltre la tacchetta riferita ad agosto.


    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Solo basandoti sul fatto che qualcuno collega Analytics ad AdPlanner? Non ci trovo alcun nesso logico.
    Alloara mi stai dicendo che AdPlanner è una "monnezza" , non serve a niente e possaimo anche cestinarlo?
    In una discussione proprio su questo forum io ebbi dei dubbi su AdPlanner , e alcuni "specialisti SEO" , non ricordo chi davvero, mi dissero invece che era affidabilissimo o quasi ( era una discussione a proposito degli unici di TGCOM ).
    Insomma basta mettersi d'accordo : è affidabile o no?

    Perchè anche collegandolo ad Analytics, AdPlanner, se non ho capito male , purga le visite oltre la prima , ossi arende i dati per unici.

    Perchè la curva di analytics , se non ricordo male, dice il totale delle visite , ma bisogna andare sulla curva visitatori "unici" , in quanto se io torno più volte , la prima curva mi contabilizza più volte.
    In altre parole , se io fidelizzo di più le persone , e queste tornano più volte al giorno, se io prendo in esame la prima curva della dashboard avrò un dato nettamente superiore a se vado a vedere la curva degli unici.

    E difatti confrontando i dati dei miei siti , quelli delle curve degli unici , con i dati di AdPlanner , questi coincidono quasi alla perfezione.
    Almeno nel mio caso.




    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Tu hai detto la verità quando hai mostrato i grafici di AdPlanner. Da quando hai cominciato a sostenere che quei dati rappresentassero la realtà di come sono andate veramente le visite sui siti hai abbandonato il sentiero della "realtà" ed hai imboccato quello della supposizione.
    La supposizione nasce da un ragionamento su dati astratti , quelli di AdPlanner , credo di aver capito , sono basati sugli unici dati dai cookies e, perlomeno per i miei siti, coincidono perfettamente o quasi con "gli unici" ripeto.
    Perchè è su questo che ci dobbiamo confrontare, altrimenti facciamo come un noto capo di stato che contava 1000 carri armati , ma in realtà erano solo 50 che passavano più volte.

    Se quel capo di stato avesse mostrato la curva dei passaggi ( visitatori ) chiunque sarebbe stato disposto ad ammettere che earno effettivamente 1000 carri armati, ma gli "unici" invece avrebbero mostarto la realtà, ossia 50 !



    Citazione Originariamente Scritto da LaBussola Visualizza Messaggio
    Mi permetto di farti una domanda: tu pensi che tutti questi siti (oltre ad altri che puoi cercare) abbiano perso così tanti visitatori o pensi di aver utilizzato male lo strumento?
    Se io prendo la medesima curva a partire da luglio 2010 e ne seguo l'andamento, a parte i criteri che possono essere cambiati, se noto che per molti siti la curva va a picco e per altri sale ( io ho più siti , alcuni crescono altri perdono ) e tutto nello stesso arco di tempo, e tutti a partire quasi dalla stessa data e ...raccogli la lettura di molti post che ti parlano di crolli a partire da aprile ( e credo che utilizzino analytics o altri strumenti ) ...allora, mi spiace, forse ti deluderò, non sono io ad aver utilizzato male lo strumento.
    Poi magari pecco di presunzione, e ne chiedo scusa, ma non credo di aver utilizzato male lo strumento visto che io non ho mai parlato di scostamenti tra fine luglio e inizi di agosto , ma di dati tra aprile e settembre.

    Ti abbraccio.

  17. #117
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da Giorgiotave Visualizza Messaggio
    Yes!

    Il calo di accessi giornaliero di cui ti parlavo, 150 al giorno, se prendo solo la fonte Google è di 130 al giorno.

    Cioè è per dire, non è che Google è calato di 5.000 e gli altri son saliti. La percentuale è la stessa.

    Sono identici.


    Giorgio, scusami , le curve che hai pubblicato sono quegli degli accessi generali che si evince subito dalla dashboard , o quella degli unici?

    No , mi spiego, ti chiedo perchè io se vedo gli accessi del giorno, non mi ci ritrovo con i dati di AdPlanner, perchè questo tiene conto degli "unici" e non già quindi di tutti quelli che ritornano ( come il sottoscritto ) facendo più visite al giorno.

    Se considero quella io , con i miei dati di adplanner mi ci ritrovo quasi alla perfezione.

  18. #118
    User
    Data Registrazione
    Jan 2008
    Messaggi
    99
    Citazione Originariamente Scritto da bluwebmaster Visualizza Messaggio
    Vedo qualche "millimetro" oltre la tacchetta riferita ad agosto.
    Mi dispiace ma, come immaginavo quando ho chiesto lumi alcuni giorni fa, non sai leggere il grafico di Adplanner.
    Per giorgiotave.it il grafico fornisce i dati fino a luglio compreso.
    Se qui ognuno si inventa dati a caso diventa difficile fare ragionamenti attendibili.

  19. #119
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da bluemountains Visualizza Messaggio
    Mi dispiace ma, come immaginavo quando ho chiesto lumi alcuni giorni fa, non sai leggere il grafico di Adplanner.
    Per giorgiotave.it il grafico fornisce i dati fino a luglio compreso.

    Qui nessuno si inventa niente , sia ben chiaro.
    Ho detto nessuno, perchè io non ho parlato di differenze tra fine luglio e agosto, ma ho riscontrato quello che è sotto gli occhi di tutti, i dati di aprile con quelli, vogliamo dire fine luglio ? E diciamolo.

    Ma la realtà non la si può cambiare .
    Vogliamo dire che AdPlanner ha cambiato "metrica" per gli accessi unici?
    Diciamocelo pure, però poi qualcuno mi dovrebbe spiegare come mai , se vado su adplanner, alcuni miei siti "picchiano" di brutto da aprile 2011 , altri , nello stesso periodo volano verso l'alto.

    E se di questi siti prendo la curva di Analytics , ma quella dei visitatori unici, non quella degli accessi ( che contiene tutte gli accessi, compresi quelli che ritornano ) e la confronto con quella di AdPlanner i dati quasi coincidono e le differenze sono davvero minime.

    Allora per farla breve : AdPlanner ci azzecca solo con me?

    Rispondete per favore.

    Non trattandosi solo del dominio che ci ospita ( giorgiotave ) , ma di tantissimi altri , ho impressione che qualcuno si sia risentito pensando a una contestazione.

    Se gli unici di questi altri siti non coincidono con gli unici registrati da AdPlanner sono felice per loro , significa che sono l'unico sfigato con cui ci ha azzeccato.

  20. #120
    L'avatar di Giorgiotave
    Data Registrazione
    Oct 2004
    Località
    Monasterace
    Messaggi
    44,418
    Visita il canale Youtube di Giorgiotave
    Citazione Originariamente Scritto da bluwebmaster Visualizza Messaggio
    Giorgio, scusami , le curve che hai pubblicato sono quegli degli accessi generali che si evince subito dalla dashboard , o quella degli unici?
    Gli accessi unici di GT variano dal 65% al 70% del totale a secondo delle zone del sito.

    Ma non abbiamo subito cali in questi anni, nè per gli accessi unici, nè per gli accessi provenienti da Google.

    Giorgiotave.it in questi ultimi anni ha avuto una stabilità in tutti i vari dati. Le uniche viarianti, ma di poco conto, sono un pò di accessi dai Social...però ci sono diminuite le visite dai motori più piccolini.

    Io ho sempre sostenuto che AdPlanner scazza. Infatti come ci segna meno unici, ci segna 3.5 milioni di pagine viste. Noi arriviamo, quando va bene e con tutto il Network a 2.

    Il tempo sul sito ad esempio, è di 5 minuti. Ma da noi le persone ci stanno circa 2. Anzi, se prendo alcuni dati relativi a tutto Giorgiotave.it ci stanno poco più di un minuto.

    AdPlanner e anche Google Trends for website, ci segnalava periodi (attenzione non giorni che ci sono stati) con 32-33k al giorno di unici. Che significa 45.000 visite. Cose che mai abbiamo fatto.

    C'è stato solo un periodo in cui i dati coincidevano per noi: quando hanno lanciato i servizi...i primi mesi coincidevano fedelmente. Poi io mi ricordo varie polemiche e cominciarono a variare.

    Tra le altre cose noi abbiamo rilasciato sempre i nostri dati qui sul forum

    E, se vogliamo proprio dirla tutta, mi è successo più volte di segnalare quando abbiamo avuto problemi con i motori di ricerca, una volta con una case history sul BadRank con un altro dominio, l'altra volta è una case history di cui ho scritto ma ora non ricordo in quale sezione...quanto tutto il forum gt fu deindicizzato da Google per un errore della Sitemap (colpa di Google) e noi per un mese perdemmo parecchio traffico, da Google verso il forum perdemmo il 99%, ma nonostante questo l'attività del forum perse solo un 30%

    Mai avuto problemi a mostrare i dati o dire se abbiamo problemi (altra case history quella del PR abbassato per vendita di link, ingiustamente)

    Ultima modifica di Giorgiotave; 22-10-11 alle 22:49
    Condividiamo insieme quel poco che sappiamo, tramite un forum, per lasciare traccia del sapere a chi vuole imparare!

  21. #121
    User
    Data Registrazione
    Jun 2008
    Località
    Bari
    Messaggi
    69
    Gli aggiornamenti di Google sono come i nuovi sitelink. Cambiano in continuazione. In pratica Google permette un turnover all'interno della serp. Per questo siamo qui a parlare di chi perde o di chi guadagna. Se vogliamo parlare di qualità di siti secondo me siamo sulla strada sbagliata. Io vedo su Google siti realizzati malissimo ma posizionati bene. Chissà quante visite tolgono a siti molto più blasonati. Voglio dare anch'io un contributo a questa community. Ho portato avanti un esperimento durato un anno circa per testare alcune tecniche SEO. Ho seguito tutte le combinazioni più importanti del sito e ho notato pochissimi cambiamenti di posizione nella serp. In compenso ho perso quasi il 70% delle visite. Questo calo è iniziato a Luglio e molto lentamente prosegue. Allora sono andato a fare la prova del 9 ad una mia teoria. Ho aperto i log dei siti dei miei clienti e ho notato la stessa cosa. Mi sono dato una risposta molto semplice che credo nessuno accetterà. Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network. Io stesso perdo molto meno tempo a cercare la news sul "terremoto" perchè mi viene passata direttamente da Twitter o Facebook. Addirittura se prima cercavo il "residence sul mare a poco prezzo", adesso leggo direttamente l'annuncio dal mio amico su facebook senza nemmeno cliccare.

  22. #122
    Esperta L'avatar di cassiopea
    Data Registrazione
    Jan 2006
    Località
    Verona
    Messaggi
    1,890
    Ciao Formatoweb,

    questo se fosse confermato sarebbe un grosso problema per molti webmaster.
    Perché un conto è mettere un piccolo riassunto e un link al sito e un'altro mettere proprio il testo completo su Facebook.

    Se si fa informazione diretta e completa sui social, ci credo che poi i siti e blog perdono utenti!

    Il Panda a questo punto non sarebbe più l'unica causa.

    Poi stavo pensando ad una cosa, se le pagine sono quelle a cui si può accedere solo se si è amici, è possibile controllare con copyscape eventuali contenuti duplicati e prendere provvedimenti?

  23. #123
    User
    Data Registrazione
    Jul 2011
    Località
    liguria
    Messaggi
    28
    Citazione Originariamente Scritto da formatoweb Visualizza Messaggio
    Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network. Io stesso perdo molto meno tempo a cercare la news sul "terremoto" perchè mi viene passata direttamente da Twitter o Facebook. Addirittura se prima cercavo il "residence sul mare a poco prezzo", adesso leggo direttamente l'annuncio dal mio amico su facebook senza nemmeno cliccare.
    Credo che ci sia qualcosa di vero in quello che dici.

    Google è continuata a crescere di traffico fino a quest'anno, è stata quasi raggiunta da facebook (120 contro 150 milioni di users giornalieri) ma comunque anche google è cresciuta. Che sia oramai al culmine non vi è dubbio, secondo me. Come qualità motore rimane comunque il meglio in circolazione, gli altri non sono nemmeno lontanamente paragonabili.

    Bisogna vedere, però, se l'users futuro ha ancora voglia di cercare sul web oppure instrattenersi come con la tv. in questo ultimo caso allora i socials e i motori tipo yahoo-msn potrebbero avere la meglio, visto che offrono proprio l'intrattenimento come risorsa principale piuttosto che la ricerca.
    I motori cinesi ne sono un esempio. Stanno avendo un successo mostruoso sull'idea di yahoo.

  24. #124
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da Giorgiotave Visualizza Messaggio
    Gli accessi unici di GT variano dal 65% al 70% del totale a secondo delle zone del sito.
    Io ho sempre sostenuto che AdPlanner scazza.
    Mai avuto problemi a mostrare i dati o dire se abbiamo problemi.
    Intanto grazie per la precisazione, che, grosso modo , sono in linea con l'esperienza dei miei siti : anche per me il totale degli accessi deve essere depurato di un buon 30/35 % circa per ottenere la curva degli unici.
    Infatti per un paio di miei siti la curva degli accessi segna circa 12.000 ( analytics ) , quella degli unici circa 8.000 e AdPlanner parla per quei siti di circa 8000 unici ( ovviamente sempre al giorno ) , quuindi quasi perfettamente in linea.

    Ti avevo chiesto questo per disporre di dati omogenei e confrontabili , perchè AdPlanner ragiona ( o dovrebbe ragionare ) per "unici" nel corso dell'intero giorno e avevo capito che quelle da te pubblicate erano curve relative al totale degli accessi , e non relativi agli unici.

    Se AdPlanner "scazza" non sta a me dirlo perchè non sono affatto uno "specialista" , e quando non conosco qualcosa cerco, nei limiti del possibile, di non parlarne.

    Tuttavia non capisco una cosa, e questo da sola varrebbe una discussione.
    Credo di aver capito che AdPlanner venga consigliato soprattutto agli investitori pubblicitari che poi si riversano in AdWord ( ---> AdSense ) come "strumento" per la "valutazione" di un sito.
    Bene ma se i dati fossero "farlocchi" , mi chiedo se Google ha per caso serie intenzioni di suicidio.

    Per esempio nel caso di Liquida ( ma di tante altre realtà ) c'è un forte crollo registrato : questi potrebbero avere qualcosa da ridire nei confronti dello stesso Google che in questo modo "declassarebbe" arbitrariamente quei siti.
    Non credete?

    Un ultimissima cosa : nei giorni in cui Panda Update fu applicato alla serp anglosassone, leggevo di varie persone che sono intervenute parlando di questo o di quell'altro crollo.
    Con quali dati si verificavano questi crolli?

    Mi spiego : ci sono altri strumenti , oltre AdPlanner, di monitoraggio di quei siti di cui si diceva essere crollati ?

    Ci devono essere per forza altri strumenti con i quali venivano misurati, altrimenti, non capisco una cosa .

    Se per misurare i "crolli anglosassoni" si è utilizzato come strumento AdPlanner, perchè questo non dovrebbe essere vero per l'Italia ?

    Ma a questo punto sono sicuro che esisteranno altri strumenti che , dal basso della mia ignoranza,...ignoro appunto.


    P.S. a margine di questa discussione ecco un dato davvero interessante : per i domini google sia com che it i dati su AdPlanner non sono disponbili...questa è buona davvero !
    Ultima modifica di bluwebmaster; 23-10-11 alle 11:30

  25. #125
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da formatoweb Visualizza Messaggio
    Io vedo su Google siti realizzati malissimo ma posizionati bene. Chissà quante visite tolgono a siti molto più blasonati.

    Voglio dare anch'io un contributo a questa community. Ho portato avanti un esperimento durato un anno circa per testare alcune tecniche SEO.

    Addirittura se prima cercavo il "residence sul mare a poco prezzo", adesso leggo direttamente l'annuncio dal mio amico su facebook senza nemmeno cliccare.
    Siti fatti bene e quelli fatti male, a mio avviso , ci saranno sempre .
    Non credo, salvo miglior parere, che Google sia in "crisi" o quasi : credo che ci sia un "tornado" di rinnovamento proprio in virtù del fatto che G. è e resta il miglior motore di ricerca e che bene o male il suo lavoro lo fa e anche discretamente bene.

    La tua esprienza è molto interessante e sarebbe bella approfondirla, sempre che tu sia disponibile.

    Che i social network abbiano cambiato in qualche modo la "ragnatela delle informazioni" non vi è dubbio , ma che possano sostituire, anche alla lunga, un motore di ricerca mi sembra difficile.
    E per una serie di fattori su cui non mi dilungo, ma che si possono intuire.
    Ma mentre un social network fa parte dello schema della globalizzazione, quello dei motori fa parte della "pratica" di navigazione in internet.

    Ad esempio tra non molto i social network tipo facebook potrebbero accusare un grosso colpo : c'è un "facebook" nato da non molto che condivide con gli account il ricavo della pubblicità e questo, se Google ci mette le mani ( e sembra ne abbia l'intenzione ) potrebbe essere un macete per i "blasonati" social network.

    Poi , ovvio, è opinabile : ma la cosa certa è che ancora oggi, anche a fronte di tanti nuovi strumenti disponibili, la maggioranza degli accessi ai siti viene garantita da Google , e fino quando questo accadrà resterà sull'onda del successo.

  26. #126
    Moderatore L'avatar di gianrudi
    Data Registrazione
    Apr 2008
    Località
    ventimiglia
    Messaggi
    1,115
    La definizione di visitatore unico su AdPlanner:
    Visitatori unici (utenti)
    Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
    sembra indicare che AdPlanner non ragiona per "unici" nel corso dell'intero giorno (come fa invece gg Analytics), bensì per "unici" nel corso dell'intero mese.

    Cosa che a mio parere rende i due valori non comparabili, perchè un visitatore che torna sul sito tutti i giorni per un mese conta 1 per AdPlanner e conta 30 per Analytics.

    A meno che l'espressione "non duplicate" incorpori il concetto di non duplicate nell'arco della giornata.

  27. #127
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da gianrudi Visualizza Messaggio
    La definizione di visitatore unico su AdPlanner:
    Visitatori unici (utenti)
    Il numero stimato delle persone, non duplicate, che visitano un sito in un mese specifico.
    sembra indicare che AdPlanner non ragiona per "unici" nel corso dell'intero giorno (come fa invece gg Analytics), bensì per "unici" nel corso dell'intero mese.

    A meno che l'espressione "non duplicate" incorpori il concetto di non duplicate nell'arco della giornata.
    Grazie.
    Infatti sono andato a guardare più a fondo il sito.
    In pratica il dato riportato sul grafico riguarda i "visitatori unici" (utenti) ( A ) nel mese, ossia, come recita la spiegazione, il "reale pubblico" che si può raggiungere effettivamente, mentre i "visitatori unici" ( cookie ) ( B ) sono proprio gli accessi totali tenendo presente il giorno, poi è riportato il numero totale di visite ( C ) .
    Mentre gli accessi totali

    In pratica la curva C è quella che corrisponde, su Analytics, al totale degli accessi , mentre la curva A corrisponde grosso modo agli effettivi visitatori , depurati dai ritorni anche nel mese e quindi il "pubblico reale che si può raggiungere" .

    Ora mi è tutto più chiaro.
    Ultima modifica di bluwebmaster; 23-10-11 alle 12:19

  28. #128
    Utente Premium
    Data Registrazione
    Nov 2006
    Messaggi
    867
    Citazione Originariamente Scritto da bluwebmaster Visualizza Messaggio
    Grazie.
    In pratica la curva B è quella che corrisponde, su Analytics, al totale degli accessi , mentre la curva A corrisponde grosso modo agli effettivi visitatori , depurati dai ritorni non solo nello stesso giorno, ma anche nello stesso mese.
    Ad ogni modo AdPlanner con me dice la verità, il crollo c'è stato lo evidenzia benissimo... non credo sia una fonte di dati da buttare a mare. Forse da prendere con le pinze... ma non spara proprio dati a casaccio, o perlomeno non con tutti i siti.

  29. #129
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Da una verifica accurata , sia sui siti che hanno fatto boom, sia su quelli "crollati" ( parlo dei miei , ovviamente ) i dati sono veritieri con piccolissimi margini di errore.

    Per gli altri non so ma mi conforta la tua esperienza.

    Ovviamente la curva espone solo il "pubblico reale" che si può raggiungere, cio , in pratica, salvo migliore spiegazione, il numero di italiani effettivi che ogni mese si collegano a un sito, dato chiaramente importante per l'investitore.

    Perchè se un sito ha ad esempio una community o un forum o delle news questo ovviamente avrà un alto numero di ritorni anche nel mese.

    Questo potrebbe servire anche per capire qualcosa di più di questo Panda.
    Credo.

  30. #130
    Utente Premium L'avatar di Lionard84
    Data Registrazione
    Aug 2009
    Località
    Toscana
    Messaggi
    325
    Segui Lionard84 su Twitter Aggiungi Lionard84 su Google+ Aggiungi Lionard84 su Facebook Aggiungi Lionard84 su Linkedin Visita il canale Youtube di Lionard84
    Io aggiungerei l'utilizzo dei filtri (io ad esempio lo uso molto) per cercare le notizie o qualcosa avvenuto in un determinato periodo.
    Non credo che google abbia perso potere, solo che ha rallentato la sua crescita, poi ormai con il potenziamento di google maps e l'aggiunta di google plus un pò tutto è cambiato

  31. #131
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da Lionard84 Visualizza Messaggio
    Non credo che google abbia perso potere, solo che ha rallentato la sua crescita...
    Sono d'accordo con te, nemmeno io credo che Google abbia perso potere e credo solo , come tu dici, che abbia rallentato un tantino la crescita ( che non equivale a dire che si sia "fermato" ) per "riorganizzarsi" e "migliorarsi".

  32. #132
    User
    Data Registrazione
    Oct 2011
    Località
    Atessa (CH)
    Messaggi
    22
    Quì ci si sta allontanando dal motivo del post e cioè "è vero che dal 14/10 è successo qualcosa in SERP ?". Secondo me, ed anche secondo altri, si, considerando che tanti, in quel giorno, hanno avuto pesanti crolli. Saliscendi di chiavi sono visibili anche oggi (se avete chiavi da verificare). Quelle che sto controllando per me, stanno scendendo tutte di posizione; o si sta facendo una riconsiderazione dei siti, oppure il nuovo algoritmo ridefinisce continuamente la SERP, giorno dopo giorno, in base al numero di accessi unici alla pagina. Nel primo caso si dovrebbe capire cosa c' è di nuovo, nel secondo caso un incremento prestazionale ed un più frequente aggiornamento dei contenuti potrebbe fare la differenza.

  33. #133
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Hai ragione. Il problema sai qual'è? E che si va a tentoni perchè nessuno sa ancora niente e nulla sembra determinato.

    La questione sta anche nel fatto che i periodi di "sconvolgimento" sono stati, a mio avviso e salvo miglior parere, almeno 3 : il primo all'incirca verso aprile 2011 ( non tutti sono d'accordo , ma molti hanno notato delle considerevoli variazioni in serp "diverse" da quelle solite che si registrano periodicamente al cambio di qualche algoritmo ) , il secondo ad agosto , all'annuncio ufficiale dell'introduzione di Panda e il 14 ottobre , data in cui c'è stato un upgrade di Panda.

    L'unica cosa che metto in realazione con il primo sconvolgimento di aprile è che ( guarda caso proprio in quel periodo AdPlanner mostra ...variazioni considerevoli di accesso ) è che la user experience abbia un peso maggiore e forse determinante nell'ambito della stessa chiave.

    Altrimenti non si spiegherebbero "movimenti tellurici" registrati che hanno lanciato verso l'alto anche siti che, a dire di molti, non hanno poi questa grande qualità.

    Questi sconvolgimenti riguardano sia siti che sono schizzati in alto in fatto di visite sia quelli collassati.

    In ogni caso credo che tutto questo vada approfondito di più portando la propria esperienza e condividendola in vista di...capirci qualcosa e cercare di agire di conseguenza.

    Ovviamente gli specialisti SEO sono i benvenuti.

  34. #134
    User
    Data Registrazione
    Jun 2008
    Località
    Bari
    Messaggi
    69
    Citazione Originariamente Scritto da bluwebmaster Visualizza Messaggio
    Poi , ovvio, è opinabile : ma la cosa certa è che ancora oggi, anche a fronte di tanti nuovi strumenti disponibili, la maggioranza degli accessi ai siti viene garantita da Google , e fino quando questo accadrà resterà sull'onda del successo.
    Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me. Quindi mi dirigo altrove per cercare visite e visibilità. Sai la prima cosa che mi chiedono i clienti? Voglio apparire su Facebook. Non dicono su Google, Yahoo o altro. Attenzione quando valutiamo un fenomeno come internet. Le cose cambiano nell'arco di pochissimo tempo. Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano. Scusate l'ot ma era per completare un discorso.

  35. #135
    User
    Data Registrazione
    Oct 2011
    Località
    Atessa (CH)
    Messaggi
    22
    @formatoweb
    Google sta perdendo importanza rispetto al passato. Se prima l'abitudine primaria delle persone era aprire Google e cercare, adesso ci vengono propinati un sacco di contenuti direttamente dai social network.
    Può anche darsi che ciò sia vero, ma ciascuno di noi, dicendo che sta perdendo visite (o guadagnando), penso che lo faccia analizzando gli accesi relativi ai motori di ricerca, perchè quì si parla di SERP e di movimenti sulla SERP, non di accessi dai siti referenti.

  36. #136
    User L'avatar di wolf_cub
    Data Registrazione
    Sep 2007
    Località
    Bologna
    Messaggi
    410
    La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.

    Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.

    E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.
    Google+ è il social più inutile della storia...

  37. #137
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da wolf_cub Visualizza Messaggio
    Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità
    E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce.
    Hai perfettamente ragione, e ti quoto, ma bisogna tenere presente che il "segreto" non è casuale ( tanto ci sono i brevetti ) : a fronte, infatti, di tanti webmaster in buona fede che hanno come unico scopo quello di lavorare "onestamente" , ce ne sono tanti altri ( si spera pochi ) che sono pronti a sfruttare falle e ricorrere ai soliti trucchetti per procacciarsi visibilità.

    Un esempio : i backlink , che evidenziavano , o potevano farlo, un "buon sito" , poi sono stati "abusati" con le link farm, la rincorsa ai siti "dofollow" ecc.
    Risultato : Google, sembra e sottolineo sembra, ha declassato l'importanza dei backlink.

    Quindi non mi meraviglio affatto che possa esserci da parte del gigante dei motori di ricerca una certa "prudenza".
    Le regole di qualità valgono sempre, quindi , è buona norma attenersi a queste.

  38. #138
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da formatoweb Visualizza Messaggio
    Già questo è un punto di vista errato. Se io portale di news perdo il 50% delle mie visite vuol dire che Google sta funzionando male per me.
    Rispetto il tuo punto di vista , ma tu stesso dici : "sta funzionando male per me", sottointendendo che non è il motore a perdere colpi, ma il tuo sito a perdere colpi nel motore.

    Ovviamente bisogna capire che i social network oggi rapresnetano una realtà che difficilmente si può ignorare : ma bisogna stare attenti alle mode e all'attrattiva che essi esercitano sui clienti e su molti webmaster.

    Oggi non c'è discussione che non si regga sulla ricerca di come piacere a Google, perchè questi rappresenta ( e parlo per me, ovvio ) un buon 87 % del mio traffico.

    Permettimi una nota : Facebook non nasce come motore di ricerca o "veicolo di visite" .
    Che poi lo sia diventato o lo possa diventare è cosa possibile, ma altamente incerta.
    Un esempio ? Su Google ci pensano i crawler a tirarti dentro le pagine, brutte, belle, buone o cattive che siano.
    Su Facebook devi lavorare a "manina santa" e "sudare" la visibilità.

    Sembra un luogo comune ma non lo vuole essere : quando Facebook sarà in grado di darmi perlomeno la metà degli accessi che mi da Google, allora dirò che Facebook è una realtà.
    Ma fino a quando questi, tranne gli sparuti "picchi" in alcune circostanze, mi regalerà si e no il 4 o 5 % degli accessi ...lo riterrò una fonte di "possibili" accessi come tanti altri ma non dell'importanza di un motore di ricerca.

  39. #139
    User
    Data Registrazione
    Feb 2011
    Località
    Roma
    Messaggi
    94
    Citazione Originariamente Scritto da formatoweb Visualizza Messaggio
    Google è un motore di ricerca e come tale ha un limite secondo me gravissimo: sottovaluta la pigrizia della gente. I social invece la incentivano.
    Se parliamo di contenuti attorno ai quali girano i soldi, esclusi siti di dating e pochi altri, Facebook è quasi inutile per l'utente.

    Metti che voglio comprare un cellulare nuovo, e che cerco informazioni sulle caratteristiche dei vari modelli, confronti, commenti degli utenti ed eventualmente comprarlo online: per queste cose Facebook è dannatamente inefficente ed i motori di ricerca dannatamente insostituibili.

  40. #140
    User
    Data Registrazione
    Feb 2011
    Località
    Roma
    Messaggi
    94
    Citazione Originariamente Scritto da wolf_cub Visualizza Messaggio
    La cosa che mi lascia perplesso, di tutta questa discussione, è che ci si stia scervellando riguardo ai possibili fattori penalizzanti o favorevoli riguardo a Panda che, per quanto ne so, è uno strumento introdotto per migliorare la qualità dei contenuti e la user experience.

    Se è così io credo, nella mia ingenuità, che Google dovrebbe dare tutti le informazioni utili affinchè i webmaster possano creare siti web user friendly e contenuti di qualità e non già essere questi ultimi a dover dannarsi l'anima per capire cosa non va nei loro contenuti dopo che credevano di aver seguito pedissequamente tutte le linee guida.

    E' proprio il fatto che ci sia dietro chissà quale segreto che mi stupisce. L'argomento dovrebbe essere totalmente trasparente.
    Google è fin troppo chiaro. Devi produrre contenuti o servizi utili per l'utente. Gli algoritmi precisi attraverso cui Google determina se i tuoi contenuti/servizi sono utili per l'utente, e QUANTO sono utili per l'utente, possono variare significativamente anche più volte all'anno; quel che resta costante è il fine - per noi webmaster - di creare siti utili per l'utente e - per Google - di cercare di quantificare in modo algoritmico l'utilità di un sito.

    Una volta si usava la keyword density.
    Algoritmo -> una keyword density compresa tra "X"% e "Y'% è quella ottimale
    Utente -> ??? che mi frega della keyword density ??? Io voglio solo che sul sito ci sia quel che cerco

    Poi si è usato la link popularity
    Algoritmo -> Un sito che riceve molti link da altri siti è meglio degli altri
    Utente -> ??? che mi frega di quanti link riceve dagli altri siti ??? Io voglio solo che sul sito ci sia quel che cerco

    Poi si sono usati (?) parametri comportamentali (Bounce rate, ecc.)
    Algoritmo -> Un sito che ha un alto bounce rate è peggio degli altri
    Utente -> ??? Manco so che è il bounce rate !!! Io voglio solo che sul sito ci sia quel che cerco


    In definitiva, gli algoritmi cambiano ma gli utenti cercano sempre la stessa cosa: corrispondenza tra query di ricerca e contenuti/servizi del sito.

    Il webmaster saggio cosa deve fare? Nel lungo periodo, riuscirà a posizionarsi meglio se insegue gli algoritmi dei motori di ricerca, o se capisce meglio le esigenze dell'utente? Se perdo il 50% di traffico a causa di un cambio di algoritmo, è meglio che dedico 3 mesi di studio a cercare di capire l'algoritmo e adeguarmi, o che dedico quel tempo a migliorare ulteriormente la qualità del mio sito?

  41. #141
    User L'avatar di wolf_cub
    Data Registrazione
    Sep 2007
    Località
    Bologna
    Messaggi
    410
    @macantoni: Mi spiace ma io noto una certa discrasia nel tuo ragionamento.

    Se io (webmaster) sono convinto di avere creato contenuti di qualità nel rispetto delle linee guida e tu (Google) mi tagli il 40 % del traffico allora è come se tu mi facessi capire che i miei contenuti non sono poi così buoni. Ma se non sono così buoni dovresti farmelo capire in qualche modo. E' qui che deve stare la trasparenza.

    Lo stesso discorso vale per le altre questioni sollevate. Hai dimenticato che tra il webmaster e l'utente c'è sempre il filtro di Google. Una certa keyword density non è da considerarsi ottimale in sè ma nella misura in cui fa si che i miei contenuti possano posizionarsi ed essere letti. Così almeno è stato fino ad ora. Che scrivo a fare se nessuno mi trova?

    Lo stesso dicasi per la link popularity.

    E' esattamente quello che dici tu :"corrispondenza tra query di ricerca e contenuti/servizi del sito".

    E se il bounce rate non è un buon parametro a che santo dovrei aggrapparmi io, povero webmaster? Quindi, a mio avviso, è inutile perdersi nel cercare di "migliorare la qualità" se ti mancano i criteri per valutare come la qualità viene valutata. Dovrei iniziare un sondaggio a ogni singolo visitatore del mio sito per capirne le esigenze? Ma quel che più conta è: anche se lo facessi potrei essere sicuro che il risultato che andrei ad ottenere sarebbe lo stesso che ottiene Google col suo algoritmo?

    @Bluwebmaster: nel mio singolo caso non credo che il calo sia imputabile ai backlinks a meno che Google non abbia svalutato quella decina di directory a cui ho iscritto il sito. La cosa al momento più verosimile mi pare la questione dei singolari e plurali. Comunque qui si esce completamente da Panda, credo che si possa convenirne.
    Ultima modifica di wolf_cub; 24-10-11 alle 17:46
    Google+ è il social più inutile della storia...

  42. #142
    User
    Data Registrazione
    Dec 2008
    Località
    Roma
    Messaggi
    159
    Dico la mia visto che anche con i miei 2 blog principali ho avuto problemi. Il primo blog (settore viaggi) ha avuto problemi a partire da Aprile circa... siamo passati da una media di 2000 unici al giorno con picchi di 3500 ad una media di circa 300 unici di settembre con cali che si sono accentuati ad agosto (la botta finale) e poi più limitata a Ottobre (tanto che c'era più da togliere?).

    Il secondo blog andava benissimo fino al 13 Ottobre... fcendo una media di circa 2500-3000 unici al mese (parliamo di un settore molto competitivo... quello economico).

    Dal 14 Ottobre gli unici sono scesi del 50% ma la cosa più divertente/drammatica è che mentre per il primo blog sono sparito dalle prime pagine delle serp più importanti per il secondo sono sceso solo di alcune posizioni... diciamo di media dalle 2 alle 7-8 posizioni ... cosa che mi ha fatto perdere tutto quel traffico.

    Ovviamente parliamo di contenuti originali di buona qualità (articoli realizzati in maniera professionale con una lunghezza variabile dalle 250 parole per alcune (poche) news fino ai 500-600 parole delle guide. Questo solo per far capire che non parliamo di un blog fatto di articoletti di 100 parole scopiazzati qui e li.

    In queste pagine ho letto davvero molte cose interessanti ma quello che penso e che non può essere una perdita di valore dei backlink... perchè se così fosse tolti quelli google dovrebbe valutare cosa?

    Vi posso portare l'esempio di diverse serp dove in prima posizione per key molto remunerative ci sono siti MDA di scarsissimo valore fatti da testi scarni e assolutamente inutili all'utente e analizzando i link in entrata (colpo di scena) trovi solo qualche link da commenti, un po di link nei profili dei forum (magari pure in inglese) e al massimo qualche link su siti di article marketing.

    Ma allora chi ha creato nel tempo, con costanza una serie di ottimi link in entrata, a tema con il tuo settore, producendo contenuti di qualità che deve fare? Non è questo che vuole google?

    Non voglio dire che Big G sia in crisi, ma di sicuro che ci siano delle serp inguardabili questo si. E lo posso dire con certezza perchè io stesso ho fatto qualche test (che volendo può fare chiunque) facendo arrivare in prima pagina siti inguardabili (spesso una paginetta o poco più) senza nessuno sforzo.

    Insomma chi vogliamo prendere in giro... ci vorrebbero regole precise e controlli sulla qualità severi. Perchè se perdo 10 posizioni a danno di un mio concorrente ben venga, ma se mi metti dietro ad un sitarello di 3 pagine con un testo di poche decine di parole e 3 blocchi adsense... ma chi vogliamo prendere in giro?!

  43. #143
    User
    Data Registrazione
    Jan 2006
    Messaggi
    405
    Mettiamo che ci sono 100 siti identici (il mio caso), l'unica differenza è il nome del dominio, perchè tutte le mie pagine sono scese mentre quelle di un mio competitor sono rimaste li ? L'unica conclusione che ho potuto trarre è che ho subito una penalizzazione sui backlinks....però sembrano penalizzate in maniera differente le anchors...se per una anchor google ritiene che non è cresciuta in maniera naturale, ti porta indietro nelle serp.
    Oggi per esempio sono finito tra i primi 100 risultati per una anchor competitiva, cosa che non mi era mai successa...e credo di non averla spinta tanto, a parte qualche anchor qua e là.
    Il problema adesso è come recuperare quelle coppie di chiavi affossate da google.

  44. #144
    User
    Data Registrazione
    Feb 2011
    Località
    Roma
    Messaggi
    94
    Citazione Originariamente Scritto da wolf_cub Visualizza Messaggio
    Dovrei iniziare un sondaggio a ogni singolo visitatore del mio sito per capirne le esigenze?
    Certamente che devi farlo, ogni giorno. Non un sondaggio nel senso di fargli riempire il questionario, ma nel senso di studiarne il comportamento. Le statistiche di Analytics ed anche altri strumenti che se sai programmare puoi farti da solo, possono aiutarti a capire se l'utente arriva sul tuo sito e riesce a trovare quel che cerca oppure no.
    Ma quel che più conta è: anche se lo facessi potrei essere sicuro che il risultato che andrei ad ottenere sarebbe lo stesso che ottiene Google col suo algoritmo?
    No, ma sei certo di fare qualcosa che Google ha interesse a mettere in evidenza, perché è interesse di Google mostare agli utenti dei risultati che soddisfano quel che cercano. Gli utenti, continuerebbero ad usare Google, se i suoi algoritmi non fossero ottimizzati per piacere all'utente?

  45. #145
    User
    Data Registrazione
    Mar 2010
    Messaggi
    295
    Dopo avere visto una crescita continua (dovuta credo alla giovinezza del sito) negli ultimi 10 giorni sono stato decisamente penalizzato anche io nel sito in firma (più o meno un 25% di unici in meno) ... ma sinceramente non so quanto sia Panda e quanto altri fattori ... forse i più esperti hanno idee più precise al riguardo ... certo fa rabbia :-(
    Assicurazioni Blog iosgrecia.info

  46. #146
    User
    Data Registrazione
    Jun 2008
    Località
    Bari
    Messaggi
    69
    Citazione Originariamente Scritto da macantoni Visualizza Messaggio
    Se parliamo di contenuti attorno ai quali girano i soldi, esclusi siti di dating e pochi altri, Facebook è quasi inutile per l'utente.

    Metti che voglio comprare un cellulare nuovo, e che cerco informazioni sulle caratteristiche dei vari modelli, confronti, commenti degli utenti ed eventualmente comprarlo online: per queste cose Facebook è dannatamente inefficente ed i motori di ricerca dannatamente insostituibili.
    Ti potrei fare l' esempio dell' esperienza inversa. Esempio: io attività di piccolo livello come negozio di elettronica modifico la pagina sul mio sito web è scrivo "cellulari a 9 euro" e nessuno la vede perchè in quanti cercheranno nella mia città un cellulare a 9 euro? Se invece sul mio gruppo facebook faccio il passaparola e scrivo "da oggi vendo cellulari a 9 euro" quanto pensi ci metta la voce a diffondersi? La stessa cosa accade per tutto il resto nelle dovute proporzioni. Vorrei rispondere a Stefanoimg quando dice:"Dal 14 Ottobre gli unici sono scesi del 50% ma la cosa più divertente/drammatica è che mentre per il primo blog sono sparito dalle prime pagine delle serp più importanti per il secondo sono sceso solo di alcune posizioni... diciamo di media dalle 2 alle 7-8 posizioni ... cosa che mi ha fatto perdere tutto quel traffico."
    Ti dico cosa succede poi ognuno può trarre le proprie considerazioni. La gente con il tempo ha imparato a navigare in rete. Ha imparato a riconoscere i siti, a capirne i contenuti e a distinguere quei siti spammer da quelli di qualità. Durante la ricerca su Google ha anche imparato a saltare a piè pari la pubblicità nei risultati. Cosa abbiamo ottenuto? Che i primi 2 link al massimo rendono, dal terzo si crolla nell'abisso dell'anonimato. Fatta eccezione per quei siti che hanno un nome talmente famoso e facilmente riconoscibile. Gli aggiornamenti di Google hanno rimescolato le carte come succede in una partita a BJ dando a tutti la possibilità di apparire. Quel leggero balzo indietro nella serp significa perdere una % altissima di visite. Che sia giusto o sbagliato purtroppo non possiamo dirlo semplicemente perchè Google è un' azienda privata e come tale fa solo i suoi interessi (anche se in teoria i suoi interessi siamo noi utenti).
    Io mi sento di dare alcuni consigli che credo siano scontati per molti. Utilizzate quanto meno codice possibile. Rendete i siti veloci e facili da consultare. Create e aggiungete sempre qualcosa di interessante per gli utenti anche quando il sito è piuttosto piatto come contenuti. Non copiate mai nulla da nessuno. Meglio 1 news originale e ben articolata che 100 copiate. Non inseriti i siti negli aggregatori e non autorizzate nessuno a pubblicare i vostri RSS. Bilanciate bene la pubblicità sul vostro sito sia come quantità che come qualità. Non fate scappare gli utenti solo per qualche euro in più.

  47. #147
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Citazione Originariamente Scritto da formatoweb Visualizza Messaggio
    Esempio: io attività di piccolo livello come negozio di elettronica modifico la pagina sul mio sito web è scrivo "cellulari a 9 euro" e nessuno la vede perchè in quanti cercheranno nella mia città un cellulare a 9 euro? Se invece sul mio gruppo facebook faccio il passaparola e scrivo "da oggi vendo cellulari a 9 euro" quanto pensi ci metta la voce a diffondersi?
    La tesi è giusta, ma come ogni tesi, a mio modesto avviso , va integrata da alcune osservazioni, altrimenti sembra che Facebook sia il cerchio "magico" dove entrare e proliferare. ( ).
    Intanto tu stesso poni l'esempio di un "attività di piccolo livello" , cioè, in ultima analisi , abbastanza circoscritta.
    L'altra osservazione che muovo è che per avere un "discreto" numero di "amici" tali da innescare un "passaparola" , occorre che il gruppo sia abbastanza popolato e, particolare non trascurabile, direttamente "interessato" alla merce che proponi.
    A questo punto va osservato necessariamente che per formare gruppi "discretamente" popolati occorre, tempo, pazienza e pratica di gestione cosa che, nel sul complesso significa "tempo" da spendere, e il tempo è denaro.
    Inoltre il concetto di passaparola è valido , ma non è che gli utenti del gruppo stiano li tutti ad aspettare a "bocca aperta" le occasioni che si propongono con un bel "ohhhhhhhhhhhhh che meraviglia" quando le proponi.
    E questo per la stessa ragione che Facebook è una bella vetrina posta nel centro di una città : potenzialmente tutti i passanti potrebbero fare "passaparola" delle offerte in vetrina, ma non è certo che lo facciano.
    Fermo restando che Facebook , prima o poi, arriverà a una stretta proprio su questo , quando si accorgerà, ma pare se ne sia già accorto, che in questo modo si eludono i "canali pubblicitari" e quindi, in definitiva, perde soldi.

    In ogni caso Facebook e Google fanno due mestieri completamente diversi : esistono due punti dobe si intersecano, ma hanno due utilità diverse e due modi di essere gestiti diversi.




    Citazione Originariamente Scritto da formatoweb Visualizza Messaggio
    La gente con il tempo ha imparato a navigare in rete. Ha imparato a riconoscere i siti, a capirne i contenuti e a distinguere quei siti spammer da quelli di qualità. Durante la ricerca su Google ha anche imparato a saltare a piè pari la pubblicità nei risultati. Cosa abbiamo ottenuto? Che i primi 2 link al massimo rendono, dal terzo si crolla nell'abisso dell'anonimato.
    Mi sento di sposare questa tesi, fermo restando l'insostituibilità di Google come motore e l'impossibilità a sostituirlo con un social network.
    Se cerco "legumi lessi" vado su Google non su facebook.
    Dici bene che il "Popolo" ha imparato a navigare : però ti chiedo , secondo te non si accorge allo stesso modo degli spammer su facebook o sulle offerte farlocche e ingannevoli di "cellulari a 9 euro" ( per citare il tuo esempio ) offerti da perfetti sconosciuti ?
    Fermo restando che lo scopo della maggioranza dei webmaster non è vendere.


    Citazione Originariamente Scritto da formatoweb Visualizza Messaggio
    Io mi sento di dare alcuni consigli che credo siano scontati per molti. Utilizzate quanto meno codice possibile. Rendete i siti veloci e facili da consultare. Create e aggiungete sempre qualcosa di interessante per gli utenti anche quando il sito è piuttosto piatto come contenuti. Non copiate mai nulla da nessuno. Meglio 1 news originale e ben articolata che 100 copiate. Non inseriti i siti negli aggregatori e non autorizzate nessuno a pubblicare i vostri RSS.
    Qui condivido e quoto in pieno anche se il punto cruciale è e resta capire come "scansare" Panda cercando perlomeno di minimizzare i danni.
    E sembra che Panda "premi" in particolare i siti con una bassissima frequenza di rimbalzo, un tempo di permanmenza sul sito ragionevole e un miglior numero di pagine viste per utente, cosa che accade solo se hai contenuti validi e interessanti.

    Ora si tratta di scoprire come migliorare i propri siti in ragione di questo.

  48. #148
    User
    Data Registrazione
    Oct 2011
    Località
    Atessa (CH)
    Messaggi
    22
    Qui condivido e quoto in pieno anche se il punto cruciale è e resta capire come "scansare" Panda cercando perlomeno di minimizzare i danni.
    E sembra che Panda "premi" in particolare i siti con una bassissima frequenza di rimbalzo, un tempo di permanmenza sul sito ragionevole e un miglior numero di pagine viste per utente, cosa che accade solo se hai contenuti validi e interessanti.

    Ora si tratta di scoprire come migliorare i propri siti in ragione di questo.
    E qui sono daccordo anch' io, ma non basta, non sono gli unici parametri. C' è qualcosa che ci sfugge o che, perlomeno, non è emerso in questa discussione. Inoltre, per le prestazioni, secondo voi, qual' è il parametro di riferimento come tempo di risposta della pagina? 5 secondi ? 3 secondi ? o meno ? Se con gli strumenti per webmaster ho una pagina che impiega 3,1 secondi, sono più lento del 50% dei siti; se con lo stesso strumento ho una pagina che impiega 2,9 secondi, sono più veloce del 50% dei siti. Per scendere sotto i 3 secondi, devo disattivare gli AdSense, in quanto, l' unica ottimizzazione che potrei ancora fare è quella di acquistare un servizio CDN. Inoltre, in base a questa situazione, va ad influire anche l' hosting. Devo per forza avere un server dedicato o un VPS per non essere danneggiato da qualcun altro che condivide la mia risorsa ? Quindi Google secondo questo ragionamento, non privilegia i contenuti di qualità, ma priviligia chi si può permettere un server dedicato o un VPS ed inoltre chi si può permettere anche una CDN. E' per questo che secondo me il discorso è valido solo in parte, Google, comportandosi in questo modo, farebbe troppo spudoratamente interessi di parte.
    Ultima modifica di giovanninews; 25-10-11 alle 16:50

  49. #149
    User Attivo
    Data Registrazione
    Mar 2009
    Messaggi
    2,105
    Che il fattore "velocità" sia determinante , se ne discute , ormai, da tempo.
    E quanto dici è giusto, con l'unica variazione che Google non intende premiare chi ha un "buon numero di risorse" in termini di hosting, e quindi di banda disponibile, ecc., ma è ovvio che questo influisce.

    Secondo me, ma è opinabile, punisce soprattutto quelli che hanno fatto uso , per troppo tempo, di "chincaglieria" rendendo i loro siti "carini" ma lentissimi da caricare con vari widget e quanto altro.

    Infatti non a caso si dice che un utente che non riesce ad aprire un sito in meno di 4 o 5 secondi , desiste e torna indietro sul motore.
    E' capitato a me , figurati agli utenti "normali".

    E' ovvio che se "puoi spingere" in termini di velocità è tutto guadagno, di sicuro.
    Ed è altrettanto ovvio che questo comporta un budget, spesso inconciliabile con i piccoli publisher, in termini di server, cdn ed altro.

    Trovo quindi giusto pensare di rendere i siti quanto più veloci possibili : è il primo punto , a mio avviso, di sicuro interesse per tutti i publisher.

    Resta poi da capire come valorizzare i propri contenuti per renderli più appetibili e quindi cercare di migliorare quella serie di parametri che , ormai , sembrano identificarsi con frequenza di rimbalzo e altre cose di cui abbiamo discusso.

  50. #150
    User
    Data Registrazione
    Oct 2011
    Località
    Atessa (CH)
    Messaggi
    22
    Sembra che oggi ci sono ancora grossi movimenti sulla SERP. Questa mattina ero tornato agli accessi che avevo prima del 14/10 e le chiavi per me più significative erano tornate in cima; da quasi mezz' ora sembra invece che siamo tornati alla situazione di ieri. E' come se Google stia facendo delle prove sulla Serp non soddisfatto dei risultati ottenuti.

+ Rispondi alla Discussione
Pagina 3 di 5 PrimaPrima 12345 UltimaUltima

Tag per Questa Discussione

^ Permessi di Scrittura

  • Tu non puoi inviare nuove discussioni
  • Tu non puoi inviare risposte
  • Tu non puoi inviare allegati
  • Tu non puoi modificare i tuoi messaggi
  •  
  • Il codice BB è Attivato
  • Le faccine sono Attivato
  • Il codice [IMG] è Attivato
  • Il codice [VIDEO] è Attivato
  • Il codice HTML è Disattivato
  • Trackbacks Attivato
  • Pingback Attivato
  • Refback Attivato

SEO by vBSEO 3.6.0 PL2 ©2011, Crawlability, Inc.