• Super User

    Traffico

    Si dice che Google memorizzi i dati sul traffico. Bene, l'idea in sé è accettabile: ma come fa?

    Non sto dicendo che sia impossibile, anzi è possibilissimo, solo che ci sono diversi metodi.

    Potrebbe usare un js nell'onClick (ma non mi pare che lo faccia).
    Potrebbe usare un link intermedio che fa redirect sul vero link, ma non lo fa.

    Dato che non usa una di queste tecniche, quale tecnica usa?

    Fingiamo per un attimo di conoscere tale tecnica (se la sapete me la dite dopo, io intanto continuo con le mie ***** mentali), la domanda è:

    che succede se l'utente clicca su un link che nella serp apparentemente non c'è?

    Ragioniamo un attimo: cosa sa google? Google sa esattamente quali link ci sono nella serp che ti ha appena mostrato e conosce la loro posizione, quindi se ha bisogno di memorizzare i dati sul traffico generato da ogni link deve solo riuscire a scoprire dove l'utente ha cliccato e poi cercare nella serp per vedere a che posizione si trova il link.

    Ok. Questo è un discorso che può apparentemente essere valido se stiamo pensando di memorizzare il traffico generato da una singola serp. Ma con tutta probabilità google non memorizza il traffico generato da un sito in una serp (le risorse necessarie per monitorare il traffico generato da tutti i link di tutte le serp sarebbero veramente enormi), probabilmente google memorizza i dati generali sul traffico generato da un sito. Ovvero memorizza il traffico totale di un sito web, probabilmente in rapporto al numero di visualizzazioni.

    Ma a quel punto la domanda è: google prima di memorizzare tale dato, controlla se l'url è realmente presente nella serp?

    Se io sapessi come aggiungere un link alla serp, google vedrebbe positivamente o negativamente i click al link inesistente?

    Ok. Lo so: sono probabilmente discorsi inutili, come mi dice Serp "perdo di vista il problema". Comunque vale la pena indagare per un solo motivo:

    se google realmente usa i dati sul traffico generato da un sito && se google non controlla se il sito è realmente presente nella serp, allora forse la mia domanda diventa interessante, perché ad aggiungere un link in una serp ci vuole poco..basta un pò di fantasia 😉

    Io lancio il discorso, se pensate sia interessante, allora magari appena ho 2 minuti organizziamo un test.

    P.S. ho riletto il post 10 volte, ma non riesco ad esprimermi in modo più chiaro di così 😄


  • Super User

    Visto che non mi capita spesso di interagire con kerouac3001, colgo l'occasione per qualche s**a mentale aggiuntiva 😄

    Escludo anche io l'ipotesi del Onlick Js o della pagina intermedia tra serp e sito. Nel primo caso non c'è traccia nel codice delle serp, e nel secondo, almeno una delle tante volte che navigo in gprs (quindi lentissimamente) me ne sarei accorto. Comunque lo escludo, anche in virtù della visione dei log (log...ti ho quasi letto nel pensiero?..vabbè me lo dici dopo 😉 )

    @kerouac3001 said:

    Google sa esattamente quali link ci sono nella serp che ti ha appena mostrato e conosce la loro posizione, quindi se ha bisogno di memorizzare i dati sul traffico generato da ogni link deve solo riuscire a scoprire dove l'utente ha cliccato e poi cercare nella serp per vedere a che posizione si trova il link.
    Google sa per certo che il pc contraddistinto dall'IP XX.XXX.XXX.XXX (e da chissà quante altre caratteristiche unicizzanti) si è collegato a Google.it ( .com, .fr ecc) e ha effettuato la query "xyz".
    Visitando la pagina:
    http://www.google.it/search?hl=it&q=xyz&btnG=Cerca+con+Google&meta=
    A seconda delle preferenze dell'utente questa pagina mostrerà N risultati. Ipotizziamo l'utente nella configurazione comune (10 results).
    Non trova nulla nella prima pagina, e va alla seconda:
    http://www.google.it/search?q=xyz&hl=it&lr=&start=10&sa=N

    A questo punto clicca su http://www.xyzrgb.com/
    Che è posto alla 19esima posizione, almeno sul DC che ho appena visto.

    Il datacenter ha quindi la possibilità di memorizzare (come farebbe qualsiasi server) che:

    1. Un utente si è collegato al sito
    2. L'utente ha richiamato il 'search' con la query XYZ
    3. L'utente ha effettuato una nuova ricerca con la stessa query per vedere i risultati tra l'11 e il 20
    4. L'utente è uscito dal sito (google) tramite il link http://www.xyzrgb.com/
    5. Google sa che in quel DC, in quel momento, http://www.xyzrgb.com/ era il numero 19 tra i risultati selezionati e presentati all'utente.

    Tutto sommato non è tecnicamente arduo tracciare dati simili.

    @kerouac3001 said:

    Ok. Questo è un discorso che può apparentemente essere valido se stiamo pensando di memorizzare il traffico generato da una singola serp. Ma con tutta probabilità google non memorizza il traffico generato da un sito in una serp (le risorse necessarie per monitorare il traffico generato da tutti i link di tutte le serp sarebbero veramente enormi)........
    Sembra una mostruosità se immaginiamo di compiere la stessa operazione su un hosting commerciale, o in locale con il pentiumIV, l'architettura hardware di un DC è un tantino più sofisticata, e non credo che la mole di dati generata, seppur imponente, rappresenti uno sforzo eccessivo (nota che ho parlato di architettura, più che di hardware in sè, visto che notoriamente i Pc in cluster di Google sono normalissimi...)

    Per un sunto delle capacità hardware c'è un interessante [url=http://www.zdnet.com.au/insight/software/print.htm?TYPE=story&AT=39168647-39023769t-10000102c]articolo-intervista su Zdnet
    Mi spiace sia in inglese, se ne trovo una traduzione, o un articolo egualmente esplicativo in italiano lo posto volentieri.

    Tornando al discorso memorizzazione delle operazioni, sarebbe impensabile fare tutto in tempo reale. L'esperimento "Traffico Vs Sandbox", pur nella sua artigianalità, mi ha portato all'ipotesi che almeno per quanto riguarda i dati del traffico (lo so lo so che Vermut ha detto che sono stupidaggini le teorie sul traffico, ma lasciatemi andare avanti, assumo la responsabilità di tutto ciò che scrivo), vengono elaborati non immediatamente: probabilmente il DC memorizza tutta l'attività che c'è nelle serp, ricerche, click, visualizzazioni Adwords ecc ecc...dopodichè, ad intervalli più o meno regolari, invia un report di questi dati ad altri DC in modo che siano allineati, e ripuliti.

    Mi spiego meglio: quando cerchiamo qualcosa su Google, stiamo in realtà cercando qualcosa su un DC (tra i tanti). Se digito invece di Google, il singolo indirizzo del DC, posso assicurare anche 100 click al mio sito ogni giorno. Sono server diversi, e ognuno registra una (1) mia ricerca. Tutto regolare insomma. La rielaborazione dei dati a mio parere serve a ripulire i dati delle serp da ricerche inutili, duplicate, click fraud dagli AdWords.
    Il gap che ho verificato tra un posizionamento e l'altro, potrebbe essere dovuto proprio a questo calcolo in differita delle attività dei DC.

    @kerouac3001 said:

    probabilmente google memorizza i dati generali sul traffico generato da un sito. Ovvero memorizza il traffico totale di un sito web, probabilmente in rapporto al numero di visualizzazioni.
    Questo potrebbe anche avvenire. Ma come fa Google a memorizzare i dati totali del traffico di un sito? Elabora i dati della Toolbar?.......dà una sbirciatina ai log del sito?

    @kerouac3001 said:

    Ma a quel punto la domanda è: google prima di memorizzare tale dato, controlla se l'url è realmente presente nella serp?
    Dipende da dove preleva le informazioni sul traffico del sito: se si limita a fare un rapporto tra CTR e dati della TB, è già in grado di avere plausibili approssimazioni del 'valore' di un sito.

    @kerouac3001 said:

    Se io sapessi come aggiungere un link alla serp, google vedrebbe positivamente o negativamente i click al link inesistente?
    @kerouac3001 said:
    se google realmente usa i dati sul traffico generato da un sito && se google non controlla se il sito è realmente presente nella serp, allora forse la mia domanda diventa interessante, perché ad aggiungere un link in una serp ci vuole poco..basta un pò di fantasia 😉
    Viste le recenti (e fino a prova contraria, autorevoli) smentite, il SE è d'obbligo; il discorso però è interessante, almeno come test, si potrebbe far credere a Google che un sito non solo è presente in una serp (perchè ha Google nei referer?), ma che gli utenti spesso e volentieri ci cliccano sopra...sicuramente farei questo test su un dominio a perdere.

    Cordialmente,
    Stuart


  • Super User

    Salve Stuart 🙂

    Questo potrebbe anche avvenire. Ma come fa Google a memorizzare i dati totali del traffico di un sito? Elabora i dati della Toolbar?.......dà una sbirciatina ai log del sito?

    No intendevo dire i dati generali del traffico che ha a disposizione tramite i suoi strumenti (serp e toolbar per esempio). Quindi non dico i dati reali del traffico di un sito, ma quelli di cui lui è a conoscenza.

    Viste le recenti (e fino a prova contraria, autorevoli) smentite, il SE è d'obbligo; il discorso però è interessante, almeno come test, si potrebbe far credere a Google che un sito non solo è presente in una serp (perchè ha Google nei referer?), ma che gli utenti spesso e volentieri ci cliccano sopra...sicuramente farei questo test su un dominio a perdere.

    Si il SE è d'obbligo, ma noi che abbiamo tempo da perdere continuiamo con i discorsi campati in aria 😄

    Ammettiamo di fare il test, quali possono essere i risultati?

    1. Positivi
    2. Negativi
    3. Nulli

    Cosa è necessario affinché siano positivi?

    • Google deve tenere in considerazione i click a questi link inesistenti
    • Google non deve accorgersi che sono inesistenti
    • Google non deve analizzare il traffico in rapporto alla serp, ma in rapporto al sito

    Cosa è necessario affiché siano negativi?

    • Google deve tenere in considerazione i click a questi link inesistenti
    • Google deve analizzare il traffico in rapporto alla serp

    Cosa è necessario affiché siano nulli?

    • Google non deve tenere in considerazione i click a questi link inesistenti

    Ma io mi concentrerei di più sulla differenza tra positivi e negativi. Perché io penso che un analisi del traffico di un sito (inesistente) all'interno di una serp possa dare risultati negativi?

    Mettiamo che io faccia in modo che 10 miei amici (che collaborano al test) vedano in corrispondenza della prima pagine della serp "sesso" il mio risultato inesistente. Ogni qual volta loro cliccheranno su questo link cosa potrebbe dedurre google? Che il sito inesistente, nonostante sia in prima pagina ha pochissimi click rispetto a quelli generati dalla query "sesso", quindi è un sito da penalizzare.

    Ovviamente ripeto, sono teorie campate in aria, ma bisogna sapere cosa aspettarsi da un test prima di eseguirlo, altrimenti si rischia di interpretarlo male.

    Un simile test non serve a fregare google, ma a capire come google si comporta in una situazione anomala come quella presentata.

    In ogni caso vi spiego brevemente come si aggiunge un link inesistente.

    Sto lavorando da un pò ad un'estensione firefox che probabilmente lancerò tra un pò di tempo (prima aspetto di arrivare ad un risultato decente). Questa estensione si occupa di questo:

    una volta attivata se l'utente cerca qualcosa su google lei registra i dati relativi alla serp:

    • query
    • hl
    • lr
    • pagina
    • url base di google (www.google.est/search)
    • primo link della serp (il primo della pagina si intende)
    • secondo link della serp
    • ...
    • decimo link della serp
    • serp intera
    • link della serp cliccato (se viene cliccato)
    • posizione assoluta del link (se per esempio è il settimo della seconda pagina allora è il 17esimo)

    Infine invia i dati ad uno script php che li memorizza in sql.

    Mentre lavoravo a questo progetto ho deciso di fare in modo che quando l'estensione è attiva e qualcuno cerca qualcosa su google, venga aggiunto un annuncio mio sulla colonna adwords. L'annuncio che poi imposterò a distanza (tramite la lettura di un url esterno), mi servirebbe per trovare i fondi necessari per rendere il progetto completamente gratuito (mi servirà un server bello potente).

    Questo mi ha fatto riflettere sulla questione del traffico.
    Quindi alla fine partire con un test non sarà difficile, sempre che io riesca a partire con questo progetto, che da un certo punto di vista viola molte leggi sulla privacy e che quindi sarà difficile da mettere in regola.

    Vedremo.

    P.S. dovrei smetterla di perdere tempo dietro a teorie assurde o possibilità remote di capire qualcosa in più su un motore di ricerca. Tanto più che da quando lo scambio link vale 3/5 si stanno aprendo nuove frontiere inimmaginabili.


  • Community Manager

    [OT=concesso solo a GT]State per fare uno di quei thread bellissimi/fanstastici/storici? :D[/OT]

    Dovremmo fare una raccolta di tutti i thread più belli, sono tanti, chi si offre volontario per una raccolta topic? (in pvt :2:


  • User Attivo

    Fate una ricerca com Google aprite il codice sorgente a cercate

    
    onmousedown
    
    

    appare

    
    onmousedown="return rwt(this,'res','6','&sig2=OaioOFXhSJJC7K_Ik6LxjQ')"
    
    

    chiaramente OaioOFXhSJJC7K_Ik6LxjQ è una stringa qualsiasi presa a caso che indica la singola pagina.

    D'altronde se usate site map è evidente che Google sa quando sei apparso nelle serp, per quali parole e quando un utente segue il link dalla SERP.

    Ci sono molti pareri discordanti, ma io credo che alla fine Google controlli il comportamento al fine di migliorare i risultati.
    Se vede che un sito viene scelto, e questo perchè nella parte della pagina che appare come anteprima c'è qualcosa che fa capire all'utente che il sito è buono, allora ci sarà un motivo.


  • Super User

    @m4rc0 said:

    Fate una ricerca com Google aprite il codice sorgente a cercate

    
    onmousedown
    
    

    appare

    
    onmousedown="return rwt(this,'res','6','&sig2=OaioOFXhSJJC7K_Ik6LxjQ')"
    
    

    chiaramente OaioOFXhSJJC7K_Ik6LxjQ è una stringa qualsiasi presa a caso che indica la singola pagina.

    D'altronde se usate site map è evidente che Google sa quando sei apparso nelle serp, per quali parole e quando un utente segue il link dalla SERP.

    Ci sono molti pareri discordanti, ma io credo che alla fine Google controlli il comportamento al fine di migliorare i risultati.
    Se vede che un sito viene scelto, e questo perchè nella parte della pagina che appare come anteprima c'è qualcosa che fa capire all'utente che il sito è buono, allora ci sarà un motivo.

    Non vedo il codice da te indicato..ti riferisxci a questo?

    
    <script>
    <!--
    function ss&#40;w,id&#41;&#123;
      window.status=w;return true;
    &#125;
    
    function cs&#40;&#41;&#123;
      window.status='';
    &#125;
    
    function rwt&#40;el,ct,cd,sg&#41;&#123;
      var e = window.encodeURIComponent ? encodeURIComponent : escape;
      el.href="/url?sa=t&ct="+e&#40;ct&#41;+"&cd="+e&#40;cd&#41;+"&url="+e&#40;el.href&#41;.replace&#40;/\+/g,"%2B"&#41;+"&ei=7o9HRMv8BqmiiALz36ihBw"+sg;
      el.onmousedown="";
      return true;
    &#125;
    
    function ga&#40;o,e&#41; &#123;
      if &#40;document.getElementById&#41; &#123;
        var a = o.id.substring&#40;1&#41;; 
        var p = "", r = "", t, f, h;
        var g = e.target;
        if &#40;g&#41; &#123; 
          t = g.id;
          f = g.parentNode;
          if &#40;f&#41; &#123;
            p = f.id;
            h = f.parentNode;
            if &#40;h&#41;r = h.id;
          &#125;
        &#125;
        else
        &#123;
          h = e.srcElement;
          f = h.parentNode;
          if &#40;f&#41;p = f.id;
          t = h.id;
        &#125;
        if &#40;t==a || p==a || r==a&#41;return true;
        document.getElementById&#40;a&#41;.href += "&ct=bg";
        top.location.href=document.getElementById&#40;a&#41;.href
      &#125;
    &#125;
    //-->
    </script>
    
    

  • User Attivo

    No.
    Vai qui
    http://www.google.it/search?q=prova

    Nel sorgente ci sarà sicuramente

    
    <a class=l href="http://www.teatroprova.com/" onmousedown="return rwt&#40;this,'res','1','&sig2=DH0Dxu8g_CgHEQHIqLUHLA'&#41;">
    
    

    Che è il link al prima risultato.
    Infatto la funzione rwt ha come parametri anche il tipo si query res e la posizione '1'
    oltre alla pagina ```
    &sig2=DH0Dxu8g_CgHEQHIqLUHLA


  • User Attivo

    Magari quando ricerchi nel sorgente prova per

    
    class=l
    
    

    probabilmente la elle sta per link.


  • Super User

    No nella mia pagina di google non esiste nessun javascript in corrispondenza dei link normali della serp.

    Che dc stai usando e che browser?


  • User Attivo
    
    <a class=l href="http://XXXXXXXX" onmousedown="return clk&#40;this.href,'res','32',''&#41;">**XXXXX** etcetcetc
    
    

    ogni link di ricerca è composto così.

    function clk&#40;url,ct,cd,sg&#41;&#123;if&#40;document.images&#41;&#123;var e = window.encodeURIComponent ? encodeURIComponent &#58; escape;var u="";if &#40;url&#41; u="&url="+e&#40;url&#41;.replace&#40;/\+/g,"%2B"&#41;;new Image&#40;&#41;.src="/url?sa=T&ct="+e&#40;ct&#41;+"&cd="+e&#40;cd&#41;+u+"&ei=xpVHRNywAs3UwgGzyKXQBg"+sg;&#125;return true;&#125;
    

    questa invece è la funziona clk richiamata....

    EDIT: IE 6 su XP SP2


  • User Attivo

    Firefox
    66.249.85.99

    Con IE
    la funzione non è
    rtw ma
    clk


  • Super User

    @drcrck said:

    
    <a class=l href="http://XXXXXXXX" onmousedown="return clk&#40;this.href,'res','32',''&#41;">**XXXXX** etcetcetc
    
    

    ogni link di ricerca è composto così.

    function clk&#40;url,ct,cd,sg&#41;&#123;if&#40;document.images&#41;&#123;var e = window.encodeURIComponent ? encodeURIComponent &#58; escape;var u="";if &#40;url&#41; u="&url="+e&#40;url&#41;.replace&#40;/\+/g,"%2B"&#41;;new Image&#40;&#41;.src="/url?sa=T&ct="+e&#40;ct&#41;+"&cd="+e&#40;cd&#41;+u+"&ei=xpVHRNywAs3UwgGzyKXQBg"+sg;&#125;return true;&#125;
    

    questa invece è la funziona clk richiamata....

    EDIT: IE 6 su XP SP2

    Io uso Firefox su xp e non vedo nessun js.


  • User Attivo
    <script>
    <!--
    function ss&#40;w,id&#41;&#123;window.status=w;return true;&#125;
    function cs&#40;&#41;&#123;window.status='';&#125;
    function clk&#40;url,ct,cd,sg&#41;&#123;if&#40;document.images&#41;&#123;var e = window.encodeURIComponent ? encodeURIComponent : escape;var u="";if &#40;url&#41; u="&url="+e&#40;url&#41;.replace&#40;/\+/g,"%2B"&#41;;new Image&#40;&#41;.src="/url?sa=T&ct="+e&#40;ct&#41;+"&cd="+e&#40;cd&#41;+u+"&ei=15dHROeZIMvOwQHNusmGBg"+sg;&#125;return true;&#125;
    function ga&#40;o,e&#41; &#123;if &#40;document.getElementById&#41; &#123;var a = o.id.substring&#40;1&#41;; var p = "", r = "", t, f, h;var g = e.target;if &#40;g&#41; &#123; t = g.id;f = g.parentNode;if &#40;f&#41; &#123;p = f.id;h = f.parentNode;if &#40;h&#41;r = h.id;&#125;&#125; else &#123;h = e.srcElement;f = h.parentNode;if &#40;f&#41;p = f.id;t = h.id;&#125;if &#40;t==a || p==a || r==a&#41;return true;document.getElementById&#40;a&#41;.href += "&ct=bg";top.location.href=document.getElementById&#40;a&#41;.href&#125;&#125;
    //-->
    </script>
    

    queste sono tutte le funzioni js che vedo in alto dopo una banale ricerca:
    http://www.google.it/search?hl=it&q=site%3Awww.gdpitalia.com&btnG=Cerca&meta=

    cmq, mi sembrano più che altri di "normalizzazione" dell'url.


  • Super User

    Ok ho capito, credo che il problema sia in una delle estensioni che ho installato su FF (forse googlecustomize. effettivamente c'è un js nei link che si attiva durante l'evento onmousedown.

    La funzione se l'ho capita bene si ocupa di memorizzare i dati usando una delle tecniche + banali mai usate (nel senso che è la più comoda, ma da google ti aspetti cose molto più complicate):

    crea un immagine e la richiama passandole nell'url le variabili che vuole salvare..l'immagine ovviamente è finta e in realtà esegue uno script 😄


  • User Attivo

    Non so che intendi per normalizzazione dell'url

    
    function clk&#40;url,ct,cd,sg&#41;&#123;
    	if&#40;document.images&#41;&#123;
    		var e = window.encodeURIComponent ? encodeURIComponent : escape;
    		var u="";
    		if &#40;url&#41; u="&url="+e&#40;url&#41;.replace&#40;/\+/g,"%2B"&#41;;
    		new Image&#40;&#41;.src="/url?sa=T&ct="+e&#40;ct&#41;+"&cd="+e&#40;cd&#41;+u+"&ei=XJlHROfCIJKmQcTilYUH"+sg;
    		&#125;
    	return true;
    	&#125;
    
    

    ma
    Image().src="/url?sa=T&ct="+e(ct)+"&cd="+e(cd)+u+"&ei=XJlHROfCIJKmQcTilYUH"+sg;
    questa mi sa tanto che richiama una pagina interna del DC.
    C'entra poco con le immagini (c'è poco da mostrare stai uscendo dalla pagina).
    Ad ogni modo cerco di approfondire ...


  • Super User

    Aggiungo: da questo deduciamo che google si fida di ciò che gli passa il js e quindi possiamo passargli i dati che più ci piacciono, basta aggiungere il codice js al nostro link adwords 🙂

    Ovviamente mettendo una posizione bassa per fare in modo che la quantità di traffico sembri più elevata del normale e dunque nella speranza di indurre google a migliorare il posizionamento del sito.

    P.S. se non ho fatto i conti male, quando google riceve i dati sicuramente userà la funzione referrer che gli passa l'url da cui proviene il visitatore. Quindi ha un modo per assicurare una buona pulizia dei dati, permettendo la memorizzazione solo di quelli che provendono dalle sue pagine.


  • Super User

    @m4rc0 said:

    Non so che intendi per normalizzazione dell'url

    
    function clk&#40;url,ct,cd,sg&#41;&#123;
    	if&#40;document.images&#41;&#123;
    		var e = window.encodeURIComponent ? encodeURIComponent : escape;
    		var u="";
    		if &#40;url&#41; u="&url="+e&#40;url&#41;.replace&#40;/\+/g,"%2B"&#41;;
    		new Image&#40;&#41;.src="/url?sa=T&ct="+e&#40;ct&#41;+"&cd="+e&#40;cd&#41;+u+"&ei=XJlHROfCIJKmQcTilYUH"+sg;
    		&#125;
    	return true;
    	&#125;
    
    

    ma
    Image().src="/url?sa=T&ct="+e(ct)+"&cd="+e(cd)+u+"&ei=XJlHROfCIJKmQcTilYUH"+sg;
    questa mi sa tanto che richiama una pagina interna del DC.
    C'entra poco con le immagini (c'è poco da mostrare stai uscendo dalla pagina).
    Ad ogni modo cerco di approfondire ...

    Bravo 😉 ottima deduzione. La penso esattamente come te.


  • User Attivo

    @m4rc0 said:

    Non so che intendi per normalizzazione dell'url

    intendevo mettere i %XX al posto dei caratteri speciali.
    mi ero fatto ingannare da questo ...

    e&#40;url&#41;.replace&#40;/\+/g,"%2B"&#41;;
    

    efettivamente sembra questo il tacking dei click. xò è composto da una chiave generata ogni volta diversa che impedisce chiamate dirette... insomma non è possibile fare le pippe a questa funzione in modo automatico...


  • Super User

    @drcrck said:

    intendevo mettere i %XX al posto dei caratteri speciali.
    mi ero fatto ingannare da questo ...

    e&#40;url&#41;.replace&#40;/\+/g,"%2B"&#41;;
    

    efettivamente sembra questo il tacking dei click. xò è composto da una chiave generata ogni volta diversa che impedisce chiamate dirette... insomma non è possibile fare le pippe a questa funzione in modo automatico...

    Eheh hai ragione anche tu, ma per ora il progetto prevede solamente la possibilità di aggiungere link inesistenti a serp esistenti. Quindi io non ho bisogno del codice perché c'è già 🙂 Semplicemente aggiungo un link che non c'era.


  • User Attivo

    Sperimentiamo 🙂

    funzione: clk(url,ct,cd,sg)

    dove , guardano la chiamata:
    return clk(this.href,'res','2','')

    url = this.href ... ok il link
    ct = 'res' x ora definiamola una costante
    cd = 2 ... la posizione
    sg = '' ... str vuota ...

    questo facendo un paio di prove.... bisogna continuare... 🙂