• User

    L'orco Link-exchange e l'incubo del back-link... Ma non eravamo in una Rete???

    Aiuto, sono innocente... Non voglio il cappello nero!!! :bigsmile:
    Quarantenne affranto, vittima di un panda, cerca conforto spirituale...

    E' mai capitato anche a qualcuno più esperto e sgamato del sottoscritto di possedere più domini sullo stesso ip e stesso proprietario di chiedersi perché mai se li connetto uno con l'altro devo rischiare punizionie corporali da Google?

    Il mio problema è questo: i miei siti corrispondono a diverse sezioni di un unico progetto, o girando la frittata, ho un unico sito di cui ogni sezione risiede su un suo dominio.
    Il che significa che, per l'utente è comodo avere UN UNICO MENU' (pressoché identico) su tutte le pagine di ogni diverso sito, il che comporta che ogni pagina ha un elenco di 60 link che puntano agli altri domini e ne riceve altrettanti:
    sito A linka a sito A + B + C + D
    sito B linka a sito A + B + C + D
    etc.

    Ho involontariamente creato un'isola di backlinks aggrovigliati!!!
    Rischio la pena di morte o l'esilio? 😮

    Insomma, come posso evitare che Google sospetti un comportamento illecito?
    La mia unica idea sarebbe di linkare TUTTI i link presenti nel menù "comune" con il marchio del nofollow, ma in questo modo l'orco Googlebot si placa riguardo al blackhat sul PR, ma potrebbe lo stesso sospettare che voglia chiudere il visitatore in un labirinto di contenuti scadenti...
    M se sbatto fuori dalle pagine il menù facendolo richiamare da un iframe non rischia di essere un comportamento ancora più sospetto?

    Avete soluzioni migliori? Voi non avete mai avuto un dilemma simile? Come lo avete affrontato?

    Grazie fin da subito per ogni suggerimento o consiglio.


  • ModSenior

    Ciao sognista, benvenuto nel forum gt.

    Se hai creato un circuito chiuso di backlinks tra siti dello stesso network rischi effettivamente delle penalizzazioni.
    La soluzione è quella di far arrivare backlinks "sani" a tutti i siti del tuo network e nel frattempo rimuovere, temporaneamente, i backlinks incrociati.

    Quando tutti i siti del network avranno acquisito una loro link popularity naturale, allora potrai ripristinare i links tra di loro.

    IFrame o altre tecniche oltre a non servire potrebbero anche compromettere il buon posizionamento.

    Valerio Notarfrancesco


  • Super User

    @sognista said:

    perché mai se li connetto uno con l'altro devo rischiare punizionie corporali da Google?

    Ma infatti il motore non ha interesse a punirti. I motori non hanno interesse a penalizzare le implementazioni ma solo le cattive intenzioni che vi stanno dietro.

    L'interlinking tra domini diversi non è di per sé qualcosa di positivo o negativo, non esistono tecnologie buone o cattive ma al massimo solo utilizzi malevoli.

    Quindi la domanda da porti è: hai progettato il tuo network in quel modo per fregare i motori di ricerca? Se sì, allora stai rischiando una penalizzazione; se no, allora non stai rischiando una penalizzazione, a meno che Google non scazzi completamente e che per tua sfiga si sbagli sulla tua valutazione (a volte capita).

    Poi c'è un discorso diverso da fare e che riguarda la qualità. Qual è la qualità del sistema che hai creato? E' più usabile per l'utente? E' facile da navigare? La natura multi-dominio è giustificata da un vantaggio dato agli utenti?

    Le domande sulla qualità rimangono sempre valide per capire se la situazione può essere ulteriormente migliorata, ma non riguardano il fenomeno delle penalizzazioni.

    Lì fuori ci sono centinaia di siti e portali multi-dominio, così come tanti siti che erogano a Googlebot contenuti diversi da quelli che vedrebbe l'utente, così come pagine che hanno testi "a comparsa". Sono intrinsecamente cattivi? No. Buoni? Nemmeno. Dipende dal perché lo fanno.


  • User Attivo

    Link farm.
    Google li banna tutti o li penalizza tutti.

    Soluzione?
    Ridurre o rimuovere i lnk incrociati e mandare BL esterni alla tua isola.


  • User Attivo

    Mi riallaccio al discorso fatto da LowLevel: se i link servono, come mi sembra di capire, per via di un discorso di unico progetto ecc. per me non c'è davvero motivo di rimuovere nulla. credo da sempre che i principi di buona progettazione delle pagine vadano al di là della SEO, e siano un discorso fondamentalmente più "nobile", se vogliamo.

    secondo me, quindi, anche a mettere molti link non c'è nulla di male, ovviamente se (e ripeto se) l'utente ne può trarre giovamento, se ci sono pertinenza, raggruppamenti ragionevoli e via dicendo: porto sempre l'esempio di alcuni blog anglofoni con curiosità, toplist, foto insolite ecc... che mettono il widget ai post simili nell'header, e per quanto sia una cosa anomala per un web designer è secondo me funzionale al tipo di sito che è "mordi e fuggi" (quindi non dovrebbero rischiare penalizzazioni, per questo).


  • User

    Grazie a entrambi...

    Ecco, adesso sono più confuso di prima :-DDD

    @ Francesco
    disattivare il navigatore generale temporaneamente e aspettare linkpopularity esterna 'naturale' è una tattica molto saggia, ma diminuisce l'appeal del network perché da analytics vedo chiaramente che molti utenti saltano volentieri da un sito all'altro e senza menù generale quelli che arrivano interessati alla sociologia e alla demografia, ad esempio, non saprebbero che esiste una sezione di storia contemporanea... Quindi adotterò sicuramente il tuo rimedio in extremis, cioé se proprio non trovo una soluzione che mi permetta di salvare la navigazione degli utenti tra siti distinti (ma tutti nell'ambito della cultura generale, cioé non ci sono prodotti, adsense, iscrizioni né altro sistema di guadagno) senza che Google sospetti che lo faccio per aumentare artificialmente il PR o offrire agli utenti contenuti diversi da quelli che cercano.

    @ Low Level
    Il tuo ragionamento è sensatissimo, lo sottoscrivo in pieno, personalmente ho ovviamente interesse a che un utente interessato all'evoluzione degli ominidi venga invogliato anche a leggere le mie pagine di etologia e antropologia, per cui entra nel dominio cronistoria it e poi può darsi che voglia proseguire nel sito scibile it ... il problema è che Google non guarda nel codice, non nella mia coscienza 😄


  • User

    @ Salvatore: riesci a darmi un link di un sito inglese che ti è venuto in mente con widget di altri domini? Perché il problema è quando hai due domini e entrambi si linkano vicendevolmente e potrebbe darsi che i siti inglesi a cui hai pensato sono costruiti con il sito A e il sito B che linkano al sito C (che è quello che vedi con i widget anche A e B) ma non viceversa... e quindi evitano il "sospetto isola"...

    @ Marta: sì, le mie pagine hanno dai 5 ai 15 link ad altri siti autorevoli, wikipedia, youtube, siti di filosofia... Ma il navigatore contiene link a 9 domini (cioé il dominio dove stai e altri 8 domini) di cui alcuni divisi nelle rispettive sezioni, per un totale di fino a 26 link a siti esterni che hanno fino a 26 link di ritorno.
    Il fatto è che siccome il menù incriminato è uguale per ogni pagin di tutti i 9 domini, o lo tolgo tutto o lo lascio tutto, perché se il visitatore si trova un menù diverso a seconda della sezione / dominio in cui si trova si disorienterebbe...
    Quindi se nessuno ha una soluzione più elegante che salvi capra e cavoli, cioé salvi navigazione multidominio e Google tranquillo, dovrò adottare il più drastico e doloroso rimedio di Francesco: separare tutti i siti l'uno dall'altro finché (e chissà in quanti ANNI, raga... io ricevo IN TOTALE 30 visite al giorno :lol:... prima di avere popolarità.... hihihi a voglia!!!)


  • User Attivo

    Non ho capito quello che vuoi dire sognista.
    Io parlo di link in entrata.
    Se Google vede che i tuoi siti ricevono link in entrata solo dai tuoi allora sono problemi.


  • User Attivo

    @sognista said:

    @ Salvatore: riesci a darmi un link di un sito inglese che ti è venuto in mente con widget di altri domini?

    No, purtroppo non li ho salvati nei bookmark, se ci ricapito te li passo comunque... mi riferisco a blog tipo CollegeHumor (che pero' attualmente non ha questo tipo di struttura), che linkano direttamente (above the fold) contenuti simili, che siano di sottodomini o link esterni poco conta. Mi sorprenderebbe sapere che siti del genere abbiano avuto problemi per questo "difetto" strutturale, dato che soddisfano i loro utenti, sono visitati ecc ecc (magari hanno troppi ads ma questo è un altro discorso).

    Visto che mi occupo spesso della struttura dei siti, posso anche aggiungere che non vado troppo a guardare la struttura dei link, se formano "link wheel" e cose del genere... ripeto, se i link servono ben vengano, in giro si vedono anche blog che linkano nell'header altri blog simili (tipo webring, insomma) e sono sempre ben posizionati.

    A me sembra male piuttosto fare uso in modo malevolo di questi meccanismi, magari règolati a non esagerare sulla quantità, e concentrati sull'usabilità reale del sito che è SEMPRE essenziale.


  • User

    Grande Salvatore79!!!
    Scovati!!!
    Dal tuo indirizzo ho trovato 2 network inglesi entrambi composti da 6 'portali' diciamo, di temi simili e struttura e grafica molto simile, che formano esplicitamente un network (lo scrivono proprio) e che quindi ognuno ha lo stesso navigatore che si trova negli altri domini, e il navigatore linka tutti i domini tra loro, quindi schema a isola.

    Malauguratamente LORO sembra che facciano i furbi, perché entrambi i 2 network hanno tutti e 6 i domini con diverso Ip, diverso hosting, diverso registrant e diverso owner! Manco un solo dato uguale a un altro nemmeno per sbaglio.
    E' INTENZIONALE, non ho dubbi.
    Non so però come sono posizionati nella serp di Google, so solo che sono presenti e con ricerche su misura vengono fuori in prima pagina.

    Riguardo al codice, invece... NULLA! tutto dofollow, e il menu comune spiattelato in bella mostra appena si apre la body! Unico particolare, il menù in entrambi i casi è fatto con l'elenco: <ul><li>

    Quindi sono al punto di partenza, purtroppo, perché LORO fanno i furbi e per ora la stanno passando liscia, ma io, ingenuamente, ho tutti i domini normalmente registrati a mio nome sullo stesso server.

    @ Marta: dalla tua frase "mandare backlink esterni alla tua isola" avevo capito che intendevi link dalle mie pagine a altri siti esterni al mio 'network' ma forse non ho capito molto bene...


  • User Attivo

    Guarda ce ne sono migliaia di casi come quello da te descritto e anche senza bisogno di usare ip o altre cose diverse.
    Osserva pure le catene di blog della stessa idea o brand con le barre in alto che linkano tutti i siti e anche all'interno nelle sidebar.
    Ripeto, il problema nasce se il link che ricevono solno solo dai siti che compongono il network.
    Se così fosse potrebbe casuare delle penalizzazioni per link farm.
    (Non hai capito bene: intendevo dall'esterno del tuo network verso l'interno).


  • User

    Grazie Marta, ora ho capito meglio!
    In pratica secondo te è una questione di proporzione tra link scambiati tra una rete e link ricevuti dall'esterno... quindi ti allinei al suggerimento di Valerio Notarfrancesco che, fintanto che non ho molti backlinks da altri siti, mi conviene tirar via il menù, immagino...

    Chissà a questo punto, partendo dal tuo concetto di proporzione, se il numero di blog di una rete influisce positivamente o negativamente rispetto al numero di backlinks da collezionare per non venire penalizzati?
    Mi spiego: gli esempi che tu hai fatto NON sono strutturalmente come il mio in nessuno dei due casi:

    caso A che citi: Blogger viene linkato in alto nella barra da ogni blog della sua rete. Vero, ma è uno schema:
    A linka X
    B linka X
    C linka X
    Perché il blog di tizio NON linka anche a TUTTI gli altri blog di blogger!

    caso B che citi: se per sidebar intendi i blog amici, non hanno neppure in questo caso la struttura a isola ma questa:
    A linka B, C, D
    B linka E, F, G
    C linka H, I, L
    Nel senso che sì, alcuni amici li si condivide, ma saranno rarissimi 2 blog che hanno tutti GLI STESSI amici precisi e identici e nessuno di più, quindi sicuramente non ne troviamo 3, figuriamoci 9...

    Questo anche nello schema C, cioé tenendo in conto che ogni blog linka sempre a X (il portale, ad es blogspot), perché X ha un numero elevatissimo di 'link amici' cioé tutti i blog della sua rete.

    Inoltre, per la cronaca, ho appena scoperto, seguendo il tuo ragionamento, che blogger e blogspot sono la stessa blog community e... FANNO PARTE DI GOOGLE.
    Quindi almeno loro sicuramente non hanno problemi di blackhat...

    Ma quindi secondo te, se io ho 9 siti interlinkati l'uno con tutti gli altri, quanti diversi backlink ciascuno dovrebbero avere per tenere buono il Cerbero Google?
    Per dire... 9 link esterni differenti ciascuno?


  • Super User

    @sognista said:

    il problema è che Google non guarda nel codice, non nella mia coscienza

    Ma certo che guarda alla tua coscienza, lo fa da anni! 🙂

    • I Quality Rater sono personale umano stipendiato per allenare il motore a riconoscere risultati di ricerca migliori e siti di alta o bassa qualità sulla base di considerazioni umane, successivamente trasposte in combinazioni dei segnali tecnici che il motore di ricerca monitora costantemente.
    • L'intera caccia alle streghe degli ultimi anni sulla compravendita di link ha avuto l'obiettivo di individuare proprio gli intenti dietro la nascita di un link. Un link, di per sé, non è ne buono né cattivo. A fare la differenza è l'intento per il quale è stato creato.
    • Il cloaking non è una tecnica sgradita da Google se la usi per intenti etici. Persino Google ti suggerisce di usarlo in specifici casi! (es: First Click Free)

    Lo spauracchio che ad essere punite sono le tecniche e non gli intenti se lo sono creati i SEO nella propria testa, ma è una convinzione malata 😄 oltre che una semplificazione eccessiva alla quale si ricorre in assenza di informazioni su come un motore di ricerca valuta realmente le risorse.

    Qualunque algoritmo di penalizzazione di un motore viene progettato in modo da evitare o minimizzare i "falsi positivi". Questa non è una teoria, è una conditio sine qua non per tutti gli informatici che devono sviluppare algoritmi volti a valutare scenari potenzialmente malevoli.

    Se il motore si rende conto che un algoritmo produce troppi falsi positivi, aggiusta il tiro modificando i parametri che lo regolano, per esempio abbassando un valore soglia o un peso della formula che incide sulla classificazione dell'oggetto valutato.

    Un motore di ricerca produrrebbe risultati scandalosamente cattivi se le proprie analisi si fermassero al codice delle pagine, così come un sistema giudiziario farebbe schifo se giudicasse automaticamente colpevoli tutti i possessori di armi, fermando la valutazione al solo possesso dell'oggetto.

    I network espliciti di domini non possiedono una valenza intrinsecamente positiva o negativa, stanne certo. Sul web ci sono sicuramente diversi portali con queste caratteristiche, eventuali loro problemi SEO possono essere ricondotti a parametri qualitativi (es: l'interlinking ha un senso per l'utente?), non all'interlinking in sé.

    Riassumendo: se un progettista pazzo di Google aggiungesse (unilateralmente e senza fare prima mesi di test in ambienti di sandbox) una regola assoluta che dice "Tutti i siti che si linkano in questo modo vanno considerati spam", perderebbe il posto di lavoro dopo pochi millisecondi. 😄 E poi lo perderebbe chi l'ha assunto. 😛


  • User Attivo

    Che qualche manciata di revisori controllino miliardi e miliardi di pagine la vedo dura.
    I controlli scattano su segnalazioni, non è che si mettono a navigare e controllare.
    Concordo in linea di massima con lowlevel e aggiungo che oltre la codice google analizza il comportamento dei visitatori e la storia del sito oltre che dove si trova e molti altri parametri.
    Fatto è che un insieme di siti palesemente chiuso in se stesso anche se con qualità di contenuti se la rischia ogni giorno...
    In bocca al lupo a chi sceglie questa strada.
    Ne ho visti network del genere fare pessima fine.

    La forza del posizionamento sta ancora nei link in entrata nonostante continui aggiornamenti: è stata la forza di Google da sempre e ancora lo sarà a lungo: e a riguardo la cosiddetta link diversity (tra cui IP, hosting, geo locazione, anchor, owner...) gioca in peso notevole.


  • Super User

    @marta_de_angelis said:

    Che qualche manciata di revisori controllino miliardi e miliardi di pagine la vedo dura.

    No, aspetta, nessuno ha detto che il personale lavori in quel modo, non controllano a mano miliardi di pagine. :tongueout: Funziona in un altro modo, cerco di spiegarlo meglio di come ho fatto nel post precedente.

    Alcuni tipi di algoritmi di machine learning, per natura, devono beneficiare di alcune fasi di training, che consiste nella valutazione umana di un sottoinsieme di risorse, dalla quale poi l'algoritmo "apprende" estraendone criteri generali. I risultati della valutazione servono dunque all'algoritmo per identificare quali caratteristiche tecniche possiedono le risorse che sono state valutate positivamente o negativamente.

    Per esempio, Panda è un algoritmo che fa uso di una tecnica simile: son partiti da una manciata di valutazioni umane per tirar fuori regole generiche applicabili all'intero web (o quasi).

    Era questo a cui mi riferivo quando dicevo: "considerazioni umane, successivamente trasposte in combinazioni dei segnali tecnici". Si fa uso di personale per acquisire valutazioni umane (e qui rientra il "Google guarda alla tua coscienza"), poi da queste valutazioni vengono estratti criteri generali.

    @marta_de_angelis said:

    I controlli scattano su segnalazioni, non è che si mettono a navigare e controllare.

    In alcuni casi sì, dipende dal tipo di controlli a cui ti riferisci. Esistono due contesti diversi, gestiti in Google da due team diversi.

    (questa distinzione è più importante di quello che si crede, perché chi la ignora crede che Google proceda prevalentemente con criteri punitivi, quando il criterio principe è invece quello di individuazione della qualità, ma qui sto divagando...)

    Nel contesto della valutazione della qualità dei risultati, Google usa sia personale umano (sono i Quality Rater, personale che tra le altre cose "naviga e controlla" su indicazioni di Google) sia soluzioni algoritmiche. L'obiettivo principale delle valutazioni dei QR non è fare antispam, però se gli capita dello spam sotto il naso lo possono flaggare come tale.

    Nel contesto anti-spam, invece, Google usa sia soluzioni algoritmiche sia personale interno (che si occupa di valutare le segnalazioni antispam a cui facevi riferimento tu).

    In tutti e due i contesti, l'apporto umano c'è, ovviamente sfruttato nel modo che indicavo sopra e non per fargli valutare a mano l'intero web.

    Alcuni Quality Rater sono anche frequentatori di questo forum. Se il loro contratto gli permettesse di manifestarsi come tali in pubblico, potrebbero confermare. In assenza di ciò, le linee guida dei quality rater recentemente pubblicate da SEL forniscono una buona visione generale di quanto i quality rater fanno e come lo fanno.

    @marta_de_angelis said:

    Ne ho visti network del genere fare pessima fine.

    Sì, ne ho osservato tantissimi anche io. Qualità globale orrenda, contenuti carenti, inutili o superflui per gli utenti. Sono stati segati per quella ragione, non perché erano interlinkati. Interlinkare argomenti correlati e di qualità fa bene al network, interlinkare contenuti non correlati o spazzatura fa male al network.

    Nel caso dell'utente sognista, senza osservare il suo specifico caso non c'è modo di sapere se sta andando incontro a problemi di qualche genere, proprio perché di per sé l'interlinking non modifica di una virgola la natura o la bontà del sito/network.

    Al massimo si può dire che in molti contesti spammosi, gli spammer hanno in passato linkato i siti di un network in quel modo là. Ma del resto molti siti porno hanno sfondo scuro e dubito che ciò sia sufficiente a indurre Google a classificare come pornografici tutti i siti con sfondo scuro. :tongueout:


  • User

    Grazie a entrambi, forse non ho ancora trovato la soluzione ma sicuramente mi sto facendo una cultura su Google!

    In ogni caso, io provo a essere ottimista: metto il navigatore in fondo alla pagina e tutti gli interlink con il nofollow, così, spero, prima di sbattermi in 375 pagina (non che ora io stia molto meglio) chissà che forse qualcuno (QR) o qualcosa (Panda) daranno una scorsa ai contenuti e capiranno il succo della filosofia, che è appunto il tentativo di fare una sintesi generale della conoscenza, quindi DEVE collegare la storia alla fisica, alla sociologia, alla psicologia... Che però rimangono ambiti di conoscenza distinti.
    Sulla qualità dei contenuti non possoautogiudicarmi, però sono tutti assolutamente originali, perlomeno, citazioni a parte, e anche la maggior parte delle illustrazioni.
    Affidiamoci al buon senso...


  • Super User

    In ogni caso, io provo a essere ottimista: metto il navigatore in fondo alla pagina e tutti gli interlink con il nofollow

    Questo non significa essere ottimisti, significa essere terroristi. :bigsmile:


  • User

    Se il mio dominio ha contenuti validi, farò le mie valutazioni per decidere se tenere tutto il contenuto nello stesso dominio, o se suddividerlo in più domini.

    Idem quando si lavora in gruppo, si deciderà se avere tutto in un dominio o se suddividere in più domini (con ogni dominio intestato ad una persona diversa).

    Le azioni truffardine sono nel contenuto non certo nella forma.

    E' normale che ci siano link per saltare da un domini all'altro senza che ci debbano essere intenti malefini, né tanto meno penalizzazioni.

    @sognista: "per l'utente è comodo avere UN UNICO MENU' (pressoché identico) su tutte le pagine di ogni diverso sito, il che comporta che ogni pagina ha un elenco di 60 link che puntano agli altri domini e ne riceve altrettanti:"

    Qui non si è di fronte ad un problema di penalizzazione per i troppi link, il problema è chela navigazione dei siti è mal studiata se ogni pagina ha così tanti link sempre uguali. Non vedo come possa essere comodo avere così tanti link in ogni pagina.


  • User

    @ Lowlevel: terrorista nel senso 'paranoico che si fa troppi scrupoli' o nel senso che proprio mettere i nofollow potrebbe far scattare una perquisizione di arsenali nucleari sotto alla mia scrivania?
    intendto dire: sono precauzioni superflue o pericolose??? (azzo se sono paranoico...)

    @ Maxandre: ciao, benvenuto!
    hihihi, si certo, detta così pare una tortura, ma è un drop down menù, cioé è a tendine a scomparsa, per cui si suddivide prima in sole 6 sezioni (di cui una visivamente secondaria) che poi uno apre UNA sezione se gli interessa spaziare e lì si trova di solito 3/4 link o in un unico caso 11 linkettini (sono gli autori, Freud, Saffo, Wilde...)
    ma mi faresti un grande favore (che ricambio qualora ti servisse con grande piacere) se mi dicessi spassionatissimamevolmente se VERAMENTE è accettabile come 'peso' di link...
    non so se mi accettano un finto link... speriamo che nessuno mi sgridi... ehm: scibile it ... :lipssealed:


  • Super User

    @sognista said:

    @ Lowlevel: terrorista nel senso 'paranoico che si fa troppi scrupoli' o nel senso che proprio mettere i nofollow potrebbe far scattare una perquisizione di arsenali nucleari sotto alla mia scrivania?

    "Terrorista" riferito sia alle motivazioni per le quali prendi una scelta simile (dettate da timori ma prive di una connotazione logica né in linea con le stesse linee guida di Google) sia alla soluzione in sé, che prevede di relagare a fondo pagina una struttura di navigazione che i tuoi utenti trovano utile ed usano, più una presa di distanze nei confronti di altri contenuti di qualità che hanno la "colpa" (secondo standard tuoi, non certo dei motori) di essere ospitati su domini esterni. Come se usare domini diversi fosse un morbo.

    Prendere a calci l'usabilità di un sito e ridurre la sua qualità complessiva solo perché sei convinto che ci sia da qualche parte una regola che dica "tutti i link fatti a questo modo sono considerati spam", non è niente di positivo.

    Sono azioni indotte dal terrore e che , in base a quanto hai detto, hanno già prodotto decisioni terroristiche nei confronti del tuo sito, che ne abbasseranno la qualità.