- Home
- Categorie
- La Community Connect.gt
- Tutto sulla Community
- [Google Webmasters Tools - Sitemaps] Nuove funzionalità
-
[Google Webmasters Tools - Sitemaps] Nuove funzionalità
Sono attive nuove funzionalità avanzate nel pannello di controlo del Google Webmasters Tools, circa l'attività degli spider di google sulle pagine del ns sito.
Come comunica il post sul Blog uffciale adesso è possibile avere accesso a grafici che ci indicano il numero di pagine scaricate al giorno durante gli ultimi 90 giorni, il tempo medio di scaricamento e i kbytes scaricati al giorno...
Come avevamo scritto tempo fa, adesso è pure possibile per tutti indicare la frequenza (fra tre possibili livelli) con cui vorremmo che lo spider ci visitasse !
Altra importante novità la possibilità di segnalare le immagini presenti sul proprio sito web alle nuove funzionalità di ricerca immagini di Google come al programma di Google image Labeler.
Infine è adesso visualizzabile il numero di url effettivamente ricevute.
Nicola
-
Grazie della segnalazione, attivata già la nuova funzione per le immagini vedremo se portarà realmente delle migliorie.
-
bello, grazie Nicola per la puntuale segnalazione
-
Buonagiornata a tutti.
nel nuovo account Sitemap è anche apparso un nuovo aspetto interessante:Ne riporto la visualizzazione
**Attività di Googlebot negli ultimi 90 giorni **
**Massimo Medio Minimo: **1774 - 670 - 34[Numero di pagine scansionate al giorno](http://javascript<b></b>:dropInfo('fetchesdiv', 'none', document.getElementById('fetcheszipimg'), 'none', null);)
**Massimo Medio Minimo: **46962 13241 539 [Numero di kilobyte scaricati al giorno](http://javascript<b></b>:dropInfo('bytesdiv', 'none', document.getElementById('byteszipimg'), 'none', null);)
**Massimo Medio Minimo: **2778 - 1117 - 419 [Tempo trascorso per il download di una pagina (in millisecondi)](http://javascript<b></b>:dropInfo('timesdiv', 'none', document.getElementById('timeszipimg'), 'none', null);)
Mi sembra che la media delle pagine sottoposte a scansione giornalmente sia altissima e superiore alle aspettative.
Non avendo l'accesso al log del server non sono in grado di verificare la affidabilità di questo nuovo Tool.
Sarebbe interessante farloRingraziando sempre tutti saluto
Alessio
-
Le statistiche sulla velocità di scansione di Googlebot offrono informazioni utilissime. ... (nei giorni scorsi avevo letto la notizia sul blog di Matt Cutts).
Molto interessante la possibilità di dire a Googlebot "Ehi, frena!" oppure "Vai pure a tutta birra!". Quest'ultima opzione è selezionabile solo nel caso in cui la crawl rate risulti già rallentata (nel qual caso, viene segnalato così: "Abbiamo rilevato che Googlebot sta limitando la velocità di scansione delle pagine del tuo sito per evitare di sovraccaricare eccessivamente il tuo server. Se il tuo server è in grado di gestire un traffico Googlebot superiore, ti consigliamo di selezionare qui sotto l'impostazione Più velocemente.").
E' un po' l'equivalente della direttiva robots.txt Crawl-Delay (attualmente supportata solo da Slurp, MSNBot e Teoma). Può tornare utile in casi di "emergenza", anche se idealmente non bisognerebbe mai rallentare i bot dei motori di ricerca: quando un sito risulta sovraccaricato dagli accessi degli spider, è ora di trasferirlo su un server più performante e/o con più banda a disposizione.
-
Molto interessante la possibilità di dire a Googlebot "Ehi, frena!" oppure "Vai pure a tutta birra!". Quest'ultima opzione è selezionabile solo nel caso in cui la crawl rate risulti già rallentata (nel qual caso, viene segnalato così: "Abbiamo rilevato che Googlebot sta limitando la velocità di scansione delle pagine del tuo sito per evitare di sovraccaricare eccessivamente il tuo server. Se il tuo server è in grado di gestire un traffico Googlebot superiore, ti consigliamo di selezionare qui sotto l'impostazione Più velocemente.").
Perchè? a qualcuno non esce questa possibilità? Io lavoro con più società di hosting e server, quella scritta me la da su tutti i siti, quindi penso che il fatto che ti dicano che googlebot sta andando piano sia una strategia di marketing, anche perchè ho provato a metterlo più veloce ma fino ad ora (una settimana di test), ha velocizzato ben poco (fonte: gli stessi grafici di sitemaps)
Spero di sbagliarmi e che questa funzione sia veramente attiva e funzionante (scusate il gioco di parole)
-
@Pigot4 said:
Perchè? a qualcuno non esce questa possibilità?
A me esce solo su un sito che in effetti ha grossi problemi di rallentamento. Su tutti gli altri appare disabilitata.
Consiglio di dare un'occhiata alla velocità media di download (grafico rosso), che presumo includa anche i tempi di risposta: se > 1000 ms, probabilmente c'è un problema.
-
azz....
io pensavo fosse un qualcosa di fisso, ora controllo meglio ma mi sa che non è disabilitata su nessuno dei miei siti.
-
Ciao Everflux,
alcune considerazioni:- essendo un dato ufficiale dovrebbe essere attendibile
- l'andamento della periodicità e profondità della visita del crawler è estremamente interessante. introduzione di back link, sitemap nel foot, diverse barre di navigazione ecc. ecc. possono avere riscontro oggettivo e qualificato da questi grafici.
- ho notato dei picchi in corrispondenza di interventi importanti (es: Title nuovi su tutte le pagine circa 6000) e questo confermerebbe la scuola di pensiero cambia Title a fronte di quella non lo toccare mi raccomando.
- la perfezione potrebbe essere raggiunta se si potessero scindere gli accessi del Crawler:
A) Quelli dalla scansione della Home
B) Quelli dalle pagine interne
C) Quelli dalla Sitemap
D) Quelli dai Back Link
Ancora un saluto
-
ho unito i due thred sull'argomento...
-
Ciao Ale58,
grazie per questo post.Essendo più attinente con il servizio Sitemaps di Google, trasferisco in quell'area l'interessante discussione
Cordialmente,
Stuart
-
Grazie a Voi tutti senza alcun dubbio,
questo forum è diventato veramente vasto.
Saluti
Alessio