Una guida all’analisi dei files di Log, per la search
engine optimization, non puo’ che partire
dalla definizione dei files di log:
I files di log sono dei documenti, in formato di testo, utilizzati dai WEB SERVER per registrare una serie di informazioni relative alle visite che il nostro sito internet ha ricevuto in un lasso di tempo definito.
I files di log sono dei documenti, in formato di testo, utilizzati dai WEB SERVER per registrare una serie di informazioni relative alle visite che il nostro sito internet ha ricevuto in un lasso di tempo definito.
I file di log sono due:
- File degli accessi ricevuti che ci fornisce indicazioni su tempi di download dei singoli oggetti facenti parte del nostro sito, la data e l’orario delle visite ricevute, l’indirizzo IP dal quale c’è stato il collegamento al nostro sito internet, le risorse richieste dal visitatore e la tipologia di risposta che è stata data al visitatore;
- File degli errori registrati che ci elenca tutti gli errori riscontrati in fase di accesso.
Risulta chiaro che per un esperto SEO, l’analisi di questi file diventa fondamentale per
capire, almeno, due cose importanti:
- Quanto risulta interessante il nostro sito internet per lo spider di Google?
- Quali errori ha riscontrato lo spider di Google consultando il nostro sito internet?
In questa guida ci limiteremo a capire bene quali tools ci
possono essere utili per facilitare l’analisi di queste due problematiche.
Partiamo con il dire che per avere i files di log occorre
interpellare l’amministratore del server, sul quale il nostro sito internet è
caricato, e chiedere di metterli a vostra disposizione. Generalmente l’amministratore
li posizionerà in una cartella nominata LOG.
Tramite un qualsiasi programma FTP (consiglio, uno per
tutti, il famoso FILEZILLA) li
scaricheremo sul nostro pc e tramite dei programmi specifici li analizzeremo
nel dettaglio.
Il software che
utilizzo per procedere con quest’analisi
è Apache Log file Viewer. E’ un programma gratuito (almeno per le
applicazioni di base) che ci fornisce le seguenti informazioni :
- File LOG degli accessi: IP ADDRESS di chi ci ha visitato, DATA e ORARIO della visita, la richiesta effettuata dal visitatore (quindi l’oggetto, l’immagine, la pagina, etc.), lo stato di risposta alla richiesta, la grandezza in KB della risorsa ottenuta in seguito alla richiesta e il Paese in cui è localizzato l’indirizzo IP del visitatore.
- File LOG degli errori: IP ADDRESS di chi ci ha visitato, DATA e ORARIO della visita, il messaggio di errore ottenuto dal visitatore e il Paese in cui è localizzato l’indirizzo IP del visitatore.
Se tra gli indirizzi IP del file degli accessi leggeremo anche “crawl…” allora vorrà dire che il famigerato
spider di Google, Googlebot, ha effettuato
una visita al nostro sito internet. E’ importante, quindi, che:
- Googlebot ci venga a visitare quanto più spesso è possibile. Questo vuol dire infatti che Google considera il nostro sito interessante e invia il suo spider per registrare aggiornamenti di pagine già esistenti e/o pubblicazioni di nuove pagine.
- La risposta del nostro sito internet, alla richiesta dello spider sia sempre positiva. A volte può succedere che lo spider richieda dei file che non ci sono (per esempio il file robots.txt). In questo caso non è necessario crearli e caricarli. L’importante è che gli errori non siano su file e pagine che sono parte integrante del nostro sito internet.
Attenzione anche al peso delle risorse restituite al crawler (la colonna size del file degli accessi).
Se avete il sospetto che le dimensioni di qualche oggetto siano un po’ esagerate, effettuate una verifica con PageSpeed Insights — Google Developers per ottimizzare ogni singolo elemento del vostro sito internet. Seguendo le istruzioni di questo utilissimo tool, infatti, riuscirete sicuramente a migliorare le prestazioni delle vostre pagine internet in termini di velocità di download.
Dall’analisi
di questi due files di LOG, riuscirete a capire quindi quali interventi
impostare sul vostro sito internet per eliminare gli errori, assolutamente
penalizzanti per il posizionamento, e quali risorse risultano esplorate
maggiormente dal Googlebot.
Se
queste ultime non corrispondono a quelle che ritenete più importanti ed
interessanti per l’indicizzazione del vostro sito internet allora avete un
problema da affrontare.
Il
mio consiglio, chiaramente, è quello di cominciare a risolvere questo problema leggendo
con attenzione gli altri post di questo blog.
Buon
lavoro!