Parafrasando il titolo di un bel libro di Paolo Giordano, diventato di recente anche un film, ci apprestiamo a trattare di un argomento a molti, noi della redazione compresi, ostico:  i numeri binari composti da zero e uno e i file di log.

Cercheremo di “tradurre” con parole semplici il tutto, iniziamo da cos’è un file di log, non è altro che la registrazione cronologica delle operazioni effettuate da un visitatore di un sito man mano che vengono eseguite.


Questo file di log si presenta noiosamente come un enorme documento con ogni rigo l’IP (che è il numero assegnato dal vostro fornitore di servizi di connessione ADSL) e l’azione svolta come ad esempio il caricamento di una pagina.

Questo sterile e asettico file deve essere conservato per legge per  diversi mesi, almeno 12, in maniera  inalterabile e immodificabile a disposizione di eventuali controlli delle forze dell’ordine o di altro organo preposto al controllo.

Di fatto quindi il file di log generato dal server dove risiede un sito è l’unico registro assoluto di controllo delle azioni fatte dai visitatori. Quindi il file di log non è pubblico perchè si tratta di un documento ufficiale e riservato.

Per rendere gradevole la lettura di questo file esistono diversi software che trasformano tutte queste righe di registro in grafici e tabelle che mostrano il numero di visitatori, gli ingressi dei motori di ricerca etc. , quali AwStat, Webalizer, Visitors e altri.

Nella analisi del traffico ci vengono, comunque, in aiuto dei software di terze parti, ovvero soggetti esterni che offrono  questo servizio, che attraverso l’inserimento di un rigo di codice in ogni pagina web, mostrano l’andamento delle visite, quali e quante pagine viste le parole cercate sui motori di ricerca per arrivare al sito, e tanto altro ancora.

Il più conosciuto è google analytics ma ne esistono diversi, quindi c’è una differenza notevole tra il file di log e un servizio terzo/esterno di analisi del traffico.

L’unico neo di questi servizi è che non sono molto precisi perchè dovendo caricare di volta in volta questo codice capita che si perda una fetta di numeri assoluti.

Di contro, l’importanza di questi servizi è che, su grandi numeri di traffico, si possono studiare i comportamenti degli utenti, ad esempio da quale pagina lasciano la visita del sito, alla geolocalizzazione di massima degli IP, alle conversioni, etc..

Ma anche questi servizi rimangono “occultati” ai visitatori perchè sono sempre dati sensibili atti a migliorare e ottimizzare la qualità del sito.

A questo punto la domanda nasce spontanea, come facciamo a sapere quante visite riceve il sito X ?

Per questa domanda bisogna affidarsi a servizi più o meno veritieri quali alexa.com o altri  che classificano i vari siti in base a delle caratteristiche precise che è molto lungo e noioso da spiegare.

Esistono invece altri metodi per conoscere, con un margine di errore più basso, le visite ricevute da qualsiasi sito, per far questo bisogna affidarsi al reverse engineering che è quella pratica tecnica che cerca di capire il funzionamento di qualcosa senza avere a disposizione il progetto o il codice sorgente.

Per facilitarci la vita vi indichiamo un ottimo strumento trasparente di reverse engineering per le visite dei siti qualsiasi essi siano.

Come sempre la parte da leone la fa google con uno strumento/servizio nato per la valutazione dei siti e rivolto agli inserzionisti ovvero coloro i quali vogliono esporre la loro pubblicità.

Questo strumento si chiama google doubleclick adplanner, andiamo a vedere come funziona, nella parte sinistra c’è una finestrella dove inserire la url, ovvero l’indirizzo del sito che si vuole esaminare, nel nostro caso esaminiamo canicattiweb.com e premiamo sulla freccetta a destra, dopo alcuni secondi ci compare una schermata dove c’è classificato il sito, affinando il filtro e scegliendo di visualizzare i dati italiani dall’apposita tendina si hanno delle tabelle e dei grafici che espongono diversi parametri, dal sesso dei visitatori, all’età al grado scolastico etc. (vedi foto)

A questo punto analizziamo i  nostri dati del file di log comparandoli ad esempio con i siti che per il servizio sono più affini, in questo caso il tool ci suggerisce la testata giornalistica online dei colleghi di agrigentonotizie.it, possiamo vedere che ad esempio i nostri colleghi hanno un indice di 100K Unique visitors (estimated cookies), ovvero  aggiustando il margine di errore attraverso i nostri dati reali, una media di visitatori giornalieri unici stimata tra i 13mila e 15mila, dati congrui e veritieri per una testata da molti anni presente nel web, complimenti alla redazione di agrigentonotizie.it.

Se confrontiamo il nostro indice vedremo che è di 47K Unique visitors (estimated cookies) con una media di visitatori unici giornalieri stimata, in rapporto all’indice confrontato e corretto, tra i 5mila e 6mila che alla fine è più o meno la media giornaliera di visitatori unici che restituisce  il nostro file di log.

Ma vediamo ad altri colleghi cosa restituisce il tool, ad esempio per agrigentoflash.it e agrigentoweb.it l’indice di Unique visitors (estimated cookies)è compreso tra 52K e 57K cioè, per comparazione con gli altri dati, una stima di visitatori giornalieri unici tra i 8mila e 10mila, ovvero i numeri di visitatori unici quotidiani che verosimilmente hanno i colleghi delle 2 testate giornalistiche. (vedi foto)

[nggallery id=76]

Ma che differenza passa tra visitatori unici e totale visitatori ?

Semplicissimo, un visitatore unico è calcolato nelle 24 ore, mentre il totale dei visitatori viene calcolato nelle 8 ore, quindi uno stesso visitatore può andare nello stesso sito dopo 10 ore ed essere calcolato due volte nel totale dei visitatori ma solo una come visitatore unico.

Solitamente, per le testate giornalistiche online, la percentuale di ritorno nella stessa giornata è dal 20 al 30 % .

Adesso volevamo ringraziare i nostri lettori e i nostri espositori che ci danno la libertà e la fiducia per poter espletare il nostro servizio quotidiano di informazione, e nello stesso tempo metterli al corrente degli strumenti per analizzare in reverse engineering, in assoluta libertà e trasparenza, tutti i siti che vogliono attraverso google adplanner.

ps. dimenticavamo, il tool non restituisce nessun risultato per i siti con meno di 500 visitatori unici al giorno.