Martin Hilberg dell’Università della California stima che ormai circa il 98% dell’informazione prodotta nel mondo si trova in formato digitale.
Una buona fetta di queste informazioni, che ci riguardano direttamente, siamo noi stessi a produrle. Ogni volta che lasciamo scivolare le dita sullo schermo dello smartphone per acquistare un prodotto online o anche semplicemente per inviare un messaggio a un amico stiamo raccontando qualcosa sulle nostre abitudini o i nostri gusti.

In rete c’è una vera e propria miniera di dati, che negli ultimi anni ha attirato l’attenzione degli istituti di ricerca di tutto il mondo. In Italia l’Istat, l’Istituto Nazionale di Statistica, sta guardando con molto interesse alle potenzialità racchiuse nei Big Data, le tracce digitali che lasciamo in rete in grande quantità.
Pochi giorni fa abbiamo intervistato Giorgio Alleva, presidente dell’Istat, intervenuto a Pisa durante la presentazione del master in Big Data Analytics e Social Mining dell’Università di Pisa.
“I big data sono al centro del dibattito internazionale. Si tratta di una grande sfida per gli istituti nazionali di statistica”, esordisce. Al momento, ci troviamo in una fase di ricerca. “Su alcune sperimentazioni siamo più avanti, come nella misurazione delle dinamiche dei prezzi dei beni di consumo”. I dati, in questo studio, provengono dalle letture degli scanner che passano la merce. L’istituto ha stipulato un accordo con la grande distribuzione, potendo così monitorare in tempo reale i prezzi dei prodotti, maneggiando una mole molto grande di informazioni. Uno dei vantaggi principali riguarda l’abbattimento dei costi. “Inoltre – prosegue Alleva – si riduce il l’onere del contatto con le famiglie e le imprese”. L’indagine tradizionale prevede infatti che i rilevatori si rechino ogni mese nei negozi campione, andando a registrare i prezzi sul posto. Così anche l’elaborazione dei dati è più complessa e costosa, anche se collaudata da decenni di esperienza.
Il concetto stesso di campione, quando si hanno a disposizione milioni di dati, cambia radicalmente. “I big data non sono un campione ma sono un gran volume di informazione, occorrono nuovi strumenti per verificarne l’affidabilità”, riflette Alleva.
Altri filoni di ricerca per le indagini statistiche con i big data spaziano dalla stima del tasso di disoccupazione attraverso le ricerche più frequenti su Google all’analisi del sentimento che genera un determinato evento sui social network.
Non sempre questi metodi possono sostituire i modelli tradizionali, tuttavia spesso permettono di migliorare le stime e di estrarre risultati utili con un tempismo praticamente immediato.

“Per raggiungere risultati ci sono ancora diverse partite da vincere – ammonisce Alleva. Prima di tutto si dovrebbe ridurre l’asimmetria informativa con le grandi aziende di servizi, che detengono gran parte dell’informazione. Poi c’è la questione delle competenze, perché servono persone in grado di trattare questi dati nel modo giusto. Infine, c’è il tema dell’accessibilità”. Per quest’ultimo punto il presidente dell’Istat parla di “democrazia digitale”, perché se i cittadini forniscono delle informazioni devono trarne vantaggi in termini di miglioramento dei servizi per la qualità della vita.

“Siamo ancora in una fase di studio con i big data, ma il nostro obiettivo è di passare presto alla fase industriale, per fabbricare dati migliori”, conclude.