Big Data e Analytics nelle PP.AA.: valorizzare il patrimonio informativo pubblico per fare meglio e risparmiare

letto 3955 voltepubblicato il 28/03/2015 - 18:54 nel blog di Rita Pastore, in Osservatorio Spending Review

Il web ha superato il quarto di secolo di vita e oggi le statistiche sull’attività in rete, tra social media e app, sono impressionanti: ogni 60 secondi in media vengono inviate 204,4 milioni di e-mail, condivisi quasi 700mila contenuti su Facebook, postati 100mila tweet, caricate 100 ore di video su YouTube, vanno on line 571 nuovi siti. Esiste una massa impressionante di informazioni che ogni giorno persone, macchine, imprese, amministrazioni e l’ambiente stesso producono: i Big Data. Per calcolarne la quantità è stata codificata una nuova unità di misura, lo zettabyte che è pari a 1 triliardo di byte.

Ogni attività umana - dai consumi, ai trasporti, all’istruzione, al commercio - è fonte di produzione di dati che, letti adeguatamente, forniscono informazioni utili anche alle amministrazioni pubbliche: ad esempio per ridurre il traffico o gli sprechi energetici, aumentare l’occupazione, migliorare la sicurezza sul lavoro, attivare azioni di intelligence (sia a fini di sicurezza pubblica sia per finalità antifrode e/o di contrasto alla corruzione) o iniziative di prevenzione sanitaria, per risparmiare nella spesa e rendere più efficienti i servizi ai cittadini. Un controllo della spesa sistematico all'interno delle PP.AA., infatti, deve passare per la conoscenza e l'aggregazione di tutti i dati inerenti l'organizzazione stessa, il territorio di riferimento, i bisogni dei cittadini, in modo che questi diventino parte integrante del processo di pianificazione finanziaria e strategica dell’ente. Saper usare e sintetizzare tali dati, attraverso strumenti adeguati, diventa quindi un valore aggiunto per il patrimonio informativo pubblico, al fine di fornire supporto al management strategico.

Per leggere e interpretare questi dati, però sono necessarie applicazioni analitiche e tecnologie avanzate. E’ stato stimato che nel 2014 a livello mondiale sono stati investiti oltre 35 miliardi di dollari per sviluppare progetti, modelli e algoritmi che rendano utili i Big Data all’attività quotidiana di pubbliche amministrazioni, imprese, società di comunicazione, operatori finanziari. E’ un dato interessante ma in realtà appare come una goccia nel mare, poiché attualmente solo il 20% per cento delle aziende nel mondo ha avviato progetti pilota con i Big Data per migliorare il proprio modo di fare impresa.

Anche la Commissione Europea si è dimostrata sensibile al tema, firmando nell’ottobre 2014 un memorandum d'intesa con Big Data Value Association, l'industria europea dei dati, con la quale le parti si sono impegnate in una partnership pubblico-privato mirata al rafforzamento del settore dei Big Data, grazie all'investimento di 2.5 miliardi di euro in cinque anni. L’obiettivo programmatico è dare impulso alla ricerca e innovazione sui megadati in settori quali l'energia, la salute, la manifattura, per offrire servizi come la medicina su misura, la logistica degli alimenti e l'analisi predittiva. La Commissione ha stimato che gli effetti positivi di una migliore gestione dei Big Data da parte dell'Europa si tradurrebbero nella creazione di 100mila nuovi posti di lavoro entro il 2020, in un risparmio di energia a livello UE fino al 10%, nell'ingresso di circa il 30% dei dati mondiali nel mercato europeo, nel miglioramento della sanità e dell'industria. Un tesoro prezioso di informazioni/opportunità anche per le PP.AA.! Non dimentichiamo che queste sono le più grandi generatrici e raccoglitrici nonché utilizzatrici di dati e informazioni digitali.

E in Italia, a che punto sono le amministrazioni con i Big Data? Nel vasto e variegato panorama delle pubbliche amministrazioni c’è tanto da fare ai fini dell’innovazione digitale, però ci sono anche alcuni esempi interessanti che rappresentano delle buone prassi indiscusse:

  • Il sistema informativo dell’Inps si può definire un Super big data. Si compone oltre 25 terabyte di dati di cui circa 8 sono dedicati al datawarehouse aziendale, realizzato fin dal 2000 a supporto delle decisioni strategiche dell’Istituto, che ha adottato un approccio di tipo “think big start small”. Vista la mole di dati, sono stati realizzati prima diversi datamart dipartimentali per tipologia di utente alimentati dai relativi database operazionali, poi integrati in un'unica piattaforma intelligence che realizza modelli sia olap sia di data mining. I sistemi di navigazione del DataWarehouse consentono di descrivere fenomeni sociali, attuali e futuri, a supporto dei vertici decisionali i quali, avendo a disposizione strumenti di monitoraggio, possono adottare azioni correttive a livello organizzativo, procedurale e amministrativo. Sono stati impostati sia cruscotti di monitoraggio per il miglioramento dei processi interni sia sistemi di conoscenza a supporto dei processi decisionali. L’obiettivo è migliorare e ottimizzare il funzionamento degli scenari esistenti. I sistemi di datamining, infatti, consentono di rilevare informazioni nascoste tra dati e associazioni fra soggetti. Ad esempio, è stata realizzata una piattaforma “intelligence antifrode” in cui sono stati prefigurati scenari di potenziali frodi in diversi ambiti: una doppia erogazione degli assegni familiari all’interno della stessa famiglia; l’indebito conguaglio dell’indennità di malattia ecc. Per ottimizzare questi modelli previsionali, è essenziale raccogliere anche i feedback e l’INPS lo ha fatto: a titolo di esempio, per contrastare le frodi sono state acquisite anche le informazioni degli ispettori di vigilanza. In questo contesto le attività di business intelligence dell’Istituto trovano la loro massima realizzazione attraverso: la raccolta e l’analisi delle informazioni strategiche; la costruzione di nuove informazioni basate sui dati analizzati; la trasformazione di dati ed informazioni in conoscenza. Il tutto finalizzato alla prevenzione e all’ottenimento di un vantaggio competitivo dell’INPS nei confronti di tutti quei soggetti che a vario titolo possono non aver interesse al mantenimento dello stato sociale.

 

  • Anche l’ISTAT è da tempo a lavoro sulle nuove tipologie di dati generati nel web e da altri device, che possono essere tracciati e rielaborati a fini di pubblica utilità. Il processo di modernizzazione dell’Istituto di Statistica è incentrato proprio sullo sviluppo di un’architettura del tipo service oriented per la produzione di informazioni statistiche. Oltre ai dati rilevati con i tradizionali impianti metodologici della statistica e ai dati amministrativi, l’ISTAT inserisce nell’architettura anche i Big Data. All’interno di questo quadro, l’ISTAT immagina tre diversi scenari di uso:

1) mantenendo l’impianto di ricerca tradizionale, è possibile intercettare i dati che il campione in esame genera, acquisendoli in tempo reale tramite l’accesso ai canali dai quali sono stati generati (es. “sei disposto a scaricare un’app sul tuo telefono per tracciare la tua modaltà di utilizzo del device invece di compilare un noioso questionario?). Eurostat ha già operato una sperimentazione del genere;

2) uso integrato dei dati rilevati con modalità tradizionali e dati raccolti dal web per aumentare l’accuratezza del risultato della ricerca (es. Sentiment analysis). In Olanda è stata già fatta una sperimentazione simile, mediante utilizzo post di social per validare le stime ottenute con le tecniche tradizionali sui dati raccolti dai social;

3) utilizzo integrale dei Big Data in sostituzione dei dati raccolti con indagini censuarie o campionarie. E’ possibile quando c’è una copertura della popolazione di interesse prossima al 100%. Sono già state fatte sperimentazioni interessanti: in Estonia per l’analisi dei flussi di turisti stranieri in visita nel paese; oppure in Olanda per un’indagine sul traffico che tramite sensori specifici, realizza una rilevazione censuaria mentre prima si realizzava solo un’indagine campionaria, tra l’altro molto costosa per l’impiego di rilevatori.

Le principali aree di interesse attuale per l’ISTAT sono: le statistiche su traffico e trasporti attraverso siti web che in tempo reale producono informazioni; statistiche sulle vendite al dettaglio, traendo dati dai siti di e-commerce e da Google Trends; statistiche sui prezzi per migliorare l’indice dei prezzi al consumo attraverso l’uso di software dedicati alla raccolta dati su web; indicatori di benessere attraverso l’analisi dei messaggi dai social network; il monitoraggio delle Smart City.

 

  • Analogamente l’INAIL ha avviato un progetto sui big data per la corretta gestione dei premi assicurativi richiesti alle aziende in relazione ai fattori di rischio rilevati e per l’erogazione di risorse alle aziende che avviano progetti per garantire la sicurezza sul lavoro. Le risorse investite dall’Istituto contro gli infortuni sul lavoro sono notevoli: circa 330 milioni per i premi assicurativi e 500 milioni per l’incentivazione delle imprese. Per monitorare l’efficacia delle policy e gestire al meglio le risorse, Inail ha avviato un processo per individuare gli strumenti adatti a migliorare l’efficienza dell’azione dell’ente. E’ un percorso strutturato che richiede, da una parte, la definizione di un modello partecipativo di condivisione dei dati per tutti gli operatori del welfare a livello nazionale/internazionale e, dall’altra, lo sviluppo di una banca dati, censendo tutte le fonti disponibili. E’ necessario lavorare su tutti i dati che si possono raccogliere nel contesto in cui le aziende operano tramite il web e tramite i social network nonché mediante lo scambio di dati con altre amministrazioni. L’obiettivo è correlare gli infortuni che si verificano alle caratteristiche dei contesti di lavoro. L’Inail ha sviluppato modelli condivisi di data quality e metadati per implementare un modello di governance dei dati di welfare comune a più PP.AA. I benefici attesi sono: minori costi per i datori di lavoro in quanto i premi possono essere commisurati al rischio specifico che ogni azienda affronta; più sicurezza e tutela nel lavoro per i lavoratori; risparmio di tempo e nei contenziosi con le aziende per l’Inail.

 

  • Il Gruppo Enel da anni ha avviato progetti pilota lungo tutta la filiera, dalla produzione al consumo, per trasformare le informazioni che arrivano da centrali, reti e clienti in una leva di miglioramento dell’azienda. La funzione Global ICT di Enel sta sviluppando progetti differenti per i vari ambiti di attività. Per quanto riguarda la produzione di energia, in collaborazione con università e società di IT, ha sviluppato iniziative per realizzare sistemi predittivi attraverso l’analisi dei dati raccolti con sensori incorporati negli impianti eolici. Nell’ambito della distribuzione ha iniziato ad analizzare il fenomeno delle cosiddette perdite non tecniche, cioè quei comportamenti anomali nel consumo di elettricità che spesso nascondono tentativi di truffa. Nel rapporto con i consumatori, grazie a strumenti di web analytics e social listening, di tecniche per l’ascolto del parlato e di analisi semantica, sta sperimentando progetti per aumentare la capacità di comprendere desideri, esigenze e opinioni dei clienti che entrano in contatto con l’azienda tramite web, social media o call center.

Questi sono solo alcuni esempi concreti di amministrazioni o enti italiani che operano attraverso i Big Data. Il percorso è appena agli inizi ed è lungo, e molte sono ancora le questioni da affrontare, come la necessità di descrittori comuni; l’esigenza di un approccio integrato; la capacità concreta delle amministrazioni di fare rete; le potenzialità di alcuni player del mercato ICT; la questione della privacy da contemperare con la sicurezza nella gestione dei Big Data; ma non intraprenderlo significa precludere le possibilità che la tecnologia offre per risparmiare denaro pubblico, migliorare l’operato della PA e la vita dei cittadini.

 

 

 

4 commenti

Alberto Monda

Alberto Monda27/09/2015 - 09:40

Vi riporto un articolo molto interessante di Alessio Lana, apparso oggi sul Sole 24 Ore-Nova 24:

<<MANYCITIES emanazione del Mit SENSEable City Lab, mostra i dati raccolti dai cellulari di quattro citta del mondo tra l'aprile 2013 e il gennaio 2014 Si può cosi conoscere il numero di chiamate, sms, attività di upload e download dei diversi quartieri di Los Angeles, New York, Londra e Hong Kong. URBAN SCOPE figlio del Politecnico di Milano, raccoglie le "tracce digitali" dei milanesi Analizzando telefonate, check-in e tweet mostra per ogni mese lezone più attive della citta, i locali pm in voga, gli spazi preferiti pertrascorrere il tempo libero, fare shopping o accedere ai diversi servizi Mobilità, comunicazione e turismo. Non tutto è pubblico ma oggi si può sapere molto (troppo) delle abitudini dei cittadini.

Siamo abituati a vedere le città come un organismo vivente. Strade che fanno scorrere traffico come fosse sangue, pedoni e negozi che ne compongono la linfa vitale, cittadini come neuroni che la rendono vitale. E la metafora funziona. Grazie alla tecnologia, le città stanno diventando davvero degli organismi complessi e sono più evoluti di quanto ci si possa aspettare. Semafori che contano le auto, lampioni che diffondono connettività e secchi della spazzatura che avvisano quando sono pieni sono solo un piccolo assaggio del futuro che ci aspetta. Prendiamo Chicago. La città statunitense due anni fa ha avviato una sperimentazione che la sta facendo cambiare di netto. Da una parte ci sono i sensori che inviano all'amministrazione cittadina dati su ogni aspetto interessante per la gestione della vita pubblica, dall'altra i cittadini che li integrano con i propri smartphone. Il database dei locali pubblici per esempio consente di conoscere l'efficienza energetica e la qualità dell'aria all'interno degli stabili ma non solo. Basta avere lo smartphone aportata di mano per segnalare un'intossicazione, mandare subito i oppure per indicare la presenza di ratti, buche nell'asfalto, allagamenti. Tracciare gli spostamenti cittadini ha invece consentito di pianificare il trasporto pubblico in modo intelligente evitando di far girare autobus vuoti o di installare stazioni per il bike sharing laddove non c'è nessuno. Siale bici che le auto in condivisione hanno un GPS che le segue passo e passo e, grazie all'abbonamento alservizio. lacittà sa per certo chi è che sta guidando cosa, il sesso, l'età, dove sta andando e da dove è partito. Da ultimo ecco l'Array of Thin- gs, un'immensa rete di sensori che monitorano costantemente tutto ciò che riguarda l'ambiente. Si possono conoscere la temperatura e la pioggia, l'intensità del vento e la qualità dell'aria, senza dimenticare l'inquinamento sonoro e luminoso. Insomma, la città sembra sapere tutto di noi, ci profila, ci segue, e il paragone con il Grande Fratello è facile ma si rivela del tutto sbagliato. Al massimo ci sono tantipiccolifratellini."Lacittàpotenzialmente sa molto di noi ma ogni organismo che raccoglie i dati è solo un piccolo commenta Paolo Ciuccarelli, professore del Politecnico di Milano ed esperto di visualizzazione dei dati e delle informazioni in ambitourbano. "L'amministrazione può sapere molto ma la fortuna o sfortuna è che le sorgenti sono ancora potenziali o sconnesse tra loro". Vale a dire che in Italia, anche nelle regioni più pionieristiche come Piemonte e Lombardia, sono in tanti a raccogliere i dati ma poi non li condividono. Le aziende di tutti i nostri spostamenti, così come le imprese che si occupano di car sharing o bike sharing, per non parlare poi dei servizi pubblici. Per i difensori della privacy è un bene che ogni entità dell'organismo chiamato città tenga i dati nascosti in un cassetto, per chi crede nell'evoluzione digitale invece è unproblema. "Le società di trasporto per esempio non dialogano con i social media o con dati del comune ma basterebbe che si integrassero per fornire un servizio migliore". Tenendo sott'occhio Facebook o Twitter ci si accorgerebbe subito di una disfunzione o di una criticità perché noi siamo centraline sempre attive che emettono dati senza sosta, parole e numeri che a loro volta possono integrarsi con i dati raccolti dalle fonti cittadine. Un incrocio di big data che potrebbe cambiare di netto la nostra vita. Immaginiamo solo di prenotare online un appuntamento in Comune, di conoscere il tempo prima del nostro turno e nel mentre poter organizzare lo spostamento tramite bus, metro e tram. Le file sarebbero azzerate, ci sarebbe più tempo per noi ma non è facile. La mancanza di apertura dei dati infatti non è l'unico problema, fa notare Ciuccatosti, "Molte aziende forniscono solo del materiale grezzo, una mole di dati preziosa ma inutilizzabile. Qualcuno li deve lavorare". Da qui si spiegano i concorsi per la realizzazione di app ad hoc che possano trasformare per esempio gli orari delle farmacie di turno in un sistema per la ricerca automatica e geotaggata degli esercizi aperti, oppure le tabelle dei mezzi pubblici in un sistema integrato per il trasporto urbano. Terzo limite è l'interoperabilità. Anche se aperti, condivisi e leggibili, i dati devono anche poter parlare traloro ma "nelle grandi aziende isistemi informatici hanno le loro storie, ognuno è a sé, e non c'è accordo sui formati da adottare". Insomma, tutto male? "No, con i big data le aziende dovranno ristrutturare i propri sistemi informatici e questa potrebbe essere una scusa in più per la condivisione e l'interoperabilità". A noi non resta quindi che aspettare mentre la città, furbetta, sa tutto ma fa finta di niente.>>

Lucia Ciambrino

Lucia Ciambrino07/04/2015 - 15:11 (aggiornato 07/04/2015 - 15:11)

Ho letto con molto interesse l'articolo di Rita. E' vero, nel mondo aumentano sempre più le imprese e gli enti che assumono "specialisti" per utilizzare con profitto l'enorme massa di informazioni digitali che i consumatori e i cittadini producono ogni giorno. Secondo l'istituto di ircerca Idc si tratta di un mercato che nel 2017 potrà valere oltre 30 miliardi di dollari.

La Ibm in questo campo è già leader a livello mondiale, essendo l'unica multinazionale ad aver sviluppato un sistema di intelligenza articificiale, chiamato WATSON, che permette di analizzare milioni di informazioni in tempo reale, realizzare grafici, generare analisi predittive. Grazie a un accordo di Ibm con Twitter, WATSON legge e interpreta miliardi di tweet e definisce tendenze, bisogni e nuove strategie di comportamento. In questo modo genera un vantaggio competitivo per soggetti economici ma anche per governi e istituzioni.

Un esempio di utilità pubblica dell'analisi dei Big Data è fornito dall'esperienza recente in alcune città come Chicago e Memphis, in cui la polizia li ha usati per prevenire i crimini. Attraverso un sistema che mette assieme statistiche sui reati passati, traffico sui social network, rete telefonica, analisi degli eventi in programma in città, lettura delle immagini provenienti dalle telecamere di sicurezza in rete, è stato possibile organizzare e gestire meglio la presenza delle pattuglie di polizia nelle zone a più elevato rischio. In questo modo, sono state risparmiate risorse ed è aumentata la sicurezza dei cittadini. Nella città di Memphis i crimini in un anno sono diminuiti del 31% circa. Mi sembra un risultato notevole!

Rita Pastore

Rita Pastore30/03/2015 - 16:00

Cara Claudia, ti ringrazio per la segnalazione dell'evento. La Regione Lazio è una delle prime in Italia ad avviare un progetto strutturato per aumentare la trasparenza e la partecipazione. È un impegno che l'Amministrazione sta portando avanti in tanti modi e il portale consentirà proprio di instaurare un nuovo rapporto tra cittadini e amministrazioni nella gestione della cosa pubblica e dei beni comuni a partire dalla partecipazione, dal coinvolgimento e dall’apertura delle informazioni.
 

Claudia Leone

Claudia Leone30/03/2015 - 08:53

Sul tema vorrei segnalare che il prossimo 1 aprile il Presidente della Regione Lazio Nicola Zingaretti, presso il Museo d'Arte Contemporanea di Roma, presenterà il progetto Open Data lazio e il portale dati.lazio.it, pensato per liberare il patrimonio informativo pubblico della Regione e delle amministrazioni del territorio e promuovere l’utilizzo dei dati da parte dei cittadini e del sistema delle imprese.

Il portale, quale strumento di trasparenza e partecipazione, aiuterà a combattere corruzione e irregolarità in tutti i settori.

Il Progetto Open Data Lazio è un’iniziativa di Regione Lazio realizzata da LAit S.p.A in collaborazione con Sinergis, FORUM PA e Depp.