Abbiamo intervistato il Prof. Giuseppe Liotta, con cui abbiamo cercato di comprendere al meglio applicazioni e utilizzo dei Big Data

Algoritmi, intelligenza artificiale, Big Data sono espressioni chiave attorno alle quali ruota l’odierno sviluppo tecno-scientifico. Oggi per saper fare bisogna conoscere sempre più e l’uso di questi strumenti è diventato indispensabile in mille settori della vita: dalla biologia e biomedicina, alle competenze necessarie per combattere l’evasione fiscale.

In occasione della “Maker Faire Rome – The European Edition”, per il talk “Data Driven Innovation” esperti provenienti da università e centri di ricerca si sono confrontati sulle più recenti innovazioni e sui progetti che hanno al centro l’uso di Algoritmi e Big Data in tutte le loro accezioni.

Abbiamo Intervistato uno dei relatori, Giuseppe Liotta, Professore ordinario presso l’Università degli Studi di Perugia dove dirige il Laboratorio di Ingegneria degli Algoritmi.

Tra i suoi principali interessi di ricerca: la gestione e il trattamento di dati di grande dimensione, il progetto di algoritmi e strutture dati, la visualizzazione dell’informazione e l’analisi visuale dei dati. Con lui abbiamo cercato di vedere più da vicino il mondo dei Big Data per comprenderne al meglio applicazioni e utilizzo.

La capacità di pensare, organizzare, e visualizzare i dati è alla base di una innovazione continua, ma perché oggi più che mai l’uso di questi strumenti è diventato indispensabile in moltissimi settori della nostra vita?

Viviamo in un periodo storico molto interessante, in cui l’uso esteso delle tecnologie digitali sta cambiando profondamente il modo di interagire fra gli esseri umani e l’ambiente circostante. Se dalla metà degli anni novanta la diffusione di Internet e del Web ha portato ad un più facile accesso alle informazioni (per esempio in campo medico o finanziario) e ha in qualche misura abbattuto le distanze geografiche, negli ultimi dieci anni si sta assistendo ad una trasformazione ancora più rilevante della società: per la prima volta nella storia, le intelligenze con cui ci confrontiamo non sono soltanto umane o animali, ma anche artificiali, basate su sofisticati algoritmi digitali. Basti pensare ai sistemi di raccomandazione sulle varie piattaforme per l’acquisto di beni di consumo o di promozione del turismo o al navigatore satellitare, cui ci affidiamo quando non conosciamo un percorso stradale o vogliamo evitare un ingorgo nel traffico. Q

uesta straordinaria trasformazione della società deve essere fondata su un approccio centrato sull’essere umano, come si dice human-centric. Secondo questo approccio, le possibilità di analisi e comprensione della realtà si amplificano attraverso l’interazione fra la persona e l’algoritmo. Se voglio fare un investimento in borsa non affido i miei soldi ad un sistema di intelligenza artificiale che decide per me come spenderli, ma interagisco con questo sistema per raffinare la mia analisi di mercato e prendere una decisione consapevole sull’investimento da fare. In questo contesto, le tecniche di visualizzazione dell’informazione permettono di rappresentare in modo semplice e intuitivo strutture complesse di dati, semplificano l’interazione fra persona e algoritmo, amplificando le capacità della persona di interpretare la realtà circostante.

I dati Istat raccontano che l’evasione fiscale nel nostro Paese vale il 12% del PIL, più di 100 miliardi di euro. In termini assoluti l’Italia è il paese europeo con evasione fiscale più alta. Come possono i Big Data essere la nuova frontiera della prevenzione a questo problema?

Il fenomeno dell’evasione fiscale si basa tipicamente su transazioni economiche fra diverse persone fisiche o giuridiche. Le indagini svolte dall’Agenzia delle Entrate e dalla Guardia di Finanza per contrastare il fenomeno dell’evasione fiscale sono rivolte a svelare le complesse relazioni fra i soggetti coinvolti nelle truffe ai danni del fisco; la complessità di queste relazioni ha il preciso scopo di nascondere il crimine.

Da un punto di vista concettuale, possiamo immaginare il fenomeno dell’evasione come nascosto in una serie di “percorsi viziosi” (tecnicamente suspicious patterns) che si stabiliscono all’interno della grande rete sociale che descrive i rapporti finanziari fra i cittadini e le aziende italiane. La complessità della rete rappresenta un ottimo nascondiglio per i vicious patterns soprattutto se questi debbono essere svelati con strumenti di indagine classici. Nell’ambito di un progetto di ricerca di interesse nazionale finanziato dal MIUR (Progetto AHeAD) il Laboratorio di Ingegneria degli Algoritmi dell’Università degli Studi di Perugia studia da alcuni anni come applicare metodi di network science e di visual analytics alle reti delle transazioni finanziarie per aiutare gli investigatori a scoprire questi pattern sospetti.

Grazie ad una convenzione con l’Agenzia delle Entrate abbiamo ricostruito una parte della rete finanziaria italiana e abbiamo usato algoritmi su grafi e tecniche di visualizzazione dell’informazione per facilitare il compito dell’analista. La sperimentazione che abbiamo svolto ha portato ad un incremento di accuratezza delle indagini superiore al 50% e a una riduzione del tempo di indagine superiore al 60%.

L’Agenzia ha quindi deciso di ingegnerizzare il nostro prototipo per utilizzarlo a livello nazionale. Il motore algoritmico del sistema è piuttosto sofisticato, combinando tecniche di estrazione di dati da fonti eterogenee con tecniche di analisi di grafi, di machine learning e di interazione uomo-macchina. I risultati che abbiamo conseguito a Perugia per il contrasto all’evasione fiscale non sarebbero stati possibili senza la forte collaborazione con i colleghi delle varie sedi consorziate nel Progetto AHeAD: Università Luiss Guido Carli (Prof. Giuseppe Italiano), Università di Roma Sapienza (Prof.ssa Irene Finocchi), Università di Pisa (Prof. Roberto Grossi), Università di Roma Tre (Prof. Giuseppe DI Battista) Università di Padova (Prof. Fabio Vandin).

Il periodo di pandemia globale che stiamo vivendo ci ha dimostrato che la gestione dei Big Data in campo sanitario, e non solo, può essere fondamentale, ma quando si parla di Big Data e algoritmi rimane sempre attuale la vexata quaestio, è possibile conciliare l’uso minimo di dati personali con le esigenze degli algoritmi?

Il Covid ha portato all’attenzione di tutti quanto sia importante analizzare grandi moli di dati per comprendere il fenomeno epidemico e cercare di controllarlo. Per studiare una grande quantità di dati è necessario progettare algoritmi efficienti ed efficaci, cioè in grado di elaborarli in modo rapido fornendo risultati affidabili. È ovvio che qualunque algoritmo che analizza enormi moli di dati per scoprire dei fenomeni altrimenti difficili da individuare deve potersi nutrire di quei dati.

Molti di noi hanno già rinunciato alla privatezza delle informazioni personali semplicemente accettando le condizioni di accesso alle varie piattaforme social o di vendita on-line a cui siamo iscritti. Fortunatamente in Italia abbiamo delle norme precise e di assoluta avanguardia sulla protezione dei dati sensibili, per esempio relativi alla salute e alla giustizia. Nel caso del Covid si è parlato a lungo dell’app Immuni e del rispetto della privacy durante il suo utilizzo. Non a caso quando siamo stati chiamati ad installarla, siamo anche stati rassicurati circa l’uso molto attento che l’app avrebbe fatto dei dati sensibili.

La matematica, scienziata di dati e autrice americana Catherine Helen O’Neil ha definito gli algoritmi che dominano la nostra quotidianità “armi di distruzione matematica” poiché non tengono conto di alcune varabili fondamentali. Per la scienziata statunitense i Big Data non fanno altro che aumentare le disuguaglianze e minacciare la democrazia. È d’accordo con questa visione? Questi modelli matematici non possono essere oggettivi e trasparenti?

Ogni modello matematico è per definizione oggettivo in quanto è definito formalmente in un linguaggio universale (la matematica, appunto) e garantisce trasparenza nella replicabilità della sua applicazione. L’aspetto che potenzialmente indebolisce la democrazia è l’accumulo di competenze algoritmiche in poche istituzioni, spesso private e quasi sempre estere, quindi soggette a sistemi giuridici su cui difficilmente siamo in grado di intervenire.

Si percepisce un certo timore diffuso della tecnocrazia, per di più “dematerializzata” perché straniera. Credo che le parole di Catherine Helen O’Neil diano voce a questo sentire. Sono convinto che questo timore vada sconfitto e che la strada per farlo sia la formazione e la ricerca pubblica: dobbiamo educare sin dalle elementari i nostri figli al “computational thinking”, alla comprensione dei processi computazionali su cui si basa il funzionamento dei sistemi digitali con cui quotidianamente interagiamo.

Dobbiamo sviluppare una coscienza sociale ampia e diffusa sull’uso dei dati, degli algoritmi e sull’impatto che questo uso può avere nella sfera pubblica e privata. Insomma, a scuola non bisogna più solo imparare a leggere, scrivere e far di conto ma anche imparare a “pensare digitale”. Questo non significa che tutti diventiamo ingegneri informatici, ma significa fare crescere una società in grado di prendere decisioni consapevoli sull’uso delle tecnologie digitali e degli algoritmi che ne costituiscono la parte “intelligente”. Nell’ambito della ricerca scientifica poi, già da alcuni anni si stanno studiando approcci di “ethics by design”, di progettazione di algoritmi e sistemi digitali che tengano conto di aspetti legati al rispetto della persona e dei comportamenti sociali.