Giovanni Stilo, professore di Computer e Data Science al dipartimento di Ingegneria e scienze
dell’informazione e matematica (DISIM) dell’Università dell’Aquila, sta partecipando, in questi
giorni, all’annuale edizione della conferenza internazionale organizzata dall’AAAI, Association
for the Advancement of Artificial Intelligence (AAAI), associazione scientifica internazionale, con
sede a Palo Alto, in California, dedita a promuovere la ricerca nell’ambito dell’intelligenza artificiale,
e a migliorarne la conoscenza pubblica.
Giunta alla 38ª edizione, la conferenza, che rappresenta il più importante evento scientifico e
accademico internazionale dedicato al tema dell’intelligenza artificiale, è in programma a
Vancouver, in Canada, dal 20 al 27 febbraio.
Il professor Stilo, presidente del consiglio di area didattica (CAD) della laurea magistrale in Data
Science e componente del progetto PNRR SoBigData.it coordinato per UnivAQ dalla professoressa
Antinisca di Marco, ha presentato un paper scritto insieme ad altri due ricercatori – Mario Alfonso
Prado-Romero, del Gran Sasso Science Institute, e Bardh Prenkaj, dell’Università di Roma La
Sapienza – dal titolo Robust Stochastic Graph Generator for Counterfactual Explanations.
E’ uno studio in cui l’approccio delle “spiegazioni controfattuali” – il pensiero controfattuale
consiste nell’immaginare scenari, situazioni o eventi che non si sono effettivamente verificati, ma che
avrebbero potuto verificarsi se certe condizioni fossero state diverse – e la teoria dei grafi – una teoria
che si propone di studiare i grafi, oggetti discreti che permettono di schematizzare una grande varietà
di situazioni e di processi e spesso di consentirne delle analisi in termini quantitativi e algoritmici
– vengono usati per tentare di risolvere il cosiddetto “problema della scatola nera”, ossia rendere più
trasparenti i processi compiuti dai sistemi di intelligenza artificiale.
Semplificando, i modelli a scatola nera (o “black box”), che sono maggioritari tra i sistemi di AI,
“funzionano” senza che sia ben chiaro perché compiano certe operazioni (da qui la “scatola nera”).
La comprensione dei processi che stanno alla base delle decisioni prese da un sistema di intelligenza
artificiale è però fondamentale perché il cosiddetto deep learning (metodo di intelligenza artificiale
che insegna ai computer a elaborare i dati in un modo che si ispira al cervello umano) e le reti neurali
(la tecnologia costituita da nodi o neuroni interconnessi in una struttura stratificata, su cui si basa il
deep learning) hanno assunto ormai un ruolo sempre più importante nel modellare la trasformazione
tecnologica in diversi settori di business.
Oltre a presentare il paper di ricerca, il professor Stilo e gli altri due autori sono stati selezionati dagli
organizzatori della conferenza internazionale di Vancouver a tenere anche due lezioni, una teorica e
l’altra pratica.
L’accettazione del paper e le due sessioni di divulgazione rappresentano senza alcun dubbio un
importante riconoscimento al lavoro di ricerca svolto all’interno dell’Università dell’Aquila dal
professor Stilo su vari aspetti connessi al vasto campo dell’intelligenza artificiale.
Un tema, quello dell’AI, al quale, è dedicato anche il lavoro di ricerca della professoressa Stefania
Costantini, sempre del DISIM, sul lato informatico, e, sul versante filosofico, dei professori Simone
Gozzano e Donatella Donati del DSU (dipartimento di Scienze umane).