L’intelligenza artificiale al servizio della salvaguardia ambientale. La parola a Michela Milano
“Cambierà le nostre vite migliorando l’assistenza sanitaria, aumentando l’efficienza dell’agricoltura, contribuendo alla mitigazione dei cambiamenti climatici e all’adattamento ai medesimi, migliorando l’efficienza dei sistemi di produzione mediante la manutenzione predittiva, aumentando la sicurezza dei cittadini europei e in molti altri modi che possiamo solo iniziare a immaginare”. Inizia così il Libro bianco della Commissione europea sull’intelligenza artificiale.
Documento che, nel definire le linee guida per lo sviluppo e l’adozione di sistemi di IA, si chiude ricordando che questa tecnologia è strategica, può offrire molti benefici ai cittadini, alle imprese e alla società nel suo insieme, a condizione però che segua un approccio antropocentrico, etico, sostenibile e rispettoso dei valori e dei diritti fondamentali. L’IA infatti, come si legge nel Libro bianco, offre importanti vantaggi in termini di efficienza e produttività, che possono rafforzare la competitività dell’industria europea e migliorare il benessere dei cittadini. Può inoltre contribuire a individuare soluzioni ad alcune delle sfide sociali più urgenti, tra cui la lotta ai cambiamenti climatici e al degrado ambientale, le sfide legate alla sostenibilità e ai cambiamenti demografici…
Ma la sfida, o meglio una delle sfide, è creare fiducia nell’intelligenza artificiale, perché l’affidabilità è un prerequisito per la sua adozione.
Ne è convinta Michela Milano, docente all’Università di Bologna e Direttrice del Centro Interdipartimentale Alma Mater Research Institute for Human-Centered Artificial Intelligence. Tanto che la sua Ted X conference, a Udine, dedicata all’intelligenza artificiale per lo sviluppo sostenibile, inizia proprio con queste parole: “Io mi fido di te”.
“La fiducia – spiega Milano – è un fattore fondamentale per lasciare nelle mani di altre persone decisioni che ci riguardano, per affidare cioè ad altri la possibilità di decidere al posto nostro. Lo facciamo, appunto, se crediamo che queste persone decidano per il nostro bene, per il bene comune. Ecco, la fiducia non è secondaria anche quando si tratta di sistemi intelligenti che decidono al posto nostro o almeno suggeriscano delle decisioni. Anzi, è fondamentale. Oggi l’Intelligenza Artificiale è in grado di supportarci nei processi decisionali, ma un requisito perché questo avvenga è l’affidabilità: essere affidabile, trustworthy, è un concetto chiave, è il cuore della strategia sulla ricerca e l’innovazione in Intelligenza Artificiale della Commissione europea che, nel White Paper, sottolinea l’importanza che i sistemi intelligenti rispettino una serie di requisiti tecnici.
Ma perché fidarsi di un computer, di una macchina, di un algoritmo anche se intelligente? Come costruire un sistema di cui avere fiducia? Quali requisiti cioè lo rendono affidabile?
In effetti diversi requisiti concorrono a rendere una macchina affidabile. Primo fra tutti la trasparenza, la spiegabilità. In altre parole, il sistema non deve essere una scatola nera dalla quale non riusciamo ad avere alcuna informazione, non deve prendere decisioni senza spiegarne le ragioni. L’interazione che passa attraverso la spiegazione della decisione elaborata dalla macchina è il primo passo verso la comprensione del funzionamento del sistema, e quindi verso la fiducia. In altre parole, una macchina intelligente può supportare i nostri processi decisionali se riesce a motivare le soluzioni che elabora e a giustificare le decisioni che prende.
Altra dimensione dell’affidabilità è la robustezza. Dobbiamo poter contare su sistemi robusti che, in circostanze diverse, si comportino in modo corretto indipendentemente dalle condizioni al contorno. E un sistema intelligente robusto, solido, non deve causare danni, anche non intenzionali, deve essere in grado di lavorare sempre in sicurezza, che è altro requisito fondamentale. E non sottovalutiamo l’equità, quale altro pilastro dell’affidabilità di una macchina.
Un sistema, cioè, per essere affidabile deve essere anche equo.
Il punto è che molto spesso questi sistemi apprendono da dati che sono intrisi di pregiudizi, sono polarizzati. Di conseguenza lo saranno anche i modelli che verranno estratti da tali dati. Un esempio classico è il sistema di recruitment di Amazon che nel selezionare il personale dirigente sceglieva solo profili maschili, perché di fatto nei dieci anni precedenti l’azienda aveva assunto principalmente uomini, quindi il sistema di machine learning riscontrava nel genere un fattore discriminante per l’assunzione.
Per poterci fidare dobbiamo quindi essere certi che questi bias vengano eliminati o almeno ridotti il più possibile.
Poi non è detto che la decisione evidence based, cioè una decisione basata sull’evidenza, sui dati, sia proprio quella che i decisori politici vogliano adottare e intraprendere, perché interviene la libertà della scelta umana.
Lei si occupa proprio di sistemi di supporto alle decisioni: in che modo possono essere la chiave di volta per perseguire l’obiettivo della sostenibilità, un obiettivo stringente e sfidante verso il quale dobbiamo puntare tutti, come società, come aziende, come istituzioni, come cittadini e cittadine?
Innanzitutto chiariamo che i sistemi di supporto alle decisioni non si sostituiscono all’esperto, ma lo accompagnano nel processo decisionale. Che, per quanto riguarda la sostenibilità, è un processo molto complesso: parliamo di decisioni che hanno a che fare con sistemi socio-tecnici, che riguardano infrastrutture artificiali (per esempio reti stradali, la rete elettrica, i sistemi di trasporto), l’ambiente e fenomeni naturali (come il meteo ed eventi meteo estremi), aspetti umani e sociali, economici e tecnologici.
Questi sistemi apprendono dai dati ed elaborano modelli che possono descrivere una determinata situazione, il suo funzionamento, prevedere dinamiche future o suggerire decisioni per agire sul sistema stesso.
Modelli che nascono da due fonti: i dati relativi a un determinato sistema e gli esperti di dominio che ne conoscono le dinamiche e hanno un’esperienza pregressa. Insieme, dati più esperti, consentono di costruire modelli realistici efficaci, che possono essere di supporto alle decisioni, fornendo diversi scenari decisionali e illustrando l’impatto che ciascuna decisione avrà sul sistema stesso.
Parliamo dunque di modelli data-driven integrati con la conoscenza maturata negli anni dagli esperti del settore.
Da oltre dieci anni si parla di Computational Sustainability: è stata Carla Gomes, professoressa alla Cornell University, nel 2007 a fondare questo nuovo campo di ricerca. Di cosa si stratta?
Per Computational Sustainability si intende l’uso di un insieme di tecniche computazionali tipiche dell’informatica e della matematica applicata, per risolvere problemi legati allo sviluppo sostenibile che, come dicevamo, sono estremamente sfidanti. Perché i problemi legati alla sostenibilità hanno una scala molto grande: questi vanno dalla gestione dell’energia, delle acque e dei rifiuti, alla gestione di una città nel suo complesso, dai fenomeni migratori alla riduzione della povertà, dalla mitigazione dei disastri naturali alla gestione dei corridoi ecologici e la salvaguardia degli ecosistemi e della biodiversità. In fondo economia, società e ambiente sono i pilastri dello sviluppo sostenibile. Per cui il campo di applicazione è vastissimo. Basti pensare che gli Obiettivi dell’Agenda 2030 dell’Onu sono tutti legati alla sostenibilità.
Sono questioni molto diverse fra loro che hanno in comune la complessità: la scala di questi problemi e l’eterogeneità sono tali che i tradizionali metodi computazionali non funzionano. Bisogna sparare dunque a questi problemi con un cannone decisamente più grosso. E questo cannone è l’integrazione di tecniche computazionali diverse, di cui l’intelligenza artificiale è la principale, per poter affrontare i problemi da diversi punti di vista.
Insomma, se lo sviluppo sostenibile è un processo di cambiamento tale per cui lo sfruttamento delle risorse, gli investimenti e lo sviluppo tecnologico devono essere coerenti con i bisogni futuri oltre che con quelli attuali, in modo da soddisfare le esigenze presenti senza compromettere il futuro delle generazioni che verranno, l’intelligenza artificiale, costruendo modelli, ci consente di guardare al futuro orientando le scelte del presente?
Sicuramente i sistemi di intelligenza artificiale sono in grado di prendere in considerazione al tempo stesso molti più aspetti di quanto possa fare una persona, per quanto esperta sia. Ipotizziamo, per esempio, di voler raccogliere dati da sensori ambientali collocati in una città e di voler analizzare la dinamica degli inquinanti, per poi decidere come ridurre determinate pressioni ambientali in alcuni punti della città. Un decisore umano può farlo in modo euristico, approssimato; invece con un sistema di intelligenza artificiale, capace di cogliere correlazioni complesse e relazioni di causalità, si può agire in modo più mirato. L’idea dunque è poter prendere decisioni che si basino sull’evidenza, sui dati, di cui sia chiaro il razionale. Poter contare cioè su un sistema di supporto trasparente, per lavorare su quelle che sono le principali pressioni ambientali, economiche e sociali del presente.
Ci fa alcuni esempi di come la tecnologia ci aiuta nel prenderci cura del pianeta?
Come mostravo nella mia Ted X Conference a Udine, illustrando il sistema intelligente per la gestione delle inondazioni sviluppato dal NICTA in Australia, l’evacuazione di una città in seguito a una calamità naturale può essere più efficace, quindi può riuscire a mettere in salvo meglio le persone, se i piani di evacuazione sono elaborati grazie a modelli descrittivi e predittivi.
Ma, se nei sistemi di supporto decisionali colui che mette in atto la decisione può avere il pieno controllo della decisione, nella realtà non sempre è così: sono infatti i cittadini o una pluralità di agenti a decidere e agire, e questo può influenzare l’effetto finale.
Cioè?
Se, per esempio, chi abita nei quartieri a rischio, quindi da evacuare, non si attiene al piano di evacuazione elaborato dal sistema e, per raggiungere i centri di accoglienza, lascia le proprie abitazioni prima del previsto, questo genera ingorghi non previsti dal sistema decisionale. I modelli quindi, per essere utili, devono prendere in considerazione chi andrà a implementare la decisione e gli aspetti umani e le dinamiche sociali: come, per esempio, il fatto che le persone in situazioni di emergenza non agiscono in modo razionale. Altrimenti non sono realistici e quindi di poca efficacia.
In ogni caso, se la tecnologia può essere utile per far fronte a calamità naturali e mitigarne i rischi, anche in ambito industriale sono tante le applicazioni dell’intelligenza artificiale che consentono di perseguire l’obiettivo della sostenibilità. Può servire per esempio per ridurre l’impronta energetica e ambientale di una determinata azienda, indirizzando interventi mirati sulle modalità di produzione, sul modo di approvvigionamento dell’energia, sull’opportunità o meno di installare impianti di energia a fonte rinnovabile o costruire un power plant all’interno dell’azienda: insomma, sono tantissimi i suggerimenti da dare alle singole aziende, ma in fondo anche ai cittadini, per impattare il meno possibile. Basandosi sui dati.
Ma l’uso dell’IA può favorire anche il coinvolgimento e la consapevolezza di cittadini e cittadine?
Sicuramente, e questo è importantissimo. In effetti la consapevolezza e il coinvolgimento dei cittadini passa anche attraverso l’uso della tecnologia, che permette anche di sensibilizzare e mostrare visivamente, per esempio, i problemi ambientali della propria città. Molti dei progetti europei che sono stati finanziati in questi anni si basano proprio sulla consapevolezza dei cittadini su determinati problemi ambientali, spesso ignorati o sottovalutati, e sul coinvolgimento, affinché le persone siano parte attiva del processo di cambiamento e agiscano per il bene dell’ambiente, per diminuire l’impronta ambientale di un determinato settore, per esempio.
Dopodiché, far sì che intraprendano effettivamente buone pratiche è una grande sfida, perché è difficile abbandonare abitudini radicate.
C’è un esempio emblematico che faccio spesso: quando Enel fece un questionario prima di introdurre le tariffe bio-orarie, il 75% delle persone risposero che a fronte di una riduzione dei costi avrebbero certamente usato gli elettrodomestici nelle fasce orarie a tariffa ridotta, quindi di notte e non di giorno… Quando poi la tariffa fu effettivamente introdotta, dopo un paio di anni Enel analizzò i comportamenti energetici ed emerse che solo l’1,1% dei clienti aveva cambiato abitudine. Il cambiamento è difficile.
Che dire dei Digital Twin: il gemello digitale può essere uno strumento utile per rendere le città più sostenibili?
I digital twin sono un modello che rispecchia il comportamento di un determinato sistema. In quanto tale, sono uno strumento potente e utilissimo. Bologna proprio ora si sta imbarcando nell’avventura di costruire il gemello digitale della città. Ma è una sfida enorme.
Il digital twin è un modello digitale che nasce in ambiente industriale, per simulare il funzionamento di un impianto, di un macchinario, di una catena di montaggio. Parliamo quindi di ambienti chiusi, modellabili e controllabili. Quando invece si parla di modellare una città, si ha a che fare con un ambiente aperto, dove interagiscono moltissime forze e attori diversi, con interessi discordi. Quindi la costruzione di un gemello digitale di una città è una prospettiva interessantissima, ma è una sfida grandissima: una sfida che non ha niente a che fare con il gemello a livello industriale.
Ma se riusciamo a fare il digital twin di un ambiente urbano, quindi se riusciamo a modellare tutti gli aspetti della città – la mobilità, l’energia, il consumo idrico, la gestione dei rifiuti, eccetera – si può in effetti avere un importante sistema di supporto alle decisioni, per andare verso scenari di minore inquinamento, minore impatto ambientale, maggiore sostenibilità.
Noi stiamo partendo adesso per progettare il modello digitale di Bologna, con la Fondazione Innovazione Urbana, l’Università e il Comune, e vari altri attori: una sfida per il mondo della ricerca non affatto banale.
A proposito di sfide in cui è coinvolta l’Università di Bologna, lei dirige il Centro Interdipartimentale Alma Mater Research Institute for Human-Centered Artificial Intelligence: un centro per formare persone sempre più competenti in grado di gestire questa complessità e sviluppare nuovi strumenti intelligenti a supporto delle nostre decisioni?
É un centro interdipartimentale e interdisciplinare. Perché per affrontare problemi complessi e lavorare sull’intelligenza artificiale abbiamo bisogno di profili che vadano oltre le sole competenze informatiche e tecnologiche.
Basti pensare che per affrontare le questioni legali, legate alla responsabilità di un sistema intelligente che prende decisioni al nostro posto, e gli aspetti etici connessi, nonché le implicazioni economiche e sociali, è necessaria la cooperazione tra profili e competenze di natura estremamente diversa.
Il Centro nasce con questa idea: mettere a sistema, attorno all’IA, tutte le competenze dell’ateneo di Bologna, che è un ateneo generalista e copre tutto lo spettro delle conoscenze, per sviluppare soluzioni che contemplino gli aspetti tecnici, sociali, economici, etici, culturali, legali e poter risolvere, grazie a essi, le principali sfide che la società deve affrontare.
Per questo siamo coinvolti in tutte le principali iniziative strategiche europee e internazionali, come The Global Partnership on Artificial Intelligence, e i nostri studenti lavorano con noi, gomito a gomito, e contribuiscono alla costruzione di soluzioni innovative con un approccio interdisciplinare.
Come interdisciplinare è il nuovo corso di laurea nato lo scorso anno all’interno della Facoltà di ingegneria e informatica: una laurea magistrale multiclasse e internazionale sull’intelligenza artificiale, dove formiamo studenti e studentesse con un background tecnico-scientifico anche su aspetti relativi alle neuroscienze, all’etica e in generale a tutti i domini applicativi dell’IA, perché siano capaci di governare la complessità.
E a proposito di complessità, tra le tante attività che sta portando avanti cosa la impegna di più?
Due progetti in ambito industriale. Mi riferisco al progetto Stareaway, con il quale stiamo lavorando per aiutare le piccole e medie imprese a superare le barriere che le separano dall’adozione dell’intelligenza artificiale, per migliorare la produzione e ridurre l’impronta ambientale e i costi che implica.
È un progetto appena partito, che io coordino e che la Commissione europea ha finanziato perché è considerato strategico riuscire a supportare le aziende cosiddette low tech users nel trovare sistemi di intelligenza artificiale che facciano al caso loro, mettendole in contatto con esperti con cui poter iniziare un percorso di alfabetizzazione all’intelligenza artificiale.
Parallelamente, al Centro stiamo lavorando per costruire il Coinnovation Lab, un laboratorio di trasferimento tecnologico un po’ particolare: rappresenta un’interfaccia per il mondo delle piccole medie imprese che sempre più spesso ci chiedono supporto per sviluppare soluzioni di intelligenza artificiale che possano migliorare il loro business. Al Coinnovation Lab le ospiteremo per lavorare insieme alla risoluzione dei loro problemi aziendali.
È un’iniziativa nata in collaborazione con il Cineca, l’Infn e Bi-Rex, un Competence Center per l’Industria 4.0 finanziato dal ministero dello Sviluppo economico che ha sede a Bologna.
“DONNE SCIENZA INVENZIONE CARRIERA – Progetto di Gianna Martinengo”
Dalle esperienze alle skill al role model, viaggio tra le professioniste e scienziate che stanno facendo progredire il mondo della scienza italiano e internazionale. Interviste a “mente aperta” anticipate da un viaggio nei diversi mercati dell’innovazione. Uno spazio sarà dedicato alle trentenni , giovani donne – professioniste e scienziate – che affrontano il futuro con coraggio e determinazione.