L’etica dell’intelligenza artificiale. Intervista a Francesca Rossi

“L’intelligenza artificiale è una fantastica opportunità per l’Europa. E i cittadini meritano tecnologie di cui possono fidarsi”. Così la presidente della Commissione Ue Ursula von der Leyen ha annunciato su Twitter le nuove regole per un’intelligenza artificiale affidabile: la proposta di un regolamento europeo sull’IA.
Per l’intelligenza artificiale “la fiducia è un must“, ha aggiunto la vicepresidente Margrethe Vestager, evidenziando l’obiettivo di aprire la strada a una “tecnologia etica”.

Parliamo dunque di etica delle macchine. Perché in effetti lo sviluppo di nuove tecnologie intelligenti solleva dilemmi, paure, responsabilità e nuove sfide. Lo sa bene Francesca Rossi, in forze all’IBM T.J. Watson Research Center di New York e global leader dell’IBM per l’etica dell’intelligenza artificiale.

“L’intelligenza artificiale e soprattutto le tecniche di machine learning – spiega – sollevano domande e preoccupazioni legittime. Parliamo di sistemi di supporto alle decisioni umane e, in quanto tali, è importante che funzionino all’insegna di alcuni principi fondamentali: quali trasparenza, spiegabilità, robustezza, affidabilità, privacy dei dati e fairness”.

 

Per fairness si intende equità, quindi lotta ai pregiudizi?
Esattamente. Quello dei bias è uno dei problemi più importanti e dibattuti, anche a livello mediatico, per i risvolti di tipo sociale. Capite bene che non vogliamo assolutamente che queste macchine contribuiscano a perpetuare discriminazioni fra gruppi di persone per ragioni etniche, di genere..
Ebbene, per liberare le nostre scelte e le raccomandazioni dei sistemi di intelligenza artificiale dai pregiudizi è necessario un approccio socio-tecnologico.
Servono cioè soluzioni tecnologiche, ma anche attività di educazione e formazione pensate per programmatori e sviluppatori, consultazioni con i diversi stakeholder e diversificazione all’interno dei team, perché avere persone con diverso background consente di riconoscere meglio i propri bias, e la consapevolezza è uno step fondamentale per non trasferirli poi all’IA.

 

Diversità all’interno dei team significa (anche) più spazio alle donne?
Certamente. E in quest’ottica si può fare molto all’interno delle aziende. Per esempio il report Diversity and inclusion di IBM indica i passi avanti che stiamo facendo in questa direzione.
Ma per far sì che ci siano più donne nei team di chi sviluppa e progetta sistemi di intelligenza artificiale, è necessario intercettare ben prima le ragazze, quando devono ancora pianificare il percorso di studi, in modo che capiscano che le discipline STEM non sono a loro precluse e non sono più o meno adatte solo a un genere. È importante dunque offrire loro dei role models, dei modelli, degli esempi, che testimonino che le STEM sono discipline in cui le donne possono eccellere. Io ho insegnato per più di venti anni all’Università di Padova, ebbene le ragazze in aula erano poche e tutte coloro che decidevano di continuare il percorso di studi con il master o il dottorato chiedevano a me la tesi perché ero l’unica professoressa ordinaria di informatica del dipartimento.

 

Più donne nelle STEM dunque: in questa direzione vanno i progetti P-Tech e Nerd? dell’IBM?
Sì. Open P-TECH, disponibile anche in Italia, è una piattaforma di formazione gratuita per l’apprendimento delle competenze digitali. Il programma fornisce agli educatori e a studenti e studentesse, dai 14 ai 20 anni, accesso a percorsi formativi per lo sviluppo di competenze tecnologiche, come IA, cloud e cybersecurity, e competenze professionali, come il Design Thinking.
Il progetto si inserisce nel quadro delle iniziative che IBM, in Italia e nel mondo, sta promuovendo per fornire un supporto concreto e accompagnare le nuove generazioni verso l’acquisizione di quelle competenze che oggi sono più richieste dal mondo del lavoro, utili quindi per la futura vita professionale.
L’obiettivo infatti è creare un legame più stretto tra la scuola, l’università e l’ecosistema industriale.
Il progetto Nerd?, invece, ancora di più si prefigge di lanciare un messaggio mirato alle ragazze – il digitale è roba da donne – e mostrare come l’informatica sia una materia creativa, interdisciplinare e basata sul problem solving, attività nella quale le donne eccellono.

 

Nerd sta per Non è Roba per Donne?
Esattamente. Il progetto nasce dalla collaborazione tra il dipartimento di informatica della Sapienza di Roma e IBM con l’obiettivo di stimolare le ragazze ad avvicinarsi alle materie STEM, in particolare all’informatica. Perchè l’uguaglianza di genere anche in questo settore è un obiettivo strategico per favorire crescita economica e benessere. Quindi è fondamentale diminuire il divario esistente: questo è in fondo anche uno degli Obiettivi di sviluppo sostenibile dell’Agenda 2030 delle Nazioni Unite.

 

Anche perché recenti studi ci dicono che il 65% dei bambini e delle bambine di oggi farà da adulto una professione che ancora non esiste, ma che molto probabilmente afferirà all’ambito digitale e tecnologico. Del resto già oggi l‘intelligenza artificiale è pervasiva: scandisce in pratica la nostra vita quotidiana. E mai come adesso – anche se in fondo la storia dell’IA inizia negli anni 50 del secolo scorso – è sotto i riflettori: al centro dell’attenzione mediatica.

È vero, oggi l’Intelligenza Artificiale è sempre più spesso al centro dell’attenzione mediatica, perché sono aumentate le applicazioni che permettono all’IA di interagire con noi. Applicazioni che usano tecniche di machine learning e che consentono di fare predizioni e prendere decisioni sulla base dei dati.
Parliamo di tecniche che in realtà erano già state sviluppate negli anni 80, ma erano confinate al mondo della ricerca: all’epoca, del resto, non avevamo tanti dati disponibili, le persone non erano online e gli oggetti non erano smart. E in ogni caso, anche se avessimo avuto una enorme mole di dati, i computer non avevano una potenza computazionale tale da poterla gestire.
Adesso, invece, la mole di dati a disposizione, l’enorme potenza di calcolo e le tecniche di apprendimento automatico consentono di usare l’intelligenza artificiale in tanti campi del mondo reale. Si pensi ai testi, alle immagini, ai comandi vocali: l’IA può interpretare cosa c’è scritto in un testo o cosa diciamo, e può decifrare cosa è rappresentato in un’immagine, e questo consente di sviluppare davvero tante applicazioni.

L’IA include però anche altre tecniche, più basate sul ragionamento logico. Si pensi anche al comune navigatore: usa un algoritmo di IA che, data la mappa di tutte le strade, il punto di partenza e quello di arrivo, cerca fra tutte le possibili strade quella più breve per giungere a destinazione. Un algoritmo di ricerca molto classico, si chiama A*, descritto ormai tanti anni fa, che oggi più che mai ci è di aiuto per orientarci nelle città e non solo. Il navigatore è solo un esempio delle tecniche di intelligenza artificiale utili tutte le volte che c’è da pianificare qualcosa, o che bisogna schedulare delle attività…

 

Insomma, sempre più l’IA è entrata nel nostro quotidiano, nelle nostre case, nelle fabbriche, nelle città. Ma secondo lei quali sono gli ambiti in cui riscontriamo l’impatto maggiore e, pensando al futuro, il più promettente?

Oggi in ogni ambito in cui possiamo disporre di grandi quantità di dati, l’intelligenza artificiale può fare la differenza.
L’intelligenza artificiale che al momento disponiamo è la cosiddetta Narrow Artificial Intelligence, cioè specializzata nell’esecuzione di un compito ben definito, o una gamma limitata di compiti. In altre parole, dato un determinato problema, riesce a risolverlo molto bene, anche meglio di noi umani. Si pensi per esempio ai sistemi di intelligenza artificiale capaci di interpretare le immagini: per la loro efficienza entrano in catena di montaggio per identificare in modo veloce e accurato prodotti con difetti fisici, oppure per supportare le persone addette a svolgere tale lavoro, ottimizzando dunque l’operazione di identificare e scartare il prodotto non ottimale.
Ma si pensi anche ai sistemi di intelligenza artificiale che, basandosi su algoritmi di machine learning e sulla capacità di trovare correlazione fra dati, riescono a predire possibili frodi telematiche.
Quello che ancora manca all’IA – ed è quindi una sfida per il futuro – è la capacità invece di ragionare su elementi di causalità. In altre parole, gli attuali sistemi di intelligenza artificiale sono molto bravi nel trovare correlazioni fra dati, ma sono meno bravi nel trovare cosa causa qualcosa. E non saper ragionare su “causa ed effetto”, limita la possibilità di intervenire sul presente affinché il futuro sia diverso dalla previsione fatta, perché inevitabilmente l’intervento per modificare il futuro si basa sulla consapevolezza che quell’azione causerà un certo risultato. Ecco, pensando al futuro è importante riuscire a migliorare la capacità dell’IA di gestire informazioni di causalità.

 

La parola d’ordine comunque è complementarità tra intelligenza artificiale e intelligenza umana?
Certamente. Proprio per questo, data la complementarità tra quello che sa fare l’IA e cosa sappiamo fare noi umani, i sistemi di intelligenza artificiale possono essere usati per aiutare le persone a prendere decisioni migliori.
Ma un requisito perché ciò avvenga è l’equità, il fatto cioè che l’IA sia costruita in modo che non faccia discriminazioni e per far ciò non deve apprendere da dati che sono “inquinati” da bias, da pregiudizi. Ma capite bene che per far sì che la tecnologia e i dati non siano biased è fondamentale educare le persone che sviluppano i sistemi di intelligenza artificiale in modo che siano consapevoli dei pregiudizi che possono trasferire anche involontariamente.

 

Lei lavora in prima linea in questo campo: è protagonista a tutti gli effetti della rivoluzione dell’intelligenza artificiale. Ma in particolare a IBM cosa fate per dare un’etica alle macchine intelligenti?

IBM ha un comitato interno che si occupa di etica dell’IA. La sua esistenza e la sua attività sono fondamentali per
l’attuazione di un cambiamento culturale il cui scopo è far si che i prodotti che sviluppiamo siano allineati ai nostri principi etici di trust and transparency. Fiducia e trasparenza, dunque.
E la fiducia nella tecnologia si basa essenzialmente sulla privacy dei dati, la fairness (quindi come dicevamo prima la mitigazione dei bias), la robustezza, la spiegabilità.
Questo vuol dire che i sistemi di intelligenza artificiale devono essere capaci di lavorare con accuratezza e, affinché forniscano un supporto alle nostre decisioni, è necessario che spieghino come, partendo da certi dati, arrivano a certe conclusioni: la trasparenza e la spiegabilità sono fondamentali.
Partendo dunque da questi principi, il comitato etico lavora per aiutare tutte le divisioni IBM a trasformare questi principi in azioni concrete nel lavoro di tutti i giorni, tramite soluzioni tecnologiche, attività di formazione, nuove metodologie processi aziendali, politiche interne e collaborazioni con molti stakeholders.

 

Insomma, questi sono i principi guida del vostro lavoro, in linea con il già citato regolamento europeo sull’IA, che si pone l’obiettivo di sostenere lo sviluppo di un’intelligenza artificiale antropocentrica, sostenibile, sicura, inclusiva e affidabile. Ma quindi possiamo fidarci dell’intelligenza artificiale?
Questi principi sono punti di riferimento per una nuova etica dell’intelligenza artificiale. Però la fiducia, che è importantissima, riguarda l’intero ecosistema e non solo la tecnologia.
La stessa proposta di legge dell’UE in merito alla regolamentazione dell’IA pone molta enfasi su questo aspetto: è fondamentale cioè creare un ecosistema affidabile intorno all’IA.
E in quest’ottica la spiegabilità gioca un ruolo cruciale. Se le macchine costruite per prendere decisioni migliori sono delle scatole nere, perché non è dato sapere come ottengono gli output a partire dagli input, è difficile fidarsi. Vanno quindi rese trasparenti.
E se l’intelligenza artificiale deve essere utile per aiutare le persone a prendere decisioni migliori (dove migliori vuol dire secondo criteri condivisi dalla società), la tecnologia deve essere progettata in modo tale che sappia distinguere cos’è e cosa non è discriminante per poter svolgere correttamente il proprio compito.

Pensando al futuro, qual è la sfida più grande che deve affrontare chi come lei lavora nel campo dell’etica dell’IA?
La tecnologia evolve molto velocemente, di conseguenza crea continuamente nuove sfide. È importante però riuscire ad anticipare il futuro e le difficoltà che verranno, con la speranza che il lavoro già svolto possa accelerare la gestione delle sfide future. Parlando di etica, per esempio, non dobbiamo pensare che sia importante solo per l’IA: riguarda anche altre tecnologie, come le neurotecnologie o il quantum computing, in cui IBM è leader. Il quantum computing permetterà di raggiungere una potenza di calcolo così grande da porre inevitabilmente nuove sfide di tipo etico. Si pensi alla crittografia, su cui si basano molti meccanismi di sicurezza: richiede una grandissima potenza di calcolo per poter essere decifrata. Ebbene, con il quantum computing potremmo superare queste protezioni crittografiche, quindi come gestire questa enorme potenza di calcolo? Anticipare il futuro significa quindi pensare a quelle tecnologie che oggi non sono ancora pervasive, ma potranno esserlo domani, e pensare alla gestione degli aspetti etici connessi.

 

Senta, la fantascienza ha in qualche modo influenzato la percezione che abbiamo dell’intelligenza artificiale? Ha alimentato cioè secondo lei, oltre alle elevatissime aspettative, per esempio sui robot umanoidi, anche diffidenze e paure?
Nella fiction spesso vediamo in azione macchine intelligenti e autonome, robot umanoidi, che possono agire anche contro il bene dell’umanità. E questo in effetti può creare confusione. Alimentare paure. Ma a dire il vero, nella realtà, siamo ben lontani dall’avere macchine di questo tipo e dubito che ce ne saranno in un futuro almeno prossimo.
Gran parte dell’intelligenza artificiale che è tra noi non ha la forma  di robot umanoidi, anche se esistono molti tipi di robot che lavorano in ambienti professionali, come le catene di montaggio o i magazzini. Si tratta invece di sistemi software che ci aiutano a risolvere problemi supportandoci nel processo decisionale.

Tecnovisionarie

“DONNE SCIENZA INVENZIONE CARRIERA – Progetto di Gianna Martinengo”

Dalle esperienze alle skill al role model, viaggio tra le professioniste e scienziate che stanno facendo progredire il mondo della scienza italiano e internazionale. Interviste a “mente aperta” anticipate da un viaggio nei diversi mercati dell’innovazione. Uno spazio sarà dedicato alle trentenni , giovani donne – professioniste e scienziate – che affrontano il futuro con coraggio e determinazione.

Condividi questa pagina