Che relazione ha l’uomo con la macchina? Dovremmo scrivere molte pagine per spiegare la complessità raggiunta da questo rapporto, ora che la tecnologia pervade ogni campo e ogni momento della nostra vita. Tra i ricercatori e gli scienziati si cerca di dare da tempo una risposta alla domanda: ma la macchina ha una coscienza? Il futuro ci darà certamente una risposta. Nel frattempo, tutte le attenzioni sono puntate sull’Intelligenza Artificiale Human Centered, ovvero quell’approccio progettuale che mette le persone al centro di tutto, che parte dalla prospettiva umana. Possiamo facilmente intuire quanto possa essere importante questa attività di ricerca di soluzioni in alcuni campi specifici, quello medico su tutti. Se si fa una ricerca in rete si potrà scoprire quanto questo criterio sia adottato, ad esempio, dal mondo dell’advertising, della comunicazione. Senza alcun dubbio, oggi ogni attività economico-produttiva registra un progressivo abbandono di soluzioni standardizzate per lasciare il campo alle soluzioni personalizzate, che pongano la persona umana al centro dei processi di comunicazione e di calcolo perseguendo la creazione di un’intelligenza artificiale interattiva, costruita a partire dai bisogni degli utenti come recita una parte della motivazione con la quale la prof.ssa Cristina Conati, docente di Informatica alla University of British Columbia, ha ricevuto il premio Tecnovisionarie 2021 per la categoria Human Centered AI.

 

Prof.ssa Conati, da dove nasce il suo interesse per l’interazione uomo-computer?

Non sarei qui se non fosse per Gianna Martinengo e Stefano Cerri. Ho fatto la mia tesi di laurea con il prof. Stefano Cerri ed è lui che mi ha introdotto a questo campo, in particolare al tema dell’interazione uomo-macchina nel campo dell’educazione. Stefano Cerri portava avanti la sua ricerca nell’ambito degli Intelligent Tutoring Systems in un periodo in cui questi concetti erano davvero poco conosciuti e lui è stato un autentico pioniere. Mi interessava molto il concetto dell’Intelligenza Artificiale ma all’epoca sembrava tutto sconnesso dalla realtà. E a me invece era piaciuta molto l’idea che ci fosse questa applicazione in un campo così importante per lo sviluppo dell’individuo. Quello che notavo è che c’era un po’ di resistenza negli ambienti scientifici per tutto quello che è innovazione nel campo dell’educazione. Dal punto di vista dell’Intelligenza Artificiale, il mio supervisore di dottorato a Pittsburgh chiamava Intelligent Tutoring Systems un dominio di applicazioni che permette di ricercare e testare tutte le varie aree dell’AI. D’altronde se ci pensiamo l’intelligenza che cosa è? Percepire quello che succede nel nostro ambiente, vedere come quello che succede si innesta con i nostri obiettivi e le nostre procedure e prendere delle decisioni per raggiungere questi obiettivi, basandosi sull’informazione che ci circonda. Ma anche apprendere dall’esperienza, apprendere dagli errori, dai risultati positivi. Pensiamo a cosa fa un’insegnante: cerca continuamente di capire se lo studente comprende o nel caso abbia dei problemi, quali sono questi problemi, prendere queste informazioni, metabolizzarle e cercare di fare delle azioni che poi possano aiutare lo studente ad apprendere. E’ un processo nel quale c’è tantissima incertezza: quante volte capita di parlare con qualcuno e cercare di spiegare e non riuscire a capire se questa persona sta comprendendo o se annuisce senza in realtà aver capito. Tutti questi aspetti che sto menzionando si traducono in vari aspetti del mondo dell’Intelligenza Artificiale: percezione dell’ambiente, rappresentazione della conoscenza, processare l’informazione, gestione dell’incertezza. Ad ogni aspetto è legata una tecnica di calcolo della probabilità, per capire come gestire un ambiente dove alla fine non sai mai quale è il risultato delle azioni che si decide di mettere in atto. Per tutte queste ragioni è un campo interessantissimo, non solo per i risultati – che poi sono utili anche a livello pratico e sociale, ma perché dal punto di vista della ricerca l’Intelligenza Artificiale mette davvero in discussione tantissimi aspetti tradizionali nel mondo della ricerca in Informatica. Quindi per me c’è stata questa fusione tra l’interesse per gli aspetti di ricerca e la potenzialità dell’impatto pratico importante.

Il tema dell’impatto e delle ricadute pratiche di ogni tipo di azione di ricerca è grande filo conduttore che unisce l’attività di ricerca di tutte le Tecnovisionarie.

E’ vero. Quando cercavo un relatore per la tesi di laurea a Milano mi aveva molto colpito questa idea di Intelligent Tutoring Sistems, artefatti che adottano e mettono assieme questi aspetti della ricerca in AI per estrarne qualcosa di veramente utile e unico.

Quale percorso l’ha portata in Canada?

Come capita molte volte è stato tutto ‘serendipity’. Ad un certo punto ero all’Irst  – Istituto per la ricerca scientifica e tecnologica (quello che oggi è Fondazione Bruno Kessler). Avevo un legame sentimentale a Trento e dovevo decidere se continuare o no in questo campo. Mi era stata segnalata l’apertura di questo centro di Intelligenza Artificiale. Tra l’altro il mio supervisore a Trento era uno psicologo che studiava modelli cognitivi che mi ha introdotta ad una speciale tecnica di AI che cerca di riprodurre e simulare i processi cognitivi che avvengono nel cervello. Questo professore aveva dei contatti alla Carnegie Mellon University a Pittsburgh dove mi mandò per un paio di settimane. Premetto che io non avevo mai pensato di fare ricerca, né un dottorato né un master di qualunque tipo. In realtà all’Irst le opportunità di fare ricerca c’erano comunque. Dopo varie riflessioni, sempre per ragioni di natura sentimentale, decido (o meglio, decidiamo, con il mio compagno) di trasferirmi a Pittsburgh per un periodo determinato, erano disponibili delle posizioni di un anno. Queste posizioni a tempo determinato sono diventate un Master, poi sono diventate un PhD e alla fine siamo rimasti li sette anni. E anche la destinazione Canada ha un’origine particolare, perché io non avevo nessuna intenzione di fare il professore, perché in Nord America può essere davvero molto stressante, è un ambiente molto competitivo, in quel periodo la mia scelta era per un centro di ricerca industriale, non universitario. E fondamentalmente ero molto dubbiosa all’idea di rimanere negli Usa: era stata una bellissima esperienza come studentessa ma non mi convinceva la filosofia di vita. A quel punto però tornare in Italia era altrettanto difficile. Il mio supervisore mi suggerì di andare a fare dei colloqui ovunque mi chiamassero, anche se non ero interessata. E mi chiamano da Vancouver, città della quale io non avevo mai sentito parlare. Arrivo qui in un fine settimana di maggio e ne sono rimasta folgorata, una città dall’altissima qualità della vita, ma anche a livello universitario e sociale dico sempre che l’ambiente è il perfetto connubio tra i valori americani e i valori europei. C’è efficienza e meritocrazia, valori sociali e responsabilità sociale: la gente paga le tasse che qui sono alte ma sono contenti di farlo se sono usate in modo oculato per migliorare la vita di tutta la comunità. L’ambiente universitario non mette sotto pressione, al contrario degli Usa dove c’è molta competizione tra colleghi soprattutto per ottenere risorse per la propria attività. In Canada c’è una competizione sana. E sono qui dal 2000. Senza nessuna pianificazione iniziale.

Quando e come è avvenuto il rovesciamento di paradigma che ha portato la ricerca a pensare che le macchine dovessero adattarsi al bisogno, al sentire della persona?

Quando le applicazioni digitali sono ristrette a settori specifici, la necessità è specifica ed è facile – con poche semplici istruzioni – disegnare l’interfaccia. Tutto questo è diventato più difficile nel momento in cui i computer sono stati utilizzati per diversi aspetti della vita di tutti i giorni, per rispondere a bisogni diversi. Facciamo l’esempio nel più noto social network, Facebook: lo usa il 20enne come il 70enne. Quindi non si può più dire: il mio utente ha queste caratteristiche specifiche, quindi posso disegnare l’interfaccia perché so esattamente chi la usa e con che obiettivo. Questo approccio non è più possibile, quello che si dice ‘one size fix all’ ovvero un’interfaccia che va bene per tutti non va più bene perché la popolazione degli utenti è troppo eterogena. Già gli Intelligent Tutoring Systems ci avevano dimostrato che insegnare a tutti nello stesso modo non funziona (le persone abbienti si permettono il tutore privato, in classe quando hai trenta studenti fai quello che puoi). Questo concetto si è ampliato all’idea di sistemi che vengono usati da utenti molto eterogenei per quanto riguarda i bisogni, le capacità, le preferenze. Avere questo livello di abilità della macchina di capire i bisogni è un modo per evitare a priori di dover cercare di disegnare un’interfaccia per un sistema che vada bene per una popolazione così ampia. Questo concetto si è sviluppato fin dagli anni ’90. Un esempio per capire. Se pensiamo ad esempio a WORD (il famoso programma di videoscrittura di Microsoft) come modello di ‘one size fix all’ non funziona. E’ un programma con tantissime funzionalità e sono milioni gli utenti che sono in grado di usarlo. Una delle prime ricerche condotte in Microsoft ha potuto appurare che la persona che usa Word per scrivere un semplice documento o comunque ha bisogno delle funzionalità essenziali, quando si trovi davanti a questi menù con decine di finestre e opportunità, va in quello che si chiama CONNECTIVE OVERLOAD. E’ da questo problema che si è sviluppata l’idea che ha portato a dire: bisogna trovare un modo per guidare gli utenti che si perdono di fronte a tanta ‘ricchezza’ di funzionalità. All’inizio c’era anche il famoso ‘agente’ di Microsoft per aiutare ad orientare l’utente nelle funzionalità, ma ha mostrato tutti i suoi limiti. Il gruppo di ricerca che lavorava a questi ‘agenti’ che dovrebbero aiutare gli utenti a trovare la strada tra le molteplici funzionalità, erano degli ottimi ricercatori che stavano seguendo strade molto interessanti. Ma hanno presto dovuto fare delle semplificazioni alle tecniche di AI che volevano inserire in questo agente, perché questo agente usciva nei momenti più inappropriati dell’uso di Word (I see you wanna write a letter?). Questo episodio ha bloccato l’idea di sistemi che si possono adattare all’utente perché l’applicazione è stata concepita in modo totalmente sbagliato. Quindi l’idea di avere il sistema che si adatta all’utente c’è da molto tempo, ma ci sono stati degli alti e bassi e incidenti di percorso verso lo sviluppo di progetti precisi. Negli ultimi 5-6 anni, in concomitanza con il balzo dell’entusiasmo verso l’AI, sono nate molte applicazioni di massa, di conseguenza questo problema è tornato: il problema di istruire per bene ogni sistema che interagisce con utenti molto diversi.

Quali sono, a suo avviso, i risultati più interessanti raggiunti dall’approccio human-centered computing?

Dal punto di vista dell’applicazione e dell’impatto pratico, un esempio di successo di questo approccio è rappresentato dai Recommender Systems <sistemi di raccomandazione, ndr>: sistemi di vendita che suggeriscono prodotti o items o comportamenti che si basano sull’analisi dei prodotti e delle scelte che hai già fatto in passato. Lo sappiamo tutti: se effettui un ordine di un libro su Amazon, riceverai suggerimenti per acquisti simili. E comunque ci sono tanti problemi, perché come sappiamo i suggerimenti di acquisto sono poi sempre gli stessi: hai comprato la macchina per i caffè e ti suggeriranno per settimane continuamente macchine per il caffè. Sistemi che in qualche modo cercano anche di catturare le emozioni degli utenti. Human Centered computing vuol dire semplicemente il fatto che si tiene l’utente in considerazione fin dall’inizio del ciclo di sviluppo della tecnologia. Tutto il campo dell’interazione uomo-macchina gravita attorno all’idea che l’uomo debba essere coinvolto nel processo di sviluppo della tecnologia. E ci sono tanti esempi di interfacce che vengono utilizzate in modo molto diffuso, non personalizzato. Esistono anche sistemi di base, dove non c’è nulla di AI e dei quali abbiamo sperimentato interfacce che sono poco apprezzabili. In senso positivo faccio l’esempio di Zoom, che ho apprezzato sin da subito perché è stato uno dei pochi sistemi che si riesce ad usare in modo molto intuitivo cioè  in un tempo ragionevole riesci a capire come utilizzare le funzionalità di base. Un esempio molto positivo di Human Centered Interaction: riescono ad usarlo tutti senza problemi. Un altro sistema molto apprezzabile è Gmail. Me lo consigliò un collega tanto tempo fa e nonostante io sia un’informatica ero molto restia; invece l’ho installato ed iniziato ad usare molto rapidamente. Ma i casi si contano sulle dita di una mano. Ci sono quindi delle storie di successo, anche nell’ambito dell’affective computing, ovvero di macchine e sistemi che possano a qualche livello tenere in considerazione anche le emozioni. L’idea è interessante. Quanto siamo vicini o quanto possiamo arrivare vicini ad un sistema completamente empatico ancora non lo sappiamo. Concetto affascinante già dai tempi di ‘2001: Odissea nello spazio! Nel momento in cui tu sviluppi un’intelligenza che è ad un livello umano naturalmente si aprono chissà quante strade.

Spostare il peso dell’interazione dall’utente alla macchina: quali sono le possibilità di dare all’AI ulteriori capacità di comprendere le aspettative dell’utente basandosi sulle espressioni multimediali? Quali sono i principi fondamentali che regolano l’interazione?

Quando si dice ‘ spostare il peso ’, non è spostarlo completamente sulla macchina perché nel momento in cui lo facciamo si rischia di interferire con un principio fondamentale dell’interazione uomo-macchina che è lo ‘user-control’. Alla fine, l’utente utilizza la macchina perché ne ha bisogno e ha degli scopi, ma l’utente deve sempre essere in grado di capire cosa sta succedendo e in qualche modo gestire l’interazione ed il controllo dell’interazione. Infatti, un problema dell’utilizzo di queste tecniche di AI per creare sistemi che si adattano all’utente è: se è la macchina poi a gestire l’interazione? E’ come un insegnante che diventa molto dispotico e ti obbliga a fare tutto quello che vuole lui senza ascoltare quali sono i tuoi bisogni reali. Quindi il concetto chiave è di interazione mista, Mixed-Initiative Interaction, un dialogo tra la macchina e l’utente per cui la macchina offre un certo servizio; la personalizzazione, l’adattarsi ai bisogni è un servizio aggiuntivo che la macchina può offrire ma l’utente deve sempre essere in grado di dire: questa cosa che mi stai proponendo mi piace o non mi interessa. Il sistema non può prendere le redini dell’interazione e decidere come si deve sviluppare perché la capacità del sistema di capire quello che l’utente vuole sarà sempre limitata. Anzi, la macchina deve invece sempre apprendere dal feedback che arriva dall’utente: questa sollecitazione che mi stai dando mi interessa o non mi interessa.

 

Che impulso ha dato la pandemia a questo ambito? Avete dovuto interrompere ricerche avviate per dare spazio ad altro?

Io sono stata fortunata perché avevo già la raccolta dati che mi serviva, perché l’allenamento dei sistemi di machine learning parte da una collezione di dati e per fortuna abbiamo potuto portare avanti l’addestramento delle nostre macchine e dei nostri sistemi perché avevo già eseguito la ricerca dei dati. Se avessi dovuto fare degli user-study con gli utenti avrei dovuto interrompere tutto. L’accesso a laboratori e a ‘persone’ non era possibile. Per quello che mi riguarda dunque la pandemia non ha intralciato nello specifico la mia attività di ricerca.

 

I suoi studenti a che campi si stanno particolarmente appassionando?

In questo periodo non fanno che chiedere: “quando facciamo deep-learning”? È considerata una tecnica molto popolare che è stata sostenuta anche da un’importante azione di marketing. Tecniche importantissime ma con tante limitazioni. Se leggiamo delle riviste di divulgazione, c’è un grande entusiasmo per deep-learning e anche sensazionalismo: il sistema che ha imparato a parlare. Ma non è così. Abbiamo risultati in questa direzione ma in contesti ancora limitati. C’è comunque una grande potenzialità e una grande prospettiva. I miei studenti hanno comunque la passione per la ricerca con delle implicazioni pratiche. Ma nel momento in cui fai ‘human-centered design’ devi condurre ‘user-studies’ con gli utenti e questi sono lavori che necessitano di molto molto tempo, perché ci sono delle procedure che devono essere seguite affinché i risultati scientifici siano corretti. E’ necessario molto impegno sempre, soprattutto nei percorsi di dottorato, dove lo studente deve approfondire parti teoriche e poi seguire esperimenti che richiedono molto tempo e all’inizio sono un po’ scoraggiati. Poi quando si leggono i risultati allora torna l’entusiasmo.

 

 

 

 

Visualizza il profilo completo
Tecnovisionarie

“DONNE SCIENZA INVENZIONE CARRIERA – Progetto di Gianna Martinengo”

Dalle esperienze alle skill al role model, viaggio tra le professioniste e scienziate che stanno facendo progredire il mondo della scienza italiano e internazionale. Interviste a “mente aperta” anticipate da un viaggio nei diversi mercati dell’innovazione. Uno spazio sarà dedicato alle trentenni , giovani donne – professioniste e scienziate – che affrontano il futuro con coraggio e determinazione.

Condividi questa pagina