Almanacco > Inediti
19 Settembre 2019

Il puzzle etico per fidarsi dell’intelligenza artificiale

Scarica l'inedito in PDF!

Per scaricare l’articolo in pdf bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.

Se inserisci il tuo indirizzo mail riceverai la nostra newsletter. Questa è la nostra informativa privacy

[recaptcha size:compact]

L’intelligenza artificiale, con le sue infinite possibilità come attraverso i pericoli che potrebbe rappresentare, sembra riassumere le ansie, le paure e i desideri di una specie, quella umana che pare ormai arrivata a dover fare i conti per davvero con la tecnologia — con quella tecnica che da sempre ha dominato e che ora potrebbe anche fare e agire al posto suo, nel bene come nel male.

Su cheFare abbiamo già affrontato approfonditamente il tema dell’intelligenza artificiale attraverso il percorso Oracoli in collaborazione con Luca Sossella editore, ma il libro di Francesca Rossi, Il confine del futuro. Possiamo fidarci dell’intelligenza artificiale? (Feltrinelli) rappresenta una ghiotta occasione per fare il punto sulle reali possibilità e sui reali pericoli con cui è necessario fare i conti.

Nel suo libro Francesca Rossi, global leader dell’IBM per l’etica dell’intelligenza artificiale, prova a smontare i pregiudizi e a restituire concretezza ad un tema che ci coinvolge tutti come cittadini. Un’introduzione al nostro futuro efficace e ben scritta, ma anche un modo per non sentirci esclusi da un presente in cui confronto e conoscenza diventano ancor più fondamentali di ieri per immaginare una società aperta e innovativa. Abbiamo incontrato Francesca Rossi in questi giorni mentre il suo libro inizia il suo cammino tra librerie e lettori.

Giacomo Giossi (cheFare): In apertura del suo libro, Il confine del futuro, accenna ad una plausibile e già possibile giornata futura vissuta con l’assistenza dell’intelligenza artificiale. Quale invece un futuro non solo plausibile ma desiderabile? Quali invece i rischi più imminenti a cui potremmo andare incontro?

Francesca Rossi: La giornata che descrivo nel mio libro non è ancora possibile, ma molte delle tecnologie necessarie per le attività di quella giornata sono già in fase di studio, in vari stadi di attuazione. Un futuro desiderabile, al di là dei dettagli come gli oggetti che useremo e le attività che faremo durante la nostra giornata, è un futuro in cui la tecnologia possa aiutarci a risolvere problemi importanti, quali quelli legati alla medicina o all’ambiente. L’intelligenza artificiale non può e non deve dettare il futuro, ma può aiutarci a realizzare il futuro che noi vogliamo. Ad esempio, una concreta visione di un futuro desiderabile è quella data di 17 obiettivi di sviluppo sostenibile delle Nazioni Unite.

Come è cambiata la ricerca sull’intelligenza artificiale dal 1986 al tempo della sua tesi con Ugo Montanari? Quali ambiti ha approfondito e quali invece sono rimasti al palo?

Dagli anni ’80 ad oggi, la ricerca in Intelligenza Artificiale è cambiata molto. I principali fattori di questo cambiamento sono la grande disponibilità di dati e di computer sempre più veloci, che ha reso possibile lo sviluppo, il test, e l’applicazione efficace di tecniche di machine learning (apprendimento automatico). Queste tecniche permettono alle macchine di capire come risolvere un problema osservando e generalizzando da esempi.

I rischi di macchine con capacità superiori a quelle umane sono relativi alla nostra possibile perdita di controllo sulle loro attività

Per funzionare bene, hanno bisogno di moltissimi esempi e computer potenti che possano analizzare tutti questi dati. Inoltre, negli ultimi anni la comunità scientifica ha capito che, per fare ulteriori significativi passi avanti, dobbiamo combinare i due approcci principali all’IA: l’apprendimento automatico e il ragionamento logico.

Come l’intelligenza artificiale ‘aumenta’ l’intelligenza umana?

Gli esseri umani e le macchine sono molto complementari nelle proprie capacità di risolvere problemi. Le persone sono migliori nel porsi domande interessanti, formulare problemi, e apprendere tecniche o soluzioni nuove da pochi esempi, mentre le macchine ci battono nel saper analizzare grandi quantità di dati e trovare correlazioni che a noi sfuggono, nel ragionamento probabilistico, e nelle capacità computazionali. L’approccio dell’intelligenza aumentata sfrutta questa complementarietà per formulare e risolvere problemi che né le macchine né le persone potrebbero risolvere da sole.

Quale la differenza tra robotica e intelligenza artificiale? A che livello è la ricerca in questi ambiti in Italia?

L’intelligenza artificiale è una disciplina scientifica, e una tecnologia, che mira a costruire macchine che sappiano risolvere problemi in modi che, se usati da una persona, verrebbero giudicati intelligenti. Queste macchine possono agire sull’ambiente che le circonda tramite parti fisiche, come un robot, o tramite azioni software. Un robot è un possibile dispositivo fisico che può agire secondo tecniche di intelligenza artificiale. Ma le azioni che può effettuare sono vincolate dalle capacità delle sue parti fisiche. Quindi la robotica è una disciplina a cavallo tra l’intelligenza artificiale, l’ingegneria, e la fisica, dato che queste altre discipline permettono di capire come progettare le parti fisiche del robot. Sia nell’IA che nella robotica l’Italia produce ricerca di alto livello e crea aziende innovative che applicano l’IA in molti campi.

Cosa significherebbe per l’Italia ‘perdere il treno’ della ricerca sull’intelligenza artificiale?

Significherebbe perdere grandi opportunità scientifiche, tecnologiche, ed economiche. Essere all’avanguardia nel campo dell’intelligenza artificiale permette, tra le altre cose, di dare ai propri giovani grandi opportunità di lavoro, di migliorare l’efficienza della pubblica amministrazione, e di supportare la competitività delle aziende.

È giusto che i media si occupino di questa tecnologia e dei risvolti etici del suo uso così pervasivo

Senza queste capacità, un paese non riesce a crescere, e anzi è probabile che si trovi sempre più in difficoltà sia al suo interno che nelle relazioni con altri paesi. Ma in Italia ci sono molte eccellenze in AI, sia nelle università che nelle aziende, e i giovani sono molto attivi nella costruzione di start-up innovative. Quindi ho speranze che l’Italia non perda questo treno.

Come vive da ricercatrice la pressione dei media attorno al suo lavoro? Secondo lei le società sono sufficientemente consapevoli della rivoluzione in corso?

Date le sempre più presenti applicazioni dell’intelligenza artificiale nella nostra vita, è giusto che i media si occupino di questa tecnologia e dei risvolti etici del suo uso così pervasivo. È però necessaria una maggiore consapevolezza delle reali capacità e dei limiti dell’IA. Altrimenti i media possono generare una fiducia eccessiva in questa tecnologia, o al contrario una eccessiva paura. Entrambe le cose sono negative, perché non permettono di prendere il meglio che l’intelligenza artificiale ci può dare.

Cosa è una Superintelligenza? Quali i rischi per l’essere umano?

La superintelligenza, o l’intelligenza artificiale “generale”, è definita come la capacità di una macchina di effettuare tutte le attività in modo uguale o migliore delle persone. Questo tipo di intelligenza non c’è ancora, ed è molto lontana da venire. Quello che abbiamo sono macchine che sono più brave di noi a fare cose molto specifiche, quella che si chiama l’intelligenza artificiale “debole”. I rischi di macchine con capacità superiori a quelle umane sono relativi alla nostra possibile perdita di controllo sulle loro attività, soprattutto se non ci assicuriamo prima di comunicare in modo chiaro i valori e i principi etici che vogliamo vengano seguiti nell’effettuare questa attività.

Secondo lei la comunità scientifica è in grado di gestire i dilemmi etici e sociali che può generare l’intelligenza artificiale? È necessario un ripensamento dell’organizzazione e della specializzazione negli ambiti di ricerca?

I problemi etici relativi all’uso dell’intelligenza artificiale riguardano aspetti quali la trasparenza, la gestione dei dati, l’imparzialità delle decisioni, l’impatto sul mondo del lavoro, le responsabilità, e il controllo.

Se la disciplina scelta è l’intelligenza artificiale sarà sempre più importante assicurarsi di avere una formazione che includa conoscenze nelle scienze sociali

Gli esperti di IA possono trovare soluzioni tecnologiche ad alcuni di questi problemi, ma l’individuazione dei problemi e la loro soluzione sociale può solo venire da un ambiente di discussione multi-disciplinare in cui sono coinvolti anche esperti di molte altre discipline, come la sociologia, la filosofia, la psicologia, e l’economia. Questo è già chiaro a molti, ed esistono molte iniziative multi-disciplinari che affrontano questi problemi e forniscono possibili soluzioni.

Di cosa si occupa una global leader IBM per l’etica dell’intelligenza artificiale?

Si occupa di aiutare l’IBM a capire come si possano individuare soluzioni agli aspetti etici dell’IA, sia per le attività dell’IBM che dei suoi clienti. Le attività che seguo sono sia interne all’azienda, e si basano sulla collaborazione tra le varie divisioni, che esterne, attraverso le molte collaborazioni con altre aziende, istituzioni, e organizzazioni. L’IBM ha un approccio a tutto tondo sull’etica dell’IA, avendo attività che spaziano dalla ricerca, allo sviluppo, alla costruzione di nuovi prodotti, ai servizi ai clienti, e fno alle politiche di supporto alla tecnologia.

Nell’ambito dell’intelligenza artificiale è presente un bilanciamento di genere tra i ricercatori/studiosi? e in caso contrario quanto uno sbilanciamento può danneggiare l’idea stessa di umanità futura?

Purtroppo non c’è un bilanciamento di genere. In ambito accademico, per esempio, meno del 20% dei docenti di intelligenza artificiale sono donne. Recentemente i convegni scientifici di intelligenza artificiale, e anche molte aziende, hanno attivato varie iniziative per aiutare le donne e altre minoranze, ma c’è ancora molto da fare. Questo sbilanciamento è negativo non solo per questioni di uguaglianza dei diritti, ma anche perchè solo con team diversificati l’IA può essere progettata in modo inclusivo e le sue decisioni possono evitare discriminazioni.

Per quale tipo di futuro lavora quotidianamente?

Per un futuro in cui l’IA sia allineata ai valori umani, sia definendo nuove soluzioni tecnologiche che contribuendo ad individuare linee guida che riescano a coniugare l’attenzione ai problemi etici dell’IA con la competitività e l’innovazione.

Quale percorso consiglierebbe alle ragazze e ai ragazzi che volessero accedere a questo ambito di studi? Cosa non devono mai dimenticare, magari che esuli l’ambito strettamente scientifico?

In generale, penso che i giovani dovrebbero indirizzare i propri studi verso la disciplina che li entusiasma, qualunque essa sia. Avere passione in quello che si studia è fondamentale per contribuire e innovare.

In ambito accademico meno del 20% dei docenti di intelligenza artificiale sono donne

Se la disciplina scelta è l’intelligenza artificiale, penso che sarà sempre più importante assicurarsi di avere una formazione che includa conoscenze nelle scienze sociali, oltre ad approfondire gli aspetti tecnologici.

Cosa consiglia di leggere o vedere per chi invece volesse rendersi più consapevole del cambiamento in atto?

Il mio libro vuole aiutare chi non è esperto di IA o di tecnologia a farsi un’idea realistica delle capacità e dei limiti di questa tecnologia, delle sue applicazioni, e dei problemi etici. Esistono anche molti altri libri più tecnici e dettagliati che si occupano di spiegare la tecnologia e il suo impatto nella nostra vita. Nelle ultime pagine del mio libro ne cito alcuni.

E infine cosa la diverte di più (e ancora) di questa sua avventura iniziata nel 1986?

Fin dall’inizio della mia storia con l’intelligenza artificiale, mi ha sempre attirato la possibilità di contribuire a costruire il futuro, creando innovazione e condividendola con altri esperti perché la tecnologia possa migliorare tramite una collaborazione globale. Ma negli ultimi anni, da quando ho iniziato ad occuparmi di etica dell’IA, trovo molto appassionante anche lavorare insieme a colleghi di tante altre discipline e imparare da loro, raffinando una visione del futuro dove la tecnologia sia funzionale alle persone e le aiuti a migliorarsi e migliorare il mondo.

La newsletter di cheFare

Le attività e gli articoli di cheFare nella tua mail

Ti piace cheFare?

Seguici su Facebook!

Questo articolo appartiene a:

Percorsi > Cultura Digitale

Potrebbero interessarti anche questi articoli

Hate speech, segnalando l’odio su Facebook: il caso Liliana Segre

18 Novembre 2019

L’ape, l’architetto e il laboratorio: una storia sulla non-neutralità della scienza

3 Settembre 2019
algoritmi

Breve storia di come il capitalismo ci ha insegnato a fidarci ciecamente degli algoritmi