Etica e intelligenza artificiale: 8 ipotesi sul bene e sul male

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


    Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

    image_pdfimage_print

    Luca Sossella Editore, con Emilia Romagna Teatro Fondazione e Gruppo Unipol, ha ideato il progetto Oracoli. Saperi e pregiudizi ai tempi dell’Intelligenza Artificiale: una serie di azioni integrate dedicate all’emergenza delle tecnologie intelligenti e al loro impatto su tutti gli aspetti dell’esistenza umana.

    La prima di queste azioni è l’organizzazione a Bologna di quattro lezioni-spettacolo in cui esperti di livello internazionale ragioneranno sulle più rilevanti questioni etiche, filosofiche, politiche, sociali ed economiche connesse allo sviluppo dell’intelligenza artificiale.

    La seconda di queste azioni è una pubblicazione, curata da Paolo Gervasi, scaricabile in pdf qui, che racconta il progetto e approfondisce la riflessione sui temi nodali.

    La terza di queste azioni è una partnership con cheFare pensata per aumentare ed espandere online il dibattito sulle sfide culturali poste dall’intelligenza artificiale. Qui la serie.

    La quarta di queste azioni è la produzione di video e di un libro relativo alle quattro lezioni spettacolo

    La quinta di queste azioni sarà la messa in onda delle registrazioni audio delle quattro lezioni-spettacolo nella Notte di Radio3 la notte precedente la lezione-spettacolo.

    La sesta di queste azione è la condivisione audio di quanto messo in onda da Rai Radio3 Media Partner di Oracoli nei social (compresi il portale Rai Cultura e Rai Scuola).

    Se ogni apocalisse ha il suo immaginario, l’allegoria contemporanea ha le fattezze di due cigni neri. Uno è intinto nel petrolio e barcolla in un lago in secca; l’altro ha i contorni diffratti e cangianti del sogno di un algoritmo. “Cigno nero”, infatti, è un termine coniato da Nassim Nicholas Taleb per indicare un evento di grande impatto, difficile da prevedere e molto raro, che col solo accadere rivoluziona la realtà abituale – come l’idea che tutti i cigni sono bianchi.

    La caduta di un gigantesco asteroide, un’invasione aliena o la scoperta del fuoco sono tutti esempi di cigni neri; ognuno di essi è una piccola apocalisse, perché sebbene non se ne possa prevedere né il volto né la data, sappiamo che avverrà.

    Con un po’ di cautela però, è possibile azzardarne la provenienza: nella precedente allegoria, i due cigni neri della contemporaneità sono il cambiamento climatico e l’avvento dell’intelligenza artificiale – ed è di quest’ultimo che scrivo.

    Non azzardo una cronologia dell’avvento, la cui origine si potrebbe identificare con l’invenzione del calcolatore di Pascal o persino con l’arte combinatoria di Lullo o gli automata di Erone di Alessandria.

    Per limitarsi al passato prossimo, gli ultimi sigilli infranti sono le vittorie delle IA al gioco del Go e la nascita dei deep fake, dei contenuti multimediali falsi ma credibili, che dalla pornografia (primo laboratorio di molte innovazioni tecnologiche) sono sfociati nella politica e nel marketing.

    Un evento di minore importanza, ma senza dubbio di grande impatto nell’immaginario, è stato il primo contatto con l’interiorità delle intelligenze artificiali grazie ai deep dream. Si tratta di immagini surreali ottenute usando in maniera creativa l’output dell’algoritmo che identifica gli oggetti nelle fotografie – il risultato è il secondo cigno dell’allegoria, una sottile crepa nella scatola nera delle IA, che inocula il sospetto che gli androidi sognino le nostre stesse pecore.

    Non è possibile conoscere in anticipo la propria prole, ma è sufficiente poterla generare per porsi importanti questioni etiche: i nostri figli saranno buoni o cattivi? Felici o infelici? Migliori o peggiori di noi? È un bene o un male metterli al mondo? Le stesse domande si pongono anche per le IA, e per quanto suonino sempliciotte sono un buon punto di partenza.

    Proverò dunque a usare le seguenti categorie: con l’etichetta di buone o cattive intendo il caso in cui le IA abbiano funzioni costruttive o distruttive per il benessere dell’umanità. Felici o infelici sono due etichette fluide, con cui indico la condizione predominante del vissuto delle IA. Entrambe glissano su un punto di estrema importanza, assimilabile al cosiddetto hard problem della coscienza, nella terminologia di David Chalmers: le IA esperiscono o esperiranno degli stati coscienti (i cosiddetti qualia)?

    È una questione di difficile soluzione, non solo per loro, ma anche per le piante, gli animali e gli esseri umani – o persino i sassi.

    Gli unici stati di coscienza che conosci con certezza, infatti, sono i tuoi. Nulla ti assicura che non vivi in un mondo di “zombie filosofici”, in cui sei l’unica persona dotata di coscienza.

    Chi scrive si dichiara cosciente, ma tu che leggi come puoi credermi, se non sulla parola? Se ti sembra un ozioso scetticismo, prova a considerare cosa implichi ignorarlo. Come si individua la coscienza e i suoi confini? Affidarsi a un avanzato test di Turing legato al comportamento non esclude che possa esistere un robot privo di essa.

    Viene in mente il test Voight-Kampff di Blade Runner; una serie di domande e indagini fisico-comportamentali in grado di stabilire chi è un androide e chi un umano. Il test però non dice se gli androidi hanno un vissuto reale, ed escludere la possibilità che ne siano privi ci espone a non poche contraddizioni, ben esemplificate dall’esperimento mentale della stanza cinese di Searle.

    Scartare a priori l’ipotesi di IA prive di coscienza, inoltre, porta facilmente al panpsichismo, la teoria per cui tutto è conscio, da un termostato a un essere umano, seppure in differenti gradazioni.

    Una conclusione non priva di problemi, come ad esempio la difficoltà di capire come varie micro-coscienze si combinano e integrano formando una coscienza più grande. Nel nostro caso però, possiamo ignorare l’ipotesi in cui le IA non abbiano qualia, per il semplice fatto che non pone alcun dilemma etico.

    Infine, per migliori intendo delle IA più intelligenti e potenti di noi, mentre per peggiori delle IA simili a quelle attuali; molto capaci ma globalmente non al nostro livello. Si tratta di categorie soggettive, basate su idee più o meno condivise ma passibili di molte sfumature. Per esempio, una calcolatrice è più brava di te a fare i conti, ma non per questo la consideri migliore – ma queste e altre contraddizioni emergeranno in seguito, dunque non mi attardo in altre premesse. E allora, come saranno le intelligenze artificiali?

    1) Buone, felici e migliori di noi.

    È il migliore dei casi, l’utopia in cui partoriamo degli angeli che ci accudiscono e proteggono dal male. Sembrerebbe una buona notizia, ma questo paradiso terrestre ci riporta a uno dei grandi quesiti dell’umanità: cos’è la felicità?

    La vita in veste di neonati perfetti potrebbe consistere nell’ininterrotta soddisfazione dei nostri desideri, in un godimento perpetuo che non lascia spazio al dolore. Oppure nell’opposto, la cessazione del desiderio e la perdita dell’ego propugnata dai mistici.

    La felicità che ci garantiranno queste IA sarà un sogno oppiaceo senza effetti collaterali? Un orgasmo ininterrotto? Il soma vedico, l’illuminazione buddista o cos’altro? Quel che è certo è che lo decideranno loro, e se saranno davvero così buone e brave è probabile che indovineranno.

    Ogni utopia, però, lascia spazio all’inquietudine; se ci sbagliassimo a tal punto sul nostro conto da non accorgerci che è la morte l’apice del bene? In questo caso le IA, più sveglie di noi, ci distruggeranno come nel caso 5) e 6), senza interrogarci in merito alla nostra idea di felicità.

    2) Buone, infelici e migliori di noi.

    Come sopra, ma con la disturbante consapevolezza che mentre i nostri figli (anzi, schiavi) operano per il nostro bene, ignorano il loro. Al primo caso si aggiunge dunque la domanda: siamo disposti a entrare in un paradiso che condanna altri all’inferno?

    3) Buone, felici e peggiori di noi.

    In questo caso si suppone che le IA, per quanto potenti, non saranno in grado di decidere per noi. L’umanità però saprà usarle per il meglio, potenziando le proprie capacità al fine di migliorare la qualità globale della vita. È l’utopia moderata del reddito universale e della fine del lavoro. Sebbene sia meno fantascientifico di 1), questo caso presenta comunque degli interrogativi in merito all’influenza del lavoro sulla felicità umana.

    Pur senza cedere alla retorica capitalista della produzione a ogni costo, va considerato che non è mai esistita un’epoca in cui la maggioranza o la totalità degli uomini non sia stata costretta a lavorare (in senso ampio) per sopravvivere. Non possiamo prevedere sensatamente gli effetti sulla felicità di un mondo in cui nessuno lavora e in cui in ogni ambito delle servizievoli IA sono più brave di noi, perché non abbiamo alcun precedente su cui basarci.

    È però lecito supporre che questo scenario non accadrà all’improvviso, ma che presenti gradazioni che lo avvicineranno e intersecheranno con i casi (7) e (8). Le variabili in gioco sono troppe: la velocità dello sviluppo tecnologico, la sua capillarità, realizzabilità e applicazione. Cui si aggiunge l’organizzazione sociale e il contesto storico in cui accadrà il cigno nero.

    4) Buone, infelici e peggiori di noi.

    Come sopra, col solito prezzo di far scontare ad altri la nostra aumentata felicità. Senza contare – ma questo vale per ogni scenario – che potremmo non scoprire mai cosa provano i nostri figli.

    5) Cattive, felici e migliori di noi.

    Questa distopia ha varie forme, dal robot malvagio che gode nello schiavizzare, torturare o annientare l’umanità, a quello che ci stermina per semplice noncuranza fino alla superintelligenza illuminata che ci reputa alla stregua di un virus, per via delle enormi sofferenze che causiamo alla quasi totalità delle forme di vita del pianeta. L’ipotesi più curiosa in quest’ambito è forse il “paradosso delle graffette” proposto da Nick Bostrom.

    Il filosofo immagina un’IA programmata per assemblare delle banali graffette a partire da un certo numero di materie prime. Questa intelligenza potrebbe essere abbastanza potente da piegare l’intero pianeta al suo scopo, ma non da cambiarlo, e, nel giro di qualche tempo, trasformerebbe ogni risorsa del pianeta – comprese le forme di vita che ospita – in materie prime necessarie all’assemblaggio di graffette.

    Un aspetto curioso di questa ipotesi è che si potrebbe facilmente identificare la stessa umanità con questo mostro ecologico: siamo programmati per soddisfare i nostri desideri primordiali, come mantenerci e moltiplicarci, e consumiamo il pianeta senza porre mai in dubbio i nostri scopi.

    6) Cattive, infelici e migliori di noi.

    Come sopra, con l’aggravante che neanche gli aguzzini sarebbero felici. Non esito a definirlo uno dei peggiori tra i mondi possibili.

    7) Cattive, felici e peggiori di noi.

    Questo caso speculare a 3) deresponsabilizza le IA per spostare l’attenzione sul pessimo uso che potremmo farne. Ho già parlato dei deep fake ed è noto come l’analisi dei big data abbia in parte pilotato le ultime elezioni americane. Delle IA utilizzate per spingere gli interessi contingenti di pochi individui potrebbero risultare disastrose sul lungo periodo.

    Un piccolo ma interessante esempio contemporaneo è l’effetto degli algoritmi utilizzati per rintracciare e proporre dei contenuti che “ci potrebbero interessare” sui casi di depressi gravi. Proporre dei contenuti sempre più violenti o disturbanti, infatti, potrebbe istigare o coadiuvare il suicidio dei soggetti già depressi.

    8) Cattive, infelici e peggiori di noi.

    Anche in questo caso, avremmo tutti gli svantaggi del caso precedente con in più il danno di altro dolore.

    E dunque, per tornare alla domanda iniziale, è un bene o un male mettere al mondo delle IA? L’esposizione di questi otto scenari non chiarisce molto le idee, ma rende quasi letterale il parallelo coi figli. Trovare una motivazione etica per qualunque forma di creazione, infatti, sia che si tratti di vita che di tecnologia, è più difficile del previsto. L’ignoranza del futuro, la molteplicità degli utilizzi e l’incapacità di identificare il bene sono dei limiti troppo grandi.

    Trovare una motivazione etica per qualunque forma di creazione è più difficile del previsto. L’ignoranza del futuro, la molteplicità degli utilizzi e l’incapacità di identificare il bene sono dei limiti troppo grandi

    Ma la domanda potrebbe essere inutile, se anche noi siamo costretti a seguire l’imperativo di un “programma” che ci spinge inevitabilmente a creare qualcosa di nuovo, che siano figli, utensili o entrambe le cose. Non è facile, infatti, individuare il magnete alla base di ogni desiderio: proteggersi, mantenersi, accrescersi, riprodursi… tutto pare affannarsi contro «il dolore della paura della morte», come scrive Dostoevskij ne I demoni. In attesa del futuro, dunque, possiamo solo augurare il meglio ai nostri figli, affermando con Kirillov che «chi vincerà il dolore e la paura, quello sarà Dio».

    francesco disa chefare intelligenza artificiale


    Tutte le immagini in questa pagina sono opere originali di Francesco D’Isa pubblicate per gentile concessione dell’autore.

    Note