Almanacco > Inediti
14 marzo 2018

Bertram’s mind, perché dobbiamo regolare l’intelligenza artificiale

Scarica l'inedito in PDF!

Per scaricare l’articolo come pdf è necessario essere iscritti alla newsletter di cheFare.
Inserisci i dati richiesti, anche se sei già iscritto in modo che il sistema possa verificare.
Riceverai via mail il link per scaricare il PDF.

Letta l'informativa*, dichiaro di averne compreso il contenuto e acconsento al trattamento dei miei dati per le finalità e secondo le modalità ivi indicate.

“Gelo, e nessun ricordo di un simile tragitto al dolore. Alla vostra prima parola, quando tentai di esser degno di lode, e tutto questo è stato dunque avventato raggiungere a cavallo Mr. Crawford”.

Questa strampalata composizione dal sapore neoclassico ha goduto di un inaspettato successo. Non per i suoi dubbi meriti letterari, quanto piuttosto per il suo consolante valore simbolico. L’autore dei versi è Deep Thunder, un computer infarcito di romanzi di Jane Austen che elabora autonomamente testi originali grazie all’intelligenza artificiale. E la sua evidente incapacità di fare buona letteratura non è solo una bella notizia per scrittori e poeti ma, più in profondità, la testimonianza di ciò che le macchine non possiedono, la creatività.

Del resto, l’intelligenza artificiale appare ancora oggi come la più futuribile tra le tre divinità che – secondo gli esperti del MIT Andrew McAfee e Erik Brynjolfsson – compongono quella specialissima trinità alla base della rivoluzione digitale in atto (le altre sono le piattaforme online e le organizzazioni “crowd-based”).

Tra tutte le notizie che ci bombardano quotidianamente sull’intelligenza artificiale, quella che probabilmente ha fatto più scalpore ha come protagonista AlphaGo, il programma di Google che ha battuto il leggendario campione del mondo di “Go” Lee Sedol. Dopo il successo a scacchi di Deep Blue contro Kasparov (1997) e quella di Watson nel popolare quiz televisivo Jeopardy! (2011), la vittoria a Go (2016) potrebbe sembrare l’ennesima declinazione della stessa storia: un computer zeppo di dati che batte il cervello di un pover’uomo.

Eppure qui è tutta un’altra storia. Perché il gioco da tavolo cinese vecchio più di tremila anni – in cui si piazzano su una scacchiera pezzi bianchi e neri e vince chi controlla la porzione di spazio maggiore – ha variabili quasi infinite, esponenzialmente superiori a quelle degli scacchi. Per questo non si può insegnare come vincere a Go, perché non ci sono routine o istruzioni da seguire ma anzitutto inspiegabili intuizioni. E stavolta il verdetto è stato senza appello: quattro a uno per la macchina.

Con la vittoria a Go le macchine sembrano aver sconfitto anche il paradosso di Polanyi, secondo cui noi umani “sappiamo più cose di quelle che sappiamo dire”. Macchine tradizionali non possono competere con questo umanissimo patrimonio di conoscenze tacite, perché hanno bisogno di regole chiare cui obbedire per poter funzionare, ma sistemi che apprendono dall’esperienza possono farcela.

La posta in gioco è molto più alta di un semplice gioco. Caduto il paradosso di Polanyi, a cambiare è la divisione del lavoro tra uomo e macchina. Ancora nel 2004 Levy e Murnane potevano additare la guida di un veicolo nel traffico come tipicamente umana, perché richiede un insieme di conoscenze difficilmente codificabili entro un programma informatico. Solo pochi anni dopo, con il Senato americano sul punto di approvare una legge che autorizza i veicoli a guida autonoma e la Cina che ne permette la circolazione sperimentale su strada, la predizione dei due autorevoli studiosi appare come un romanzo di fantascienza invecchiato troppo presto.

Se con gli algoritmi “machine learning” i confini mobili tra uomo e macchina si spostano sempre più rapidi, si ingrossano ogni giorno le fila di chi prende sul serio il monito del filosofo di Oxford Nick Bostrom su una “super-intelligenza” artificiale, la prima specie più intelligente dell’uomo a popolare la terra dalla sua comparsa. Se non interveniamo subito – conclude l’autore – in un futuro neppure tanto remoto finiremo per dipendere da queste macchine per la nostra stessa sopravvivenza.

Di filosofi apocalittici ce ne sono sempre stati e non sempre le loro profezie si sono rivelate centrate. Ma anche tra i guru della Silicon Valley il tono sta cambiando. In occasione dell’ultimo incontro del U.S. National Governors Association è stato lo stesso Elon Musk ad affermare che l’AI costituisce una seria minaccia per l’umanità, rimarcando l’urgenza di regole certe per l’AI. “Stiamo giocando con il diavolo”, ha concluso preoccupato.

Non tutti sono d’accordo. In un editoriale sul New York Times Oren Etzioni ha liquidato le tante prese di posizioni allarmistiche sul tema come frutto della confusione tra realtà e fantascienza. Anche se – ha aggiunto enigmatico – “il cavallo dell’AI è uscito dal recinto e tutto quello che possiamo fare è provare a condurlo”, altrimenti saranno altri Paesi, Cina in testa, a guidare la corsa. Per questo occorrono regole chiare, soprattutto dove l’impatto sarà più visibile: armi, lavoro, privacy.

Così, in una sorta di ennesima riedizione delle leggi della robotica di Asimov, si propone l’elaborazione di principi generali per il governo dell’AI. Fissare la responsabilità personale del programmatore, per evitare che possa lavarsi le mani con un “non sono stato io”. Stabilire l’obbligo di dichiarare la natura non umana di ogni forma di AI (pensate ai political bot pro-Trump, in azione durante le ultime presidenziali americane o al video della Washington University con un finto, credibilissimo Barack Obama). Consentire all’AI di trattenere o rivelare le informazioni apprese solo con l’esplicito consenso della fonte, ad esempio per dispositivi come Alexa di Amazon o Google Home, che stanno entrando nelle case di tutto il mondo promettendo tanta comodità ma capaci di registrare tutta la nostra vita domestica.

Sull’opportunità di regole sembrerebbero tutti d’accordo. Eppure quando i senatori americani John Delaney (D-Md) e Pete Olson (R-Tx) hanno annunciato l’intenzione di formare una commissione parlamentare sull’AI, il loro progetto si è subito infranto nel prevedibile attendismo di chi giudica qualsiasi regola a governo delle tecnologie come un dannoso ostacolo all’innovazione, secondo un pericoloso mantra sempre più diffuso nella classe politica di tutto il mondo, Europa compresa.

Ma non è solo un problema di volontà politica. Se le tecnologie “machine learning” non si limitano più a seguire fedelmente le istruzioni, ma inventano soluzioni e percorsi inediti, questo significa che neppure il programmatore a volte saprà dare una spiegazione. Google Deep Dream, con il suo corredo di rappresentazioni mostruose, ci ha mostrato per immagini come gli algoritmi apprendano secondo regole proprie diverse da quelle degli esseri umani. La storia dei due bot di Facebook che iniziano a dialogare in un linguaggio incomprensibile agli stessi programmatori – i quali ricorrendo al più vecchio dei trucchi staccano la spina – è ormai un classico del racconto distopico contemporaneo.

Per questo l’AI si confronta con un problema di trasparenza e, di conseguenza, di responsabilità. Perché un’intelligenza artificiale che sia al servizio dell’umanità non deve solo dare risposte giuste, ma anche offrire spiegazioni comprensibili e adeguate (piccolo test: seguireste una prescrizione medica uscita da una macchina, senza che sia accompagnata da una diagnosi plausibile?). Per questo è necessario che le scelte di un AI siano interpretabili dall’uomo, altrimenti rimarranno sempre scatole nere, forse efficienti nei risultati ma di scarso aiuto alla comprensione umana.

D’altra parte, la mistica degli algoritmi sta proprio nella loro imperscrutabilità. Quando se ne parla invariabilmente si tende a credere ad un sistema troppo complesso per essere interrogato, anche la macchina non fa altro che obbedire alle regole, magari specchio dei nostri pregiudizi. Come nel caso di HART, il programma utilizzato dalla polizia inglese per stabilire le probabilità di recidiva di un condannato e decretare se tenerlo o meno in carcere: una scelta che il computer spesso prendeva in base al codice di avviamento postale del malcapitato, con il risultato di discriminare chi vive in zone degradate. O come nel recente “robo-debt scandal” australiano, frutto dall’automazione del sistema di welfare.

Gli algoritmi diventano così i protagonisti di una sorta di colossale “math-washing”, in cui scelte dal preciso impatto sociale si ammantano di un’aura di neutralità se prese da macchine. Nel suo “Automating Inequality” la scienziata politica Virginia Eubanks mostra come siano proprio i poveri e la working class – a dispetto del luogo comune sugli analfabeti digitali lontani da ogni tecnologia – ad essere il centro della rivoluzione digitale, vere e proprie cavie dei nuovi servizi tecnologici. E denuncia come l’automazione dei servizi in America – dall’assistenza sanitaria al censimento degli homeless, fino alla tutela dei bambini attraverso sistemi che predicono il rischio di abusi – stia creando un sistema di “digital poverty management” che espone le persone ad un controllo totale da parte di governi e mercati. Del resto, l’identità è il terreno d’elezione per pregiudizi e discriminazioni che gli algoritmi possono contribuire a potenziare. Basta digitare “black girls” su Google – ammonisce Safiya Umoja Noble nel suo Algorithms of Oppression – per venire sommersi da immagini pornografiche e altri riferimenti sessuali.

Ma non è solo un tema di minoranze oppresse. Sono in molti a sostenere che i rapporti di forza nell’economia digitale stiano cambiando a vantaggio delle piattaforme, secondo una tendenza che coinvolgerà fasce sempre più ampie della popolazione. L’intelligenza artificiale – ha sostenuto Evgenij Morozov in occasione di un recente incontro per “We the Media” a Fondazione Feltrinelli – dovrà nutrirsi dei nostri dati ancora per qualche anno. Ma non illudiamoci, la maggior parte di noi è abbastanza banale per esaurire in poco tempo ciò che di interessante ha da rivelare alle macchine. Tra poco non serviremo più e quando questo accadrà molti servizi finora gratuiti diverranno a pagamento, dato che in cambio non avremo più nulla da offrire se non il nostro denaro.

Ascoltandolo il pensiero corre alle ultimissime gesta di Alpha Go. Mentre la versione che ha battuto Lee Sedol aveva iniziato il proprio apprendistato grazie a centomila partite giocate da persone in carne ed ossa e immagazzinate nella memoria come base di conoscenze, nella sua ultima versione – Alpha Go Zero – la macchina inizia, appunto, da zero, giocando partite con sé stessa senza nessun aiuto umano se non la conoscenza delle regole del gioco, secondo una tecnica definita “reinforced learning”. In tre giorni Alpha Go Zero è passata da principiante assoluto ad un livello professionistico; dopo quaranta aveva scoperto mosse che l’uomo non aveva mai sperimentato in migliaia di anni.

Insomma, sembra esserci rimasto solo Orgoglio e pregiudizio a dirci quanto siamo speciali. Ma mentre ci godiamo le avventure di Elisabeth e Darcy, si insinua il dubbio che il nostro parere sdegnoso nei confronti della strofa di apertura sia anche quello sbrigativo e ingeneroso. Se davvero stiamo assistendo a un cambio dell’estetica nell’età delle macchine, un domani non troppo lontano forse percepiremo in modo completamente diverso qualcosa che ancora oggi ci appare del tutto sconclusionata. È troppo presto per dirlo, ma se l’incipit non vi è bastato a sciogliere il dubbio, vi lascio alla lettura del testo integrale di “The music is satisfied with Mr. Bertram’s mind”.


Immagine di copertina: ph. Pana Vasquez da Unsplash

La newsletter di cheFare

Le attività e gli articoli di cheFare nella tua mail

Ti piace cheFare?

Seguici su Facebook!

Questo articolo appartiene a:

Percorsi > Cultura Digitale

Potrebbero interessarti anche questi articoli

distrazione

Disintossicarsi dallo stato permanente di distrazione? Non basta

20 giugno 2018
tinder

Love Me, Tinder. La dura legge dei matches

18 giugno 2018
big data, piattaforme digitali

Come siamo cambiati. O forse no. Big Data e piattaforme digitali

22 aprile 2018