Almanacco > Inediti
3 Settembre 2019

L’ape, l’architetto e il laboratorio: una storia sulla non-neutralità della scienza

Scarica l'inedito in PDF!

Per scaricare l’articolo in pdf bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.

Se inserisci il tuo indirizzo mail riceverai la nostra newsletter. Questa è la nostra informativa privacy

[recaptcha size:compact]

Pubblichiamo su cheFare il saggio di Massimo Airoldi e Daniele Gambetta, Sul mito della neuttralità algoritmica pubblicato su The Lab’s Quarterly. Oggi la quarta e ultima parte, qui la terza.


«Ciò che fin da principio distingue il peggior architetto dall’ape migliore» – scriveva Marx nel Capitale – «è il fatto che egli ha costruito la celletta nella sua testa prima di costruirla in cera». Il processo lavorativo porta alla luce un risultato già immaginato come idea dal lavoratore.

Al tempo stesso, i mezzi utilizzati per realizzare il lavoro sono «indici dei rapporti sociali nel quadro in cui viene compiuto il lavoro» oltre che elementi di distinzione dell’epoca economica in corso. Prendendo ispirazione da questo passaggio di Marx, quattro fisici della Sapienza – Giovanni Ciccotti, Marcello Cini, Michelangelo de Maria e Giovanni Jona-Lasinio – si misero a riflettere su come la ricerca scientifica e il suo decorso siano storicamente soggetti a logiche economiche, e quindi su come le stesse rivoluzioni scientifiche mettano in crisi l’immagine della scienza come superiore alla storia. «L’idea di autonomia delle teorie scientifiche rispetto alla società […] non ha fondamento nella realtà», scrivevano ne L’ape e l’architetto (1976).

Possiamo ricondurre il discorso sulla neutralità algoritmica a quello sulla neutralità della scienza, e con questo metterlo a critica.

L’algoritmo prodotto dagli architetti/ingegneri realizza nell’elemento macchina un’idea già presente nella mente degli architetti/ingegneri – intesi, nel caso dei big data, come la massa dei produttori di informazione. «Non-neutralità è un concetto formalmente negativo» – affermavano Ciccotti e colleghi (1976) – «ma in quella formulazione è implicita una considerevole articolazione e un arricchimento nell’idea di scienza e di scientificità».

Mentre L’ape e l’architetto andava in stampa, l’antropologo e filosofo Bruno Latour e il sociologo britannico Steve Woolgar si trovavano in un laboratorio scientifico californiano specializzato in ricerca biologica, per condurre uno studio etnografico i cui risultati furono pubblicati tre anni dopo in un volume dal titolo Laboratory Life: The Construction of Scientific Facts (1986). La loro tesi principale – suggestiva all’epoca come oggi, nonché certamente più radicale di quella dei fisici italiani – è che ciò che chiamiamo scienza non sia altro che una costruzione sociale.

L’osservazione partecipante del laboratorio e dei suoi strani nativi rivelava qualcosa che gli accademici conoscono bene: le attività convulse di un «paperificio», una fabbrica di output scientifici dove le carriere individuali dei ricercatori e i parametri delle riviste contano più dei sedicenti fatti. Persino strumenti come lo spettrometro di massa, lungi dall’essere neutrali, agli occhi di Latour e Woolgar apparivano come la materializzazione di asserti scientifici risultanti da tradizioni disciplinari anch’esse socialmente condizionate, trasformati in stabilizzatori di realtà volti a «ricavare l’ordine dal disordine» (Ivi, 242). In sintesi, ciò che gli scienziati oggetto di studio facevano per la maggior parte del tempo era incapsulare conoscenza in «scatole nere»:

The activity of creating black boxes, of rendering items of knowledge distinct from the circumstances of their creation, is precisely what occupies scientists the majority of the time. The way in which black boxing is done in science is thus an important focus for sociological investigation. Once an item of apparatus or a set of gestures is established in the laboratory, it becomes very difficult to effect the retransformation into a sociological object (Latour & Woolgar, 1986, 259-260)

Lo sforzo sociologico necessario a svelare l’«inscatolamento» delle attività del laboratorio ricorda da vicino la fatica, omologa, per aprire la black box del codice algoritmico (Pedreschi et al., 2018) o scassinare la gabbia discorsiva del mito della neutralità (Rojo, 2018; Foucault, 2011).

Sarebbe da chiedersi, allora, come sia stato possibile passare in poco più di trent’anni dalla riflessività epistemologica dei saggi di cui sopra alla fede iper-ottimistica in correlazioni statistiche e tecnologie opache (Priori, 2018). Quasi sicuramente la risposta ha a che fare con il mito del calcolo nell’era dei big data e i tanti meccanismi di potere a cui questo discorso si collega.

L’algoritmo, come lo spettrometro di massa del laboratorio studiato da Latour e Woolgar (1986) è essenzialmente uno «stabilizzatore di fiducia» (Gillespie, 2014, 179), un produttore di discorsi, cristallizzati negli output restituiti dalla black box del machine learning.

Al contempo, è il prodotto di discorsi, inscritti nelle regole generative del codice, nell’«inconscio tecnologico» (Beer, 2009) che processa le nostre esistenze digitali dietro il volto rassicurante dell’interfaccia utente. Infine, l’algoritmo è esso stesso discorso (Beer, 2017; Seaver, 2017) – giustificazione per licenziamenti e finanziamenti, soluzione ottimale ai complessi problemi della vita quotidiana, garanzia di efficienza e neutralità (si veda Christian & Griffith, 2016).

Tuttavia, come il Turco Meccanico creato da von Kempelen nel 1769 per Maria Teresa d’Austria illudeva di giocare a scacchi autonomamente mentre era in realtà controllato da un umano, così le più recenti tecnologie di intelligenza artificiale traggono risultati sulla base dell’apprendimento compiuto su dati prodotti da migliaia di utenti connessi e delle scelte ingegneristiche nascoste nel codice software – riguardanti, ad esempio, l’operativizzazione di concetti arbitrari quali quelli di rilevanza, significatività, similarità, soddisfazione (Gillespie, 2014; Rieder, 2017). Gran parte delle considerazioni critiche riguardo a calcolabilità statistica e neutralità scientifica, fiorite durante il novecento nelle scienze sociali come in quelle dure, sono applicabili anche alla odierna ingegnerizzazione algoritmica della vita quotidiana (Latour & Woolgar, 1986; Ciccotti et al., 1976).

Ciononostante, complice la relativa novità dell’argomento, i dibattiti pubblico e accademico rimangono in larga misura dominati dal positivismo ingenuo implicito nella narrazione tecno-ottimista e pro big data.

Aldilà del livello del discorso e delle sue sfaccettature, una domanda molto concreta sorge spontanea: che fare? Come criticare il mito della neutralità algoritmica senza diventare «tecnici dell’Apocalisse»? – «specializzati nel dimostrare che il nuovo orizzonte di problemi è radicalmente equivoco, antiumano, e che occorre rifarsi al culto dei valori di un tempo per garantire all’umanità la sopravvivenza» (Eco, 2017:368-369). Qualche considerazione conclusiva ci viene suggerita dalla letteratura, nonchè dagli esempi presentati nelle pagine precedenti.

In primo luogo, l’opacità di intelligenza artificiale e machine learning, il loro essere delle black box (Pasquale, 2015) il cui funzionamento è imperscrutabile non soltanto per l’utente finale, ma anche per l’ingegnere informatico che ha contribuito all’addestramento della macchina, non preoccupa soltanto per una semplice mancanza di trasparenza, o perché l’alone di mistero alimenterebbe il mito della neutralità algoritmica. Il problema principale, sottolineato da Pedreschi e colleghi (2018), è rappresentato invece dall’impossibilità di controllare la presenza di bias nascosti nel modello.

Se casi come quello di Compas, menzionato sopra, sono venuti a galla, molte altre applicazioni distorte del machine learning in ambiti come quello bancario, assicurativo o militare potrebbero restare sottotraccia per molto tempo prima che gli errori vengano scoperti e corretti.

La questione dell’opacità degli algoritmi e dei loro eventuali bias (Noble, 2018) porta ulteriore supporto alla tesi di una necessaria interpretabilità delle scatole nere algoritmiche. Ciò che diversi autori suggeriscono è di investire in tecnologie e metodologie per la spiegazione delle attività degli algoritmi, allo scopo di allinearle con i valori e le aspettative della società, salvaguardando così l’autonomia e la consapevolezza umana in ambito decisionale (Ribeiro et al., 2016; Pedreschi et al., 2018).

Un secondo punto è rappresentato dal mancato coinvolgimento della collettività nella progettazione e nel perfezionamento degli algoritmi di rilevanza pubblica (Gillespie, 2014; Boccia Artieri, 2014). Sebbene gli effetti di algoritmi come quelli di Facebook o Google sulla vita quotidiana di miliardi di persone siano incommensurabili, il coinvolgimento dell’utente-prosumer nel processo computazionale – al di là dell’estrazione più o meno consenziente dei suoi dati personali – è praticamente nullo, e i margini di personalizzazione dell’algoritmo sono di norma molto limitati. Rojo (2018:135), riferendosi in primis alle comunità di sviluppatori, parla a questo proposito di un bisogno di sovranità, da contrapporsi alla disintermediazione tecnica e alla sua sedicente neutralità: «sovereignty relates to the way a community can influence an algorithm, appropriate it, distribute it, share it and create new ones».

Questa sovranità, aggiungiamo noi, andrebbe idealmente allargata alle masse di cittadini-utenti finali. Perché questo sia possibile e auspicabile in pratica si dovrebbe mettere in discussione l’iper-specializzazione accademica – la quale ostacola la formazione e circolazione di un sapere critico multidisciplinare –, nonché sfidare l’idea dominante dell’algoritmo come asset commerciale, proprietà intellettuale dalla formulazione inaccessibile e dalle conseguenze imprevedibili (Pasquale, 2015; Airoldi, 2018). Un maggiore controllo decentralizzato sui codici con cui interagiamo quotidianamente rappresenterebbe, crediamo, un antidoto pratico e potenzialmente efficace al proliferare dei miti del calcolo e della neutralità algoritmica.

La nostra speranza è che emerga un controdiscorso capace di re-immaginare il ruolo degli algoritmi nella società senza scivolare nelle fallacie epistemologiche del «datismo» (Priori, 2018) o nella retorica caricaturale dei «tecnici dell’Apocalisse» (Eco, 2017).

Perché ciò accada, è utile guardare all’Ape e all’Architetto (Ciccotti et al., 1976), così come al laboratorio di Latour e Woolgar (1986) e ai filoni di ricerca che ne sono scaturiti (e.g. MacKenzie & Wajcman, 1999). Questo non per rassegnarsi all’impossibilità di produrre una qualsivoglia forma di sapere scientifico sul mondo, ma per guardare all’utopia della neutralità algoritmica come a un equilibrio instabile, contestuale e partecipativo, piuttosto che come a un dogma discorsivo volto a disinnescare la critica prima ancora che essa abbia luogo.

La newsletter di cheFare

Le attività e gli articoli di cheFare nella tua mail

Ti piace cheFare?

Seguici su Facebook!

Questo articolo appartiene a:

Percorsi > Cultura Digitale

Potrebbero interessarti anche questi articoli

Hate speech, segnalando l’odio su Facebook: il caso Liliana Segre

18 Novembre 2019

Il puzzle etico per fidarsi dell’intelligenza artificiale

19 Settembre 2019
algoritmi

Breve storia di come il capitalismo ci ha insegnato a fidarci ciecamente degli algoritmi