Almanacco > Inediti
27 Agosto 2019

Breve storia di come il capitalismo ci ha insegnato a fidarci ciecamente degli algoritmi

Scarica l'inedito in PDF!

Per scaricare l’articolo in pdf bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.

Se inserisci il tuo indirizzo mail riceverai la nostra newsletter. Questa è la nostra informativa privacy

[recaptcha size:compact]

Pubblichiamo su cheFare il saggio di Massimo Airoldi e Daniele Gambetta, Sul mito della neutralità algoritmica pubblicato su The Lab’s Quarterly. Oggi la seconda parte, qui la prima.


Nel diciassettesimo secolo il filosofo e matematico Gottfried Leibniz, ancora giovane, sperava di poter escogitare «una certa scrittura universale, mediante la quale possiamo eseguire calcoli su ogni genere di argomenti e trovare dimostrazioni come nell’algebra e nell’aritmetica». Il suo tentativo, quindi, era quello di elaborare un modello logico capace di risolvere ogni dibattito in un mero calcolo, capace di fornire risposte precise e inconfutabili.

Nel suo Dissertatio De Arte Combinatoria del 1666, il matematico si interroga sulla cosiddetta «arte delle combinazioni», un metodo che consentirebbe di generare idee e invenzioni inedite, oltre che scomporre e analizzare idee complesse in elementi più semplici. Descritta come «la madre di tutte le invenzioni», questa scienza, secondo Leibniz, avrebbe portato progressi in ambiti più disparati della conoscenza, dalla musica alla medicina, dalla fisica alla politica. Ispirato dal lavoro di Pascal, Leibniz realizza inoltre nel 1671 la Stepped Reckoner (calcolatrice a scatti), un dispositivo meccanico capace di eseguire le quattro operazioni aritmetiche.

Oltre a contribuire allo sviluppo del calcolo integrale e differenziale, Leibniz ha anticipato l’arrivo di un immaginario computazionale. Il mito del calcolo di Leibniz consisteva nell’utopia di un linguaggio del pensiero composto da concetti «puri» che, come gli elementi semplici dell’aritmetica, potessero essere utilizzati in metodi formali, portando alla meccanizzazione e automazione della ragione stessa. Esso fu ispirato da molte linee di pensiero e da diversi autori – dalle opere di Aristotele al tentativo di Thomas Hobbes di equiparare ragionamento e calcolo, oltre che dal lavoro di Raimondo Lullo, che nella sua Ars Magna del 1308 proponeva forme argomentative basate su permutazioni di attributi logici fondamentali, e di cui Leibniz venne a conoscenza grazie al gruppo Herborn Encyclopaedists.

Le idee di Leibniz saranno poi a loro volta determinanti nel guidare gli sforzi dell’inglese Charles Babbage, considerato uno dei «bisnonni» del moderno computer (Campbell-Lelly et al., 2013). Nel 1823 il progetto del suo Difference Engine ricevette copiosi finanziamenti da parte del governo britannico, ingolosito dalla promessa di migliorare i commerci via mare eliminando in automatico gli errori presenti nelle tavole logaritmiche di navigazione, grazie alla «unerring certainty of mechanism» (Ivi, 7).

Il mito del calcolo già allora solleticava le mire espansionistiche di un capitalismo ansioso di trasformare l’incertezza in rischio calcolabile. Non a caso, a inizio Novecento Max Weber individuava nella spinta verso la razionalizzazione la caratteristica chiave di una modernità ossessionata dal sogno di applicare il calcolo matematico a «qualsiasi cosa» (Weber, 1946, 139).

Anche nella narrativa la percezione di una datificazione o matematizzazione dell’umano e del sociale è riscontrabile da tempo immemore. Nel 1726, ne I viaggi di Gulliver, Johnatan Swift immagina che nella città di Lagado il protagonista incontri un dispositivo noto come «il motore», capace di «scrivere libri di filosofia, poesia, politica, leggi, matematica e teologia, senza la minima assistenza del genio o dello studio».

L’intento è provocatorio, la sua è una caricatura di un metodo di sperimentazione produttiva che avrebbe trovato anche tentativi concreti di applicazione – pensiamo agli esperimenti poetici generativi del gruppo letterario francese Oulipo nonché, ovviamente, a casi più recenti di scrittura collettiva e digitale. Nel saggio Cibernetica e fantasmi, Italo Calvino riconosceva che

nel modo in cui la cultura d’oggi vede il mondo, c’è una tendenza che affiora contemporaneamente da varie parti: […]il pensiero, che fino a ieri ci appariva come qualcosa di fluido, evocava in noi immagini lineari come un fiume che scorre o un filo che si dipana […], oggi tendiamo a vederlo come una serie di stati discontinui, di combinazioni di impulsi su un numero finito di organi sensori e di controllo (1980, 209)

Nel testo si riscontra quindi da parte dell’autore sia un passaggio dall’umano all’ibrido-macchina che, più simbolicamente, una transizione dal continuo al discreto. La fusione dell’umano con il macchinico, e di conseguenza i timori e i dubbi rispetto la personalizzazione e l’umanizzazione del cyborg, sono temi che non a caso la letteratura – in particolare fantascientifica – ha affrontato in numerose direzioni nell’ultimo mezzo secolo.

Al tempo stesso, con la messa a punto di metodi scientifici sempre più sofisticati, affini alle cosiddette scienze dure, nei vari campi del sapere si è fatta strada la convinzione che la matematizzazione dei processi fosse un mezzo – talvolta necessario – per dare rispettabilità ad una teoria. Per usare le parole del teorico dei media Tarleton Gillespie: «conclusions described as having been generated by an algorithm wear a powerful legitimacy, much the way statistical data bolsters scientific claims» (Gillespie, 2016, 23-24).

Non c’è da stupirsi dunque se, con il rapido sviluppo dei computer, la capillare diffusione del digitale e la convergenza del dibattito pubblico sul tema dei big data, il mito del calcolo abbia trovato una ghiotta occasione per ripresentarsi. Nel giugno 2008 su Wired venne pubblicato il noto The End of Theory di Chris Anderson. L’autore proclamava l’inizio dell’ «Era dei Petabyte», durante la quale il metodo scientifico sarebbe divenuto obsoleto grazie all’analisi di grandi moli di dati, e quindi l’elaborazione di modelli teorici non avrebbe avuto più alcuna ragion d’essere. Dall’articolo emerge una fiducia cieca verso algoritmi e correlazioni statistiche, non solo in termini di efficienza e velocità, ma anche di neutralità ed efficacia decisionale. Come ricorda Eleonora Priori nel suo contributo al volume Datacrazia:

Alla base delle convinzioni di Anderson, che da un positivismo scientifico già sorpassato scivolano pericolosamente verso un incondizionato fideismo tecnologico (che ha poi finito per prendere il nome di datismo), vi è l’idea che, nell’era del petabyte, la nozione di correlazione sostituisca quella di causalità, consentendo alla scienza di progredire senza la necessità di confrontarsi con modelli coerenti, teorie unificanti o spiegazioni meccanicistiche (2018, 126)

Delegando alla macchina decisioni in tempo reale, le domande al centro dello sguardo scientifico sul mondo – come? perchè? – vengono sostituite dal laconico «basta che funzioni» proprio del pragmatismo ingegneristico. Gli ultimi dieci anni di storia hanno visto affermarsi senza grossi intoppi e su scala globale la dottrina del laissez faire made in Silicon Valley e, con essa, il discorso dominante sulla (presunta) neutralità di algoritmi e piattaforme (Pasquale, 2016).

La newsletter di cheFare

Le attività e gli articoli di cheFare nella tua mail

Ti piace cheFare?

Seguici su Facebook!

Questo articolo appartiene a:

Percorsi > Cultura Digitale

Potrebbero interessarti anche questi articoli

L’ape, l’architetto e il laboratorio: una storia sulla non-neutralità della scienza

3 Settembre 2019

Oltre il mito: casi di non-neutralità algoritmica

algoritmo, discorso

Sul mito della neutralità algoritmica: l’algoritmo come discorso