La maledizione del rumore, o perché l’informazione fa male alla conoscenza

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

image_pdfimage_print

Con la definitiva trasformazione dell’epidemia in pandemia il pensiero di molti è stato quello di intravvedere nel Covid-19 il cigno nero preconizzato dal filosofo e matematico di origine libanese Nassim Nicholas Taleb. In verità lo stesso Taleb ha smentito il paragone spiegando più volte le differenze che caratterizzando e distnguono il concetto di cigno nero. 

Ci è parso così utile indagare l’opera di Taleb proponendo – con la collaborazione della casa editrice Il Saggiatore – ai lettori alcuni estratti dalle sue opere che rappresentano un sostegno valido e sempre più necessario per orientarsi in un mondo che oggi ci vede reclusi dietro le nostre finestre, ma che domani ci chiama ad un’azione di necessario rinnovamento per le nostre società e per noi stessi. (Qui tutti i libri di Taleb che da oggi fino al 30 aprile saranno disponibili su tutte le piattaforme online in ebook a 2,99 euro)

Parliamo di uno degli effetti principali dell’informazione: l’ostacolo alla conoscenza.

Aristotele Onassis, forse il primo capitano d’industria mediatizzato, era noto soprattutto per la sua ricchezza e per il gusto con cui la esibiva. Profugo greco nella Turchia meridionale, si trasferì in Argentina, fece un sacco di soldi importando tabacco turco e poi divenne un magnate del settore marittimo.  Fu molto criticato quando sposò Jacqueline Kennedy, vedova del presidente americano John F. Kennedy, matrimonio che portò la disperata cantante lirica Maria Callas a rinchiudersi in un appartamento parigino in attesa della morte.

Se si studia la vita di Onassis, attività che ha impegnato parte della mia gioventù, si nota un’irregolarità interessante: il «lavoro», nella comune accezione del termine, non faceva per lui. Non si preoccupava neanche di avere una scrivania, figuriamoci un ufficio. Oltre a stipulare accordi, per i quali non serve un ufficio, dirigeva un impero marittimo, il che invece richiede un monitoraggio quotidiano. Eppure il suo principale strumento era un taccuino che conteneva tutte le informazioni di cui aveva bisogno.

Andiamo oltre l’aneddoto. In questa vicenda ci potrebbe essere un effetto del tipo «giocati dal caso», ossia si potrebbe individuare un collegamento causale tra il successo di Onassis e il suo modus operandi. Potrei non sapere mai se Onassis era abile o fortunato, anche se sono convinto che il suo charme gli aprisse molte porte, ma posso sottoporre il suo modus operandi a un esame rigoroso osservando le ricerche empiriche effettuate sul legame tra informazione e comprensione. L’affermazione secondo la quale la conoscenza dei minimi dettagli del lavoro quotidiano può essere inutile, se non dannosa, è verificabile in modo indiretto ma efficace.

Mostrate a due gruppi di persone un’immagine di un idrante talmente confusa da rendere impossibile il riconoscimento. Al primo gruppo aumentate lentamente la risoluzione in dieci passaggi; al secondo fatelo più velocemente, in cinque passaggi.

Fermatevi in un punto in cui a entrambi i gruppi è stata presentata la stessa immagine e chiedete a ognuno di loro di identificare l’oggetto. Probabilmente i membri del gruppo che ha visto meno passaggi intermedi riconoscerà l’idrante più velocemente.

Qual è la morale? Più informazioni si danno, più le persone che le ricevono formulano ipotesi lungo il percorso e peggiori risultati ottengono. Vedono più rumore casuale e lo scambiano per informazione.

Se sviluppate le vostre opinioni partendo da prove deboli, avrete difficoltà a interpretare eventuali informazioni successive

Il problema è che le nostre idee sono viscose: una volta che produciamo una teoria cambiamo idea con difficoltà, quindi coloro che tardano a formulare teorie ottengono risultati migliori.

Se sviluppate le vostre opinioni partendo da prove deboli, avrete difficoltà a interpretare eventuali informazioni successive che contraddicono le opinioni che vi siete già formati, anche se fossero chiaramente più accurate.

Qui sono all’opera due meccanismi: il bias di conferma, e la persistenza della credenza, ossia la tendenza a non cambiare le proprie opinioni. Ricordate che trattiamo le idee come proprietà, quindi ci è difficile separarcene.

Ho eseguito l’esperimento dell’idrante per la prima volta negli anni sessanta e da allora l’ho ripetuto varie volte. Ho anche usato la matematica dell’informazione per studiare questo effetto: più si ottiene una conoscenza dettagliata della realtà empirica e più si vede il rumore (ossia l’aneddoto) e lo si scambia per informazione vera. Ricordatevi che siamo influenzati dal sensazionale.

Fa molto più male ascoltare le notizie alla radio a tutte le ore che leggere una rivista settimanale, perché un intervallo più lungo consente di filtrare un po’ le informazioni.

Nel 1965 Stuart Oskamp diede a un gruppo di psicologi clinici alcune schede in successione che contenevano una quantità sempre maggiore di informazioni sui pazienti. Le capacità diagnostiche degli psicologi non accrebbero con l’aumentare delle informazioni; i soggetti divennero solo più sicuri delle loro diagnosi iniziali. D’accordo, non ci si può aspettare molto dagli psicologi del 1965, ma queste scoperte sembrano valere per tutte le discipline.

Infine, in un altro esperimento significativo, lo psicologo Paul Slovic chiese ad alcuni allibratori di selezionare tra ottantotto variabili ricavate da corse del passato quelle che per loro erano utili per calcolare le quote. Le variabili consistevano in diversi tipi di informazioni statistiche sulle prestazioni passate. Agli allibratori furono fornite le dieci variabili più utili e poi fu chiesto loro di prevedere gli esiti delle corse. Poi gliene furono date altre dieci e fu chiesto loro di fare un’altra previsione. L’aumento delle informazioni non portò a un aumento della loro accuratezza; la sicurezza delle loro scelte, invece, crebbe notevolmente. Le informazioni, quindi, si dimostrarono tossiche.

Ho combattuto molto nella vita contro la credenza comune alle persone di cultura media che «più se ne ha meglio è»: avere di più a volte è meglio, ma non sempre.

Note