L’immortalità dei dati digitali

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


    Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

    image_pdfimage_print

    Un settore molto affascinante è quello che studia la possibilità di rendere immortali i dati che si riferiscono alla conoscenza, alla cultura e al patrimonio informativo della società e dell’umanità. Come cercare, in sintesi, di preservare la storia. Di far sì che nel 2500, nel 3000 e anche oltre si possano leggere e interpretare i miliardi di dati digitali che ogni giorno generiamo.

    Non si tratta di un’idea nuova: c’è sempre stato l’interesse, per una civiltà, di tramandare nel futuro più informazioni possibili. Ci sono stati, nel corso della storia, momenti di frattura in un percorso simile: biblioteche distrutte, informazioni censurate o cancellate volontariamente.

    dati digitali

    Pubblichiamo un estratto da Il libro digitale dei morti (UTET)

    Ma alcuni scritti, al contrario, sono arrivati sino a oggi dopo quasi tremila anni di vita. Riuscirà a farlo, si domandano in molti, anche il dato digitalizzato, soprattutto se nella società senza carta – la paperless society – rimarrà l’unico tipo di dato a circolare e, soprattutto, a essere conservato?

    In teoria, il dato digitale renderebbe tutto più semplice: l’umanità si trova in mano una tecnologia che permette di memo- rizzare quantitativi incredibili di informazioni, sistemi cloud e di memorizzazione che garantiscono la ridondanza dei dati, ossia la possibilità anche di resistere a incidenti e cause naturali, e i più rapidi mezzi di diffusione della conoscenza e di veicolazione del pensiero della storia.

    Nella pratica, però, l’aspetto tecnologico è molto più complesso. Una vera e propria disciplina scientifica, denominata digital preservation, cerca di analizzare da anni il modo migliore per far sì che i dati digitali possano attraversare i secoli superando proprio i limiti stessi della tecnologia e rimanendo, così, immortali.

    L’aspetto più interessante, sostengono gli studiosi, è che i pericoli di estinzione di queste informazioni non provengono dall’esterno ma dall’interno: dallo stesso mondo digitale.

    Il primo problema da risolvere riguarda la cosiddetta sostenibilità non solo dei dati ma anche dei software che li gestiscono sul lungo periodo, per dare loro immortalità e per preservare in eterno i contenuti digitali.

    Per raggiungere un obiettivo così ambizioso, occorrono dei software che sappiano interpretare i dati del passato e che generino dati che siano pronti per essere compresi nel futuro, uniti a programmi per processarli al meglio (per esempio: convertirli) e, infine, strumenti idonei per poter continuare a utilizzarli senza interruzioni in questa catena digitale di trasmissione della conoscenza.

    Purtroppo non è così semplice perpetuare la funzionalità del software al di là del suo normale ciclo di vita. In molti si domandano se possa essere un costo sostenibile, per i produttori di software, oppure no, e, in quest’ultimo caso, il destino sarebbe che dei dati si perdano involontariamente per strada.

    I più tecnici sostengono che, da un punto di vista informatico, potrebbero venire in aiuto la virtualizzazione e l’emulazione, due opzioni tecnologiche che consentirebbero, sul lungo periodo, di avere sempre accesso ai dati.

    Si tratta, semplificando molto, di creare degli ambienti all’interno dei sistemi che si stanno usando (e, quindi, si presume, i più moderni che ci siano) per fare girare programmi o ambienti obsoleti, come se fossero computer dentro computer o sistemi operativi dentro sistemi operativi, oppure di utilizzare dei software, denominati emulatori, che possono, appunto, emulare un computer (sia nella parte hardware sia in quella software), un ambiente o un software e permettere di far rivivere vecchi programmi pensati, ai tempi, per quell’ambiente.

    L’informatica, si è visto, è certamente idonea a creare un’eredità. Questa eredità non è solo composta dai singoli dati personali dei vari utenti, come si è detto sinora, ma anche da un insieme di software e dati, pubblici o privati che siano, che o potrebbero scomparire, o rischiano di non essere più leggibili.

    All’interno di queste categorie vi sono, poi, dati che rischiano di morire per ragioni legali (per esempio perché contrattualmente, o per legge, è vietato diffonderli liberamente o riutilizzarli).

    Non è semplice, in conclusione individuare quali debbano essere le condizioni necessarie e sufficienti per preservare sul lungo periodo le informazioni, e quali siano le modalità migliori per minimizzare il rischio della perdita delle informazioni storiche, della letteratura e delle notizie in generale.

    È aumentata, da un punto di vista tecnico, la capacità che la società ha di memorizzare informazioni (quindi non vi è pericolo, oggi, che alcune informazioni siano dimenticate, a meno che non sia il sistema informatico, o il motore di ricerca, a escluderle dal processo di memorizzazione), ma è diminuita la durata sica dei sistemi di storage, ossia dei supporti e delle tecniche in senso lato che ci permettono di conservare le informazioni.

    Tra il processo di obsolescenza dei prodotti, i problemi nella gestione dei formati degli archivi, dei file e dei device che li dovrebbero leggere e una tecnologia che tende spesso ad accelerare ma è poco attenta a ciò che si lascia alle spalle, il rischio è concreto.

    Le speranze per l’immortalità dei dati, oggi, si basano su due aspetti: il primo è che gli standard che si usano, e i provider che forniscono servizi, durino per sempre. Il secondo è che siano le istituzioni pubbliche a prendersi carico di effettuare queste migrazioni e queste preservazioni, per esempio le grandi librerie, o gli archivi, nonostante il periodo storico sia, in molti casi, caratterizzato da un taglio di risorse e da un calo sensibile di investimenti in tal senso.

    Purtroppo, le tecnologie necessitano di una grande attenzione da parte dell’uomo, per cui questa catena digitale deve essere gestita con cura dagli stessi responsabili, oggi, della gestione delle informazioni.

    La rivista “Wired”, qualche anno fa, ha narrato l’impresa di recupero del codice sorgente del videogioco Prince of Persia per Apple II, descrivendo in maniera magistrale i temi connessi al recupero delle informazioni.

    I problemi sorsero quando Jordan Mechner, programmatore, si trovò nell’esigenza di recuperare il codice sorgente, risalente al 1985, di un videogioco che aveva programmato, Prince of Persia, e che aveva avuto un gran successo.

    La Sony aveva intenzione di inserire nelle nuove versioni del gioco del 2002 una funzione che avrebbe permesso anche di giocare alla versione originale. Mechner iniziò a cercare disperatamente il codice sorgente che aveva, allora, programmato e lo trovò dieci anni dopo, alla fine, in una vecchia scatola da scarpe piena di floppy disk che il padre gli aveva casualmente spedito svuotando un armadio.

    Da lì iniziò una procedura di salvataggio molto articolata per cercare di recuperare, dall’unico dischetto esistente, il codice sorgente di uno dei più importanti videogiochi della storia. Si riunirono a casa di Mechner dei geek e dei collezionisti di vecchi computer con attrezzature ad hoc e vecchi computer, e l’operazione riuscì.

    Si dovette ricreare nel 2012 un contesto informatico, con computer, lettori floppy, software, del 1989. Per poi salvare il codice e diffonderlo in rete al fine di preservarlo usando, al contempo, strumenti moderni che consentono di leggere dati vintage (per esempio il KryoFlux Disk Reader che fornì un archivista dell’Internet Archive e che permetteva di fare immagini di vecchi dischi magnetici).

    Il computer e le tecnologie 3D, unite a centinaia di telefonini e macchine fotografiche che scattano fotografie ai siti storici, possono aiutare a mantenere immortali monumenti che sono oggetto di furia iconoclasta (per esempio da parte dell’ISIS) o che rischiano, per motivi di manutenzione o di fragilità del sito, di andare perduti.

    Alla fine del 2015, per esempio, è stato annunciato che l’arco del tempio di Bel a Palmira, in Siria, scampato alle distruzioni degli jihadisti, risorgerà a Trafalgar Square, con una copia esatta del monumento (che risale a duemila anni fa) ricostruita con la più grande stampante 3D al mondo.

    Si tratta di un progetto internazionale che riunisce archeologi di varie università e stati, e si presenta come un’iniziativa che porta con sé un messaggio: anche se i monumenti verranno distrutti, ci sarà sempre la possibilità di ricostruirli.

    Alla base di questa idea ci sono gli studiosi dell’IDA (Institute for Digital Archaeology), che si stanno impegnando per mappare al computer tutti i monumenti e le antichità che sono in pericolo in Siria e in Iraq usando centinaia di fotocamere 3D a basso costo e arruolando volontari locali.

    Più alto sarà il numero dei siti e dei reperti che si riusciranno a fotografare, più alto sarà il numero di monumenti che si potranno ricostruire o catalogare qualunque cosa succeda.

    L’esperimento inizia, di solito, con un rilievo tridimensionale delle rovine, operazione che è stata suggerita, per esempio, anche per le rovine di Pompei e per tutti i siti che potrebbero subire danni o eventi naturali distruttivi. Accanto, ovviamente, ai processi di restauro tradizionali che, però, sono molto lunghi e dipendono dalle condizioni in cui vengono lasciati i siti stessi.

    Anche la realtà virtuale, su questo punto, si potrebbe rivelare uno strumento prezioso per far rivivere momenti della storia, monumenti e accadimenti che potranno, così, essere percepiti in un nuovo modo.

    Un progetto recente, in un museo di Washington, ha ricreato per esempio l’evento di Pearl Harbor, che potrà essere appreso non più leggendo un libro o guardando un film ma dal centro dell’azione.

    Grazie alla realtà virtuale, l’attacco del 1941 (e i giorni prima e dopo) si potranno rivivere sul ponte di una portaerei della flotta che fu attaccata – e affondare con lei – o nell’abitazione di un cittadino americano che ascolta il discorso del presidente Roosevelt quando annunciò l’attacco.

    Degli occhiali per la realtà virtuale, e un sofisticato sistema software, permetteranno di essere lì. Al progetto “Remembering Pearl Harbor” del Newseum di Washington ne seguiranno altri (una replica di Berlino Est negli anni della caduta del muro, con la possibilità di girare tra torrette e posti di guardia e tunnel sotterranei per la fuga verso Berlino Ovest, e una ricostruzione dei sit-in per i diritti civili negli anni sessanta e settanta), con il fine di trasformare l’idea di educazione storica unendola al divertimento nell’apprendimento.

    Il lavoro più complesso è stato quello di ricreare digitalmente un mondo di oggetti di quell’epoca che si possono esplorare come se si vivesse in quei giorni e che danno l’idea della quotidianità. Si rende vivo di nuovo un momento storico, e lo si fa in una maniera accessibile a tutti.

    Un progetto molto interessante, nato negli anni novanta del secolo scorso, si pose l’ambizioso proposito di mantenere memoria di tutto il web. Si chiama Internet Archive, e mira a recuperare informazioni da più siti web possibili e a custodire nel suo archivio anche le varie versioni di uno stesso sito come si sono succedute nel corso del tempo.

    Questa iniziativa si lega saldamente al passato e all’archeologia della rete (ha molto appassionato, per esempio, gli archivisti e gli storici) ma, al contempo, si preoccupa di rendere disponibili dei contenuti nel presente e nel futuro.

    Si noti che si tratta di un servizio che può essere, nella pratica, molto utile non solo come fonte informativa ma anche nel momento in cui, per esempio, si debbano recuperare pagine o informazioni di testo da siti web che, ora, non ci sono più. Si pensi alla necessità di produrre in giudizio una schermata di un sito di diversi anni prima che attesti un determinato fatto.

    Lo studioso Richard Rogers, nel suo libro Metodi digitali, affronta anche il tema della navigazione nel web del passato e delle Wayback machines, ossia le interfacce a questi sistemi di archivi, e nota quando segue:

    L’affermazione dei motori di ricerca basati su algoritmi ha causato il declino di una serie di attività, come appunto la raccolta su larga scala, la selezione manuale e la classificazione dei siti […] Considerati gli elementi che vengono privilegiati in questo processo, l’archiviazione del web preserva i vecchi media, se è ancora lecito usare questo termine. Viene archiviato infatti il contenuto, privato però di molti altri elementi: di solito per salvare il contenuto, gli archivisti devono per così dire distruggere la maggior parte del sito. In effetti esso viene archiviato senza le annotazioni e le glosse che sono scritte al suo interno, e anche i banner pubblicitari […] normalmente non possono essere salvati.

    Un simile, enorme archivio, nato nel 1996 dai nobili presupposti citati poco sopra e dotato di un’interfaccia più friendly dal 2001, permette anche di poter percepire la “storia del web”, andando a ritroso nel passato e consentendo allo studioso o al semplice curioso di concentrarsi anche sulla biografia di un singolo sito web.

    Note