Dobbiamo salvare i moderatori dai contenuti online: una proposta di ‘moderazione territoriale’
Nascondere il male, senza poter fare nulla per eliminarlo: questa è la vita quotidiana di un moderatore di contenuti sui social media, un lavoro sempre più richiesto eppure quasi sconosciuto ai più. Pagati poco, senza particolari competenze, costretti a turni di lavoro massacranti e a visionare nell’arco di una stessa giornata innumerevoli video di violenze, torture, stupri, e quant’altro sia possibile rappresentare in un video o un’immagine, i moderatori di contenuti rivestono oggi un ruolo determinante nell’ecosistema dell’informazione.
In quanto testimoni, vittime, controllori dell’informazione che circola sui social media, non possono più agire in un contesto deregolamentato.
Che cosa sappiamo dei moderatori di contenuti
L’ultima inchiesta sui moderatori di contenuti, pubblicata dal sito web di informazione The Verge nelle scorse settimane, ha raccolto le testimonianze di tre moderatori a Tampa, in Florida, dopo la morte di uno dei loro colleghi in seguito a un attacco cardiaco sul luogo di lavoro. La filiale di Tampa non aveva neppure un defibrillatore in sede.
Quelli di Tampa sono solo un piccolo numero degli oltre 15.000 moderatori di contenuti che si stima lavorino per Facebook in tutto il mondo, per lo più assunti da aziende specializzate ingaggiate con contratti multimilionari. I moderatori, invece, in cambio di 15 dollari all’ora in media devono valutare dai 100 ai 200 post ogni giorno, inclusi video di sevizie sugli animali, violenze, assassini, stupri bestiali.
Quello del moderatore di contenuti è probabilmente uno dei lavori a più alto tasso di turn-over e rischio di burnout che esista al mondo. Pochi resistono più di qualche mese, prima di essere licenziati in seguito a “performance” deludenti o licenziarsi da soli per incapacità di osservare il “male del mondo” senza poter fare nulla di più che nasconderlo dalla superficie visibile dei social media.
Eppure, mai come oggi il lavoro – alienante, sofferente, umiliante – dei moderatori di contenuti è essenziale per la sopravvivenza dei colossi del web: è grazie al loro sacrificio se Facebook ci appare ancora oggi come un passatempo più desiderabile e riposante di tante altre piattaforme di aggregazione e informazione. Perché solo una minima parte di ciò che viene pubblicato dai nostri “amici”, o dagli “amici degli amici” diventa visibile nel nostro “newsfeed”.
Che cosa non sappiamo
È importante notare, tuttavia, come il problema della moderazione dei contenuti online non riguardi solo le detestabili condizioni di lavoro o la salute mentale dei moderatori stessi. Per quanto possa essere difficile dimenticare di aver visto certi filmati, i moderatori hanno sempre una via di fuga: licenziarsi, o non presentarsi al lavoro il giorno dopo. La stessa possibilità non viene offerta agli utenti di Facebook.
Non è una novità il fatto che oggi la maggioranza della popolazione si informi attraverso i social media su quello che succede nel mondo. Niente come un social media consente di selezionare le proprie fonti, siano essi giornali o “amici”, ed eliminare ciò che non ci interessa o che non vorremmo vedere. Il problema, tuttavia, è che l’echo chamber che ognuno di noi si costruisce potrebbe essere solo una minima parte della “echo chamber” collettiva dei social.
Quanto di quello che vediamo attraverso i social rappresenta la totalità che potremmo vedere se non ci fossero moderatori umani a nasconderlo prima che diventi “virale”? Se ci capita di assistere a un’aggressione dalla nostra finestra di casa o guardare un video di stupri che un nostro contatto ha diffuso su Whatsapp abbiamo l’obbligo morale di chiamare la polizia. Per i moderatori di contenuti questo obbligo morale è subordinato al dovere professionale di ridurre al minimo i possibili disagi per gli utenti.
Fino a che punto questa fedeltà al dovere professionale possa essere incondizionata lo abbiamo scoperto nel luglio 2016, quando il video in diretta Facebook dell’uccisione di un ragazzo afroamericano da parte della polizia è stato rimosso da un anonimo moderatore di contenuti, prima di essere ripubblicato sulla piattaforma per decisione diretta di Zuckerberg. Quanti altri video, di contenuto analogo, sono stati “nascosti” prima che diventassero notizia? Non è un dato disponibile, al momento.
Una modesta proposta
Per quanto possa essere urgente migliorare al più presto le condizioni di lavoro e gli stipendi di chi modera i contenuti online, forse potrebbe essere altrettanto urgente interrogarsi sul ruolo che questi ultimi hanno nel compromettere la possibilità di “eliminare il male”, o perlomeno individuarne i colpevoli, da parte dell’intera società. Su Whatsapp, dove non risulta essere attivo un analogo servizio di moderazione in virtù della natura “chiusa” delle comunicazioni, la persistenza dei contenuti ha consentito in alcuni casi di risalire ai colpevoli delle violenze (si veda l’ultima inchiesta sulla pedopornografia, o la triste vicenda di cronaca nera di Manduria).
Fino a che punto siamo disposti a scambiare la nostra tranquillità mentale con il diritto a essere informati? Come sta purtroppo avvenendo per le fake news o l’hate speech, il rischio è quello di pensare che “il male” sia la conseguenza di un “difetto di fabbricazione” dei social e che quindi basti nascondere o limitare la portata delle fake news, dei messaggi d’odio, dei video in diretta dei massacri per vivere in un mondo migliore… Quello virtuale, dove potremmo passare senza accorgercene la maggior parte della nostra vita.
Nel momento in cui i social diventano uno strumento di informazione sempre più rilevante, i moderatori smettono di essere semplici “spazzini” del web per diventare giornalisti, testimoni, vittime del “male” del mondo. In questo contesto, un piccolo passo in avanti dal punto di vista della tutela dei moderatori e al tempo stesso della tutela del nostro diritto a essere informati potrebbe essere quello di costringere i social media a ingaggiare moderatori locali: non solo per ogni Paese, ma anche per ogni regione, provincia o comune (nei casi delle metropoli) in cui i contenuti vengono prodotti.
L’obbligo di “territorialità” dei moderatori di contenuti avrebbe come effetto quello di mettere questi ultimi in una condizione migliore per capire il significato dei contenuti stessi, grazie alla conoscenza diretta della lingua, dei luoghi, del contesto in cui gli eventi si svolgono o si sono svolti (se sul video di un assassinio non possono esserci ambiguità, su un video di bullismo la distanza fisica e culturale del moderatore può giocare un ruolo rilevante nella mancata comprensione dei fatti). Questo potrebbe facilitare la collaborazione in tempo reale con le forze di polizia e l’autorità giudiziaria locale, contribuendo in alcuni casi alla rapidità delle indagini e all’arresto dei colpevoli in tempo quasi “reale”. Anche, o soprattutto, se si dovesse trattare “solo” di un fenomeno di bullismo tra adolescenti o di maltrattamenti degli animali in un macello.
Infine, ma questo è tutto da dimostrare, la prossimità fisica con gli autori e i luoghi dove avviene “il male” potrebbe incentivare gli stessi moderatori a una maggiore responsabilizzazione circa il significato del proprio lavoro e il valore effettivo di quest’ultimo: è più difficile limitarsi a “nascondere” il “male”, senza avvisare di persona le autorità o fare tutto ciò che è in proprio potere per rendere la notizia di dominio pubblico, se temi che la stessa cosa potrebbe capitare a te o alla tua famiglia perché il video che hai visto è stato girato a pochi chilometri di distanza da casa tua. Forse, neppure 150 dollari all’ora potrebbero essere un compenso adeguato per limitarsi a guardare, nascondere e passare al prossimo video.
Immagine da Unsplash