Le Ai verso il monopolio?

Scarica come pdf

Scarica l'articolo in PDF.

Per scaricare l’articolo in PDF bisogna essere iscritti alla newsletter di cheFare, completando il campo qui sotto l’iscrizione è automatica.

Inserisci i dati richiesti anche se sei già iscritto e usa un indirizzo email corretto e funzionante: ti manderemo una mail con il link per scaricare il PDF.


    Se inserisci il tuo indirizzo mail riceverai la nostra newsletter.

    image_pdfimage_print

    “La nostra nazione, i nostri usi e costumi, leggi, ambizioni e la nostra idea di buono e di giusto: tutto questo non l’abbiamo fatto noi, l’abbiamo trovato bell’e pronto. Ci limitiamo a citare. Cosa mi resterebbe se l’arte del furto fosse denigratoria per un genio? Ogni mio singolo scritto mi è stato messo a disposizione da migliaia di persone diverse, da migliaia di cose diverse: i savi e gli sciocchi mi hanno portato in offerta, senza sospettarlo, i loro pensieri, le loro facoltà e la loro esperienza. La mia opera è una summa di furti a quel tutto che è la natura. Porta il nome di Goethe”
    Goethe

    È da tempo che i software text-to-image – le celebri intelligenze artificiali che intelligenti non sono – sollevano perplessità ed entusiasmi nel mondo della grafica, dell’illustrazione, del design e del fumetto. La paura accompagna spesso la nascita di una nuova tecnologia e in questo caso oscilla con qualche contraddizione tra “le Ai ci ruberanno il lavoro!” e “con le AI non si può fare nulla di buono!” – ma ci sono accuse più coerenti, come quelle di chi sostiene che questi strumenti sono stati costruiti anche a partire da immagini protette dal copyright e che di conseguenza ledono la proprietà intellettuale di chi le ha create.

    Non è un’accusa infondata: si tratta di tecnologie che possono essere sviluppate solo con moli enormi di dati, per cui per farle è plausibile (e in certi casi certo) che sia stato usato anche del materiale protetto, che, per essere precisi, una volta creato l’algoritmo non ne fa più parte. Controllare questi dataset non è semplicissimo, o meglio, è facile solo nel caso dell’unica azienda open source del settore, Stable Diffusion, che fornisce un accesso al suo database e che ultimamente si stava muovendo un po’ goffamente nella direzione di far eliminare da esso il materiale di autori non consenzienti. Altre aziende come Midjourney e OpenAi non forniscono accesso al database e l’uso di materiale protetto può essere solo supposto per via indiziaria, come ad esempio per l’apparire di pseudo-loghi, firme e watermark sospetti nelle immagini prodotte. Un problema la cui assenza può significare sia che non siano state utilizzate immagini protette che la presenza di filtri che impediscono errori rivelatori. A questo si aggiunga che anche le AI che lavorano col testo come ChatGPT, al momento ignorate da artisti e avvocati, hanno usato quantità immense di dati per essere costruite. È lecito immaginare che ci fosse anche materiale protetto, come libri, conversazioni tratte dai social network, articoli di giornale eccetera – ma è ancora più difficile controllare.

    Alcune persone sostengono che l’uso dei dati e delle immagini da parte di queste aziende rientri nel concetto di “fair use” per il diritto di autore. Per onestà intellettuale confesso che propendo anch’io per questa ipotesi; non tanto dal punto di vista legale (non sono un giurista), ma perché sono estremamente critico nei confronti dell’attuale legge del diritto d’autore, che non credo vada a favore degli artisti ma delle grandi corporazioni, come ci insegna il celebre caso del “Mickey Mouse Protection Act”. Lo pensavo prima e lo penso a maggior ragione adesso che queste leggi già ridicolmente severe rischiano di diventarlo ancora di più: il copyright così com’è strutturato è gravemente fallato e non avvantaggia gli artisti. Ma se si mette da parte il mio sfogo per tornare alla questione intelligenze artificiali, si noterà che ci sono varie ragioni per cui anche chi non è ostile come me verso l’attuale normativa potrebbe trovarlo un caso di fair use. Anzitutto per motivi quantitativi: come dicevo i dataset sono composti da miliardi di immagini e sebbene gli umani abbiano difficoltà psicologiche nel gestire i grandi numeri, la quantità influenza la qualità. L’apporto dei singoli all’interno del database infatti è del tutto irrisorio per il risultato complessivo. Il software non è un enorme collage di miliardi di immagini – che già potrebbe essere fair – ma un oggetto del tutto nuovo che nasce anche grazie ad esse. È quel che si definisce un uso trasformativo del materiale di partenza: c’è una bella differenza tra un programma per creare immagini e un’immagine, più o meno la differenza che c’è tra Photoshop e una fotografia. È inoltre trasformativo anche nel risultato: l’idea di alcune persone che questi programmi facciano una sorta di copia e incolla di immagini provenienti dal loro database infatti è tecnicamente errataLe immagini ottenute con le tecnologie TTI non hanno somiglianze rilevanti con quelle del database, a parte per rari errori, ultimamente in fase di studio e senza dubbio da risolvere per un uso più sicuro dello strumento, soprattutto in vista del suo potenziamento esponenziale. Accade per un meccanismo analogo ma non per errore anche con immagini iconiche presenti in abbondanza nel dataset se esplicitamente richieste dall’utente, tipo “disegna la Gioconda” – ma qui è difficile biasimare il programma, se ti disegna qualcosa di simile alla Gioconda.

    Le nuove scoperte o invenzioni hanno il potere di farci vedere con occhi nuovi cose che davamo per scontate: in questo caso l’inadeguatezza del concetto di autorialità, perché, ricordiamolo, ogni opera di ingegno è collettiva e poggia su tutte le scoperte e le invenzioni scientifiche, tecnologiche, artistiche e filosofiche dell’umanità che precede e accompagna l’autore, che altro non è che la fase finale di un processo più vasto e profondo. Nessuno è mai l’unico autore della “propria” opera e il copyright non ha alcun fondamento ontologico: è solo un accordo economico, il più delle volte imposto dall’alto. 

    A tutto questo si potrebbe rispondere, e a ragione, che anche se consideriamo quest’uso dei dati lecito, è innegabile che ci siano aziende che utilizzano un bene collettivo per creare un programma privato. È eticamente corretto? La mia opinione è che lo è solo nel caso in cui le aziende che usano un bene comune forniscono di conseguenza un bene comune, sviluppando programmi di pubblico dominio, nel codice come negli output (le creazioni). Questa strada purtroppo la batte solo Stable Diffusion, che potrebbe essere l’unica azienda a essere bloccata.

    Com’era prevedibile infatti sono partite le prime denunce contro questi programmi – o per lo meno contro Midjourney e Stable Diffusion: Open Ai, sebbene funzioni in modo analogo, non risulta tra i denunciati. La prima accusa è una class action capeggiata da tre illustratrici, la seconda una di Getty images.

    Mettiamo tra parentesi l’enorme questione se queste denunce siano legittime dal punto di vista etico e legale – è comunque plausibile che se avranno successo l’esito non sarà l’eliminazione di queste tecnologie dal mercato. Le grandi compagnie che possono permettersi di acquistare immensi stock di immagini, ad esempio, potrebbero sviluppare le loro Ai senza doversi appellare al fair use – ecco un valido motivo per Getty di entrare nella mischia – mentre sarebbero solo le più piccole a non avere una sufficiente potenza economica. Gli artisti che temono di perdere il lavoro, ammesso che il timore sia fondato, invece che fermare le temute tecnologie potrebbero favorire la nascita di monopoli, da cui oltretutto riceverebbero un magro compenso, dato che in molti casi hanno già venduto a terzi alcuni diritti di sfruttamento delle proprie immagini.

    Non è un caso, credo, che nascano già i primi software Ai di grandi aziende come Shutterstock, in partnership con OpenAi (ricordiamo, l’unica non denunciata), LG e Meta; programmi “etici”, che a detta di chi li propone non usano materiale protetto, sebbene la cosa sia difficile da verificare. Non sono un tecnico, ma già nell’esempio fatto nell’articolo appare un capitano Jean-Luc Picard col sombrero che, per quanto bruttino, solleva la domanda di come un programma possa conoscere il celebre capitano di Star Trek e riproporne le fattezze se non è stato allenato su materiale proveniente dalla celebre serie. Ma dubbi come questo non hanno valore probatorio e dato che il database con cui sono costruiti gli algoritmi è chiuso (dunque non verificabile) non lo sapremo mai. Certo, lavorare in malafede è rischioso, perché potrebbero sfuggire errori sospetti, ma se si ha a disposizione forze che, magari sfruttando i paesi poveri, permettono di limare gli errori sgradevoli, è possibile fare lo stesso anche con quelli pericolosi.

    Se chi denuncia vince, il rischio è che a chiudere sia l’unico progetto open source, che per via della sua natura più trasparente è anche il più a rischio, mentre le AI finiranno in mano ai monopoli delle big tech. Lo scenario potrebbe essere questo: Le Ai open source come Stable Diffusion diventano illegali perché per il training si deve possedere tutti i diritti del dataset. Le grandi aziende come Disney, Getty e simili, in collaborazione con altre come Adobe, Google o Meta (per restare nell’ambito delle immagini) costruiscono Ai proprietarie grazie alle tonnellate di materiale di cui detengono già i diritti, più altro che acquisiranno senza troppi problemi. Questi software, che non potranno essere meno potenti di quelli pirata che continueranno inevitabilmente a girare, saranno comunque un po’ più commerciali; ma nel ramo dell’illustrazione e della produzione di immagini la stragrande maggioranza del mercato è, per l’appunto, “commerciale”. L’impatto sul lavoro, quale che sia, sarà analogo. Il tutto avverrebbe inoltre senza alcun vantaggio per gli artisti, che con un inasprimento delle già rigide norme del diritto d’autore otterranno magri compensi per diritti che spesso hanno già ceduto e la medesima temuta concorrenza artificiale (o gli stessi nuovi strumenti, dipende da come la vivono) ma con meno varietà e prezzi più alti. C’è infine un’altra domanda da tenere in considerazione: come si comporteranno i paesi con norme meno severe sul diritto d’autore? Avranno modo di sviluppare con più facilità software molto più concorrenziali? E gli altri paesi e aziende accetteranno questo divario tecnologico?

    È difficile prevedere l’esito giudiziario di questa complessa vicenda e d’altra parte non saranno due processi a determinare il futuro di tecnologie così dirompenti. Credo però che sia importante mantenere uno sguardo attento sulle dinamiche politiche, economiche e sociali sottese a questi software. L’idea che la tecnologia sia neutra è forse da accantonare, ma non tanto in virtù della costituzione materiale degli strumenti, quanto a quella del tessuto sociale, politico, psicologico e culturale in cui questi vanno a situarsi. E se guardiamo in modo onesto alla società attuale, ci stupiremmo se ad avere la meglio sarà, come sempre, chi ha più potere economico?

     

    Immagine di copertina: Francesco D’Isa / Stable Diffusion

    Note