Il rapporto tra intelligenza artificiale (IA) e diritto d’autore ogni giorno desta più interesse e preoccupazione. E, se da un lato, è indispensabile interrogarsi sulla possibile estensione della tutela del diritto d’autore alle opere generate dall’IA, tema che è stato affrontato nell’articolo precedente, è giusto anche interrogarsi sulla possibile violazione dello stesso diritto d’autore da parte dell’intelligenza artificiale, durante il suo allenamento, detto “training” e, successivamente, nella realizzazione dei suoi output.
È il tema del cosiddetto “unfair or infringing training” dell’intelligenza artificiale generativa, ovvero l’IA che è in grado di generare testo, immagini, video, musica o altri media in risposta a delle richieste dell’utente dette “prompt”.
Negli Stati Uniti d’America, diversi procedimenti giuridici vedono attualmente convenute società titolari dell’IA generativa, con l’accusa di aver violato i diritti di molteplici autori, durante il training della stessa. Molte “class action” sono state intraprese da attori, commediografi e scrittori contro Open AI e META[1] affinché venga riconosciuta la responsabilità giuridica di queste ultime per violazione di diritto d’autore.
Per comprendere l’evoluzione di queste controversie e le future decisioni, che acquisteranno certamente lo status di precedente giuridico, è doveroso però analizzare il problema giuridico che sottende l’intera questione.
1. Il training dell’intelligenza artificiale generativa
Anzitutto, è opportuno premettere che il problema della violazione del diritto d’autore si ha soltanto con riguardo all’intelligenza artificiale generativa, ossia agli algoritmi che, su richiesta dell’utente, sono in grado di creare nuovi contenuti, siano questi testuali, sonori, fotografici o artistici.
Perché l’intelligenza artificiale possa produrre canzoni, testi o immagini, infatti, essa deve essere allenata e per poter essere allenata, l’IA deve avere la possibilità di accedere a molteplici dati e fonti: più dati acquisisce, maggiore sarà la sua efficacia.
Tuttavia, le opere, che vengono utilizzate per allenare l’IA, non sono memorizzate: essa semplicemente apprende alcuni dati contenuti nelle opere, senza riprodurre alcuna copia, se non temporanea, del loro contenuto sul suo dataset. Questo è il motivo per cui, di fatto, una volta che l’algoritmo è stato alimentato, non necessita più di tali informazioni: i meccanismi di machine learning utilizzano gli input datigli per migliorare la propria precisione e perfezionarsi e, successivamente, una volta appresi i dati, possono continuare a funzionare in loro assenza.
2. Il cuore del problema: il training dell’intelligenza artificiale viola il diritto d’autore?
Perché vi sia violazione del diritto d’autore, è necessario che l’opera venga copiata, riprodotta o pubblicata. Nel machine learning, perché i dati siano appresi e memorizzati, durante la fase iniziale, le opere devono essere cercate su Internet, estrapolate dai siti e, cioè, utilizzate. Dunque, vi potrebbe essere violazione se tali operazioni non sono state precedentemente autorizzate dai loro titolari/dagli artisti.
Di fatto, è la stessa Open AI ad aver ammesso di aver utilizzato due dataset pubblici, nei quali erano contenute anche opere protette dal diritto d’autore, per allenare Chat GPT e che il processo di machine learning da lei ideato prevede necessariamente una copia delle opere perché i loro dati siano utili all’intelligenza artificiale.
3. Autori vs big tech: I due punti di vista
Dal punto di vista degli autori, la capacità dell’IA di produrre determinati output non può che derivare da un suo previo allenamento a mezzo delle loro opere. Conseguentemente, secondo gli autori, attraverso i modelli di IA generativa, le big tech beneficiano e ottengono profitto da un uso non autorizzato di opere protette da diritto d’autore. È evidente, ad esempio, che se Chat GPT è in grado di redigere un testo nello stile di uno specifico autore, essa deve essere stata precedentemente allenata con le opere dello stesso. E se l’autore in questione non ha fornito alcuna autorizzazione alla copia e all’utilizzo della sua opera, potrebbe sussistere una violazione.
Le big tech sostengono invece che, sebbene questo possa accadere e dunque vi possa essere, a livello teorico, una violazione del diritto d’autore, ciò ricadrebbe comunque nelle eccezioni al diritto d’autore che sono riconosciute dall’ordinamento statunitense.
La prima eccezione che viene invocata è l’uso temporaneo e non commerciale dell’opera: non può essere negato, infatti, che l’opera non venga mai memorizzata, se non temporaneamente, dal sistema.
La seconda eccezione, più consolidata, è invece la cosiddetta “fair use exception”, ai sensi dell’art. 17 U.S.C.. Secondo le big tech, la loro attività consiste in un uso legittimo dell’opera in quanto la finalità dell’opera non è la medesima dell’autore, la sua natura è diversa e, infine, non è resa disponibile al pubblico ma è usata soltanto per allenare il programma. Le big tech giustificano ciò anche alla luce del precedente giuridico The Authors Guild, Inc. v. Google, Inc.
Inoltre, esse ritengono che, di fatto, il funzionamento dell’intelligenza artificiale non può essere considerato diverso da una mera interazione umana. Anche l’uomo, infatti, prende continuamente ispirazione dall’arte e da ciò che lo circonda. Ciò non significa che le nostre opere, se elaborate e frutto delle nostre idee, non siano meritevoli di tutela. Al pari, l’intelligenza artificiale trasforma e rielabora in modo così ampio ed estroso le informazioni sulle quali si basa la sua conoscenza, che non può essere considerata responsabile di alcuna violazione. Le opere degli autori sarebbero quindi semplici schemi iniziali, che vengono poi ribaltati, relazionati e mescolati tra loro dall’algoritmo.
4. I possibili risvolti della controversia
Alla luce di quanto sopra esposto, è chiaro che, nel contesto statunitense, gli autori siano in una posizione meno favorevole rispetto a quella che può essere riconosciuta alle big tech.
A differenza dell’Unione Europea, infatti, gli Stati Uniti non hanno ancora una norma che consenta agli autori di escludere le loro opere dal training delle IA generative, che siano state sviluppate per scopi diversi dalla mera ricerca scientifica. Pertanto, negli Stati Uniti, attualmente, sia il diritto che la giurisprudenza (che sappiamo avere il ruolo di guida nei sistemi di common law) favoriscono le big tech, senza alcun dubbio.
Mentre gli autori sono per lo più mossi da ideali e da un comprensibile senso di giustizia, che non trova tuttavia sostegno nel diritto, le big tech sono avvantaggiate da esso; pertanto, la decisione a favore di uno o dell’altro dipenderà esclusivamente dalla volontà giurisdizionale, e, di fatto, dalla risoluzione di quello che sembra essere più un dilemma morale che una questione di diritto sostanziale. Del resto, è così che, talvolta, evolve il diritto.
Ad oggi, ci si può soltanto interrogare sull’“ingiustizia” dell’odierno training dell’intelligenza artificiale e pensare a dei possibili trade-off tra le due parti, ipotizzando soluzioni innovative che possano portare ad un “fair training”. Ad esempio, su modello europeo, si potrebbero prevedere clausole di opt out per gli artisti così che siano loro a decidere se includere o meno anche le loro opere nell’allenamento dell’IA generativa. E si potrebbe altresì adottare un testo legislativo che disciplini ciò, come si spera accadrà molto presto nell’UE con l’emanazione dell’”AI Act”. D’altronde, il fatto che attualmente il diritto sembra propendere per le big tech non significa che tale soluzione sia moralmente giusta. Gli autori pongono la loro stessa anima, originalità e creatività nella realizzazione delle proprie opere; opere che di fatto, oggigiorno, possono essere facilmente usurpate dalle nuove tecnologie ed utilizzate come base per nuovi lavori, per cui essi non otterranno alcun riconoscimento né profitto.
Soltanto i legislatori e i giudici, se comprenderanno le preoccupazioni degli artisti e riterranno opportuno un cambiamento, potranno modificare il quadro legislativo vigente e, dunque, promuovere una riforma e disciplinare questa pratica.
Del resto, questa situazione desta diverse domande e preoccupazioni. Se, infatti, per ora, l’intelligenza artificiale è un territorio ancora inesplorato, nel tempo acquisterà più rilevanza nella nostra società; e se non sarà posto alcun limite alla sua attività, tale realtà potrà comportare un netto cambiamento dei concetti di arte e di intrattenimento come li intendiamo noi oggi. E come potrebbe il diritto, la cui finalità è, prima tra tutte, tutelare i consociati, tollerare ciò? Quali sono le possibili soluzioni per ottenere soltanto benefici dallo sviluppo dell’IA e non danneggiare le persone? Dovremo attendere mesi di cause e azioni legali per dare una risposta definitiva a questo dilemma.
Cercare di capire la direzione dove l’IA porterà il mondo dell’arte è la premessa per agire.
[1] Tremblay v. OpenAI, Inc., No. 3:23-cv-03223 (riunito con le cause Silverman v. OpenAI, Inc., No. 3:23-cv-03416 & Chabon v. OpenAI, Inc., No.3:23-cv-04625);
Kadrey v. Meta Platforms, Inc., No. 3:23-cv-03417 (riunito con la causa Chabon v. Meta Platforms Inc., No. 3:23-cv-04663);
Authors Guild v. OpenAI Inc., No. 1:23-cv-08292;
Concord Music Group, Inc. v. Anthropic PBC, No 3:23-cv-01092;