Intelligenza Artificiale, al crocevia tra diritto e tecnologia: intervista con Enrico Grandi, sviluppatore IA

technology, developer, touch-3389904.jpg

1. Tutela delle opere generate dall’Intelligenza Artificiale

In diritto d’autore si discute della possibilità di tutelare le opere generate tramite AI generativa e della titolarità di tali creazioni. Un’opera è tutelabile solo se è “originale”, ovvero se esprime la personalità dell’autore attraverso scelte libere e creative. Se prendiamo l’esempio della fotografia, l’autore dovrà essere in grado di spiegare le sue scelte in merito a: composizione, messa a fuoco, luce, post-produzione, etc.

Ad oggi, possiamo generalmente concludere che, se la giurisprudenza considera talvolta originali le opere create tramite l’assistenza dell’AI, a condizione di dimostrare un intervento dell’autore che va oltre i semplici “prompt”, essa nega la tutela alle opere generate autonomamente dall’AI, ovvero quelle in cui l’autore si limita a fornire un “prompt” alla macchina. Tale posizione viene giustificata dal fatto che i “prompt” non sarebbero istruzioni specifiche e prevedibili e che essi non sarebbero sufficientemente creativi per esprimere la personalità dell’autore.

Alla luce della tua esperienza di programmatore di software di machine learning e intelligenza artificiale, quale è la tua opinione a proposito della mancanza di creatività dei “prompt”, dell’assenza di espressione della personalità dell’utilizzatore, nonché sull’imprevedibilità del risultato? L’intervento umano è davvero così limitato e ininfluente?

La mia esperienza nello sviluppo di software basati su tecnologie di machine learning e AI, in particolare sui modelli linguistici avanzati, mi ha portato a riconoscere l’importanza cruciale e l’impatto significativo che la scrittura di prompt efficaci ha sull’output finale dei modelli di AI. Questo fenomeno, noto come “prompt engineering”, si sta affermando come un campo di studio specifico, con l’obiettivo di ottimizzare i prompt per ottenere risultati migliori e più pertinenti.

I “prompt” possono variare ampiamente in termini di dettaglio e creatività. Ad esempio, un prompt generico come “crea un’immagine di un paesaggio” può produrre un risultato ampiamente imprevedibile e non particolarmente personalizzato. Al contrario, un prompt dettagliato e ben concepito, che specifica il momento della giornata, le caratteristiche ambientali, e l’atmosfera desiderata, dimostra come l’intervento umano possa essere profondamente creativo e riflettere la personalità dell’utente. Questo tipo di interazione suggerisce che l’umanità e la personalità dell’autore possono essere trasmessi attraverso i prompt, influenzando in modo significativo l’output generativo dell’AI.

La natura stessa dell’AI generativa comporta un elemento di imprevedibilità; fornendo lo stesso prompt in momenti diversi o a modelli differenti può portare a risultati variabili. Questa caratteristica può essere interpretata sia come una limitazione sia come una fonte di creatività, poiché la varietà dei risultati può sorprendere e superare le aspettative iniziali, portando a creazioni uniche che riflettono un dialogo tra l’intento umano e la capacità di elaborazione dell’AI.

La creatività manifestata nelle opere generate da AI può quindi essere vista come un riflesso della creatività umana, che è intrinseca nei dati di addestramento e nelle istruzioni fornite tramite i prompt. Questo pone interrogativi fondamentali sulla natura della creatività e dell’originalità. I modelli di AI, pur essendo capaci di produrre opere nuove, si basano su dati preesistenti, similmente a quanto avviene nei processi creativi umani, che spesso reinterpretano e rielaborano idee già note.

La citazione di Picasso, ripresa da Steve Jobs, “I buoni artisti copiano, i grandi artisti rubano”, illustra efficacemente questo concetto. Picasso si riferiva all’adozione e all’adattamento di idee esistenti per creare qualcosa di nuovo e rivoluzionario, una pratica comune in molte forme di espressione creativa, inclusa la tecnologia. Questo principio è applicabile anche nel contesto dell’AI: i modelli di AI “rubano” idee dai vasti dati su cui sono addestrati per creare qualcosa che può sembrare nuovo ed originale. La sfida e l’opportunità per gli umani sta nel sapere come guidare questo processo, integrando e adattando gli output dell’AI in modi che riflettano intenzioni creative e originali.

In conclusione, l’intervento umano nel processo di creazione attraverso AI va ben oltre la semplice formulazione di prompt. La specificità, la creatività dei prompt e la capacità di interagire con i risultati generati possono effettivamente riflettere le scelte creative e personali dell’utente. La questione della tutela delle opere generate tramite AI dovrebbe quindi considerare la profondità dell’interazione umana nel processo creativo. Alla luce di ciò, è essenziale che, in futuro, la giurisprudenza possa riconoscere e valutare adeguatamente il contributo umano, incluso l’uso innovativo dei prompt e la selezione critica dei risultati, come elementi distintivi dell’originalità e della creatività nelle opere AI-generate.

2. “Certificazione” del processo creativo di opere generate tramite intelligenza artificiale

Alla luce di queste considerazioni, nell’eventualità la posizione della giurisprudenza cambiasse, per dimostrare l’originalità l’autore dovrà essere in grado di tenere traccia dei “prompt” e del suo dialogo con la macchina.

Ti chiedo allora, come fare per archiviare con data certa il proprio “dialogo” con l’intelligenza artificiale?

Salvare con data certa il proprio “dialogo” con l’AI è una questione importante per garantire l’attribuzione e la proprietà intellettuale delle creazioni generate con sistemi di intelligenza artificiale. Sebbene la tecnologia per certificare la veridicità e la datazione di tali dialoghi sia disponibile, il suo impiego effettivo dipende da una serie di fattori, inclusa la regolamentazione e l’accessibilità di tali strumenti ai vari utenti.

Le grandi aziende che offrono servizi di intelligenza artificiale dispongono certamente delle capacità tecniche per implementare sistemi di certificazione dei dati. In questo contesto, potrebbe essere utile l’introduzione di normative che riconoscano esplicitamente alle aziende il ruolo di entità certificatrici per i dati generati tramite i loro servizi. Questo approccio potrebbe facilitare la tutela delle creazioni generate con l’assistenza di AI, fornendo un meccanismo chiaro e riconosciuto per attestare la loro origine e il momento della loro creazione.

Per i modelli di AI di dimensioni minori, che potrebbero non avere il supporto di grandi aziende, la situazione è più complessa. In questi casi, lo sviluppo e l’implementazione di servizi pubblici dedicati alla certificazione dei dialoghi con l’AI potrebbero offrire una soluzione. Tali servizi potrebbero agire come intermediari neutrali, fornendo attestazioni di data certa accessibili a tutti gli utenti, indipendentemente dalla scala del loro utilizzo dell’AI. In tal senso, le tecnologie decentralizzate, come la blockchain, rappresentano un’opportunità promettente per affrontare questa sfida. L’uso della blockchain per registrare i dialoghi con l’AI potrebbe offrire un metodo sicuro e trasparente per certificarne la data senza la necessità di un ente certificatore centrale.

3. Training dell’intelligenza artificiale, violazione del diritto d’autore e l’eccezione del “data mining”

Per integrare la fattispecie di violazione di diritto d’autore è necessario che l’opera venga riprodotta, ovvero fissata su un supporto fisico o digitale. Nelle prime cause per violazione di diritto d’autore durante il “training” dell’AI generativa che si stanno svolgendo oltreoceano, una delle difese delle big tech consiste nell’affermare che il “training” dell’AI sarebbe assimilabile all’apprendimento umano basato su osservazione. Di conseguenza durante il “training” non verrebbero effettuate copie digitali di opere o di database in quanto i software sarebbero in grado di estrarre dati dalle opere o dai database senza effettuare copie digitali, neanche parziali degli stessi.

Quanto c’è di vero in tali affermazioni, qual è la tua opinione a riguardo? E quanto è facile verificare le fonti del training in assenza di un obbligo di “disclosure”?

Da un punto di vista tecnico, è corretto affermare che le reti neurali all’interno dei modelli di AI non contengono copie digitali dirette delle opere. Invece, esse elaborano e memorizzano caratteristiche astratte e pattern rilevati nei dati di addestramento, trasformandoli in una serie di parametri matematici e pesi all’interno della rete. Questo processo consente ai modelli di generare output nuovi ed unici che, pur ispirandosi agli input originali, non sono copie dirette di essi.

Tuttavia, per poter “apprendere” in questo modo, è innegabile che i dati originali devono essere stati accessibili al sistema di AI in qualche forma. Ciò significa che, a un certo punto, i programmatori e le aziende hanno dovuto caricare e utilizzare queste opere all’interno dei loro sistemi per il training. Questo processo solleva questioni legali ed etiche significative riguardo al diritto d’autore e all’uso delle opere protette senza il consenso dei titolari dei diritti.

La verifica delle fonti utilizzate per il training dei modelli di AI in assenza di un obbligo di “disclosure” è estremamente difficile. Senza una trasparenza obbligatoria, non c’è modo semplice per determinare esattamente quali dati siano stati utilizzati per addestrare un modello specifico. Questa opacità complica ulteriormente la questione della responsabilità e della tutela dei diritti d’autore nell’era dell’AI. 

A tal proposito, in Europa si discute della possibilità di applicare all’AI generativa l’eccezione “data mining” prevista dalla direttiva (UE) 2019/790. Tuttavia, tale eccezione non si applica qualora il titolare di diritti d’autore abbia esercitato il suo diritto di “opt out”, ovvero abbia espresso il proprio dissenso “in modo appropriato, ad esempio attraverso strumenti che consentano lettura automatizzata in caso di contenuti resi pubblicamente disponibili”

Qual è il tuo consiglio per gli autori che volessero comunicare tramite strumenti automatizzati il loro dissenso all’uso di un’opera specifica? È possibile immaginare una sorta di “watermark” invisibile costituito da metadati da integrare in ogni contenuto pubblicato online?

Nell’AI Act, è prevista l’obbligatorietà per certi modelli di AI di pubblicare i dati con cui sono stati addestrati. Allo stesso tempo, emerge la necessità di proteggere i diritti di coloro che non desiderano che le proprie opere siano utilizzate per addestrare queste tecnologie. La gestione di questa dinamica potrebbe risultare relativamente più semplice per i modelli di grandi dimensioni sviluppati da aziende di rilievo, le quali sono soggette a un maggiore controllo da parte delle autorità. Tuttavia, la situazione si complica per i modelli più piccoli, sviluppati da piccole aziende o programmatori indipendenti, dove garantire il rispetto di questi diritti potrebbe risultare più arduo. In questo contesto, la responsabilità e l’etica di chi produce modelli di AI diventano cruciali. L’educazione e la sensibilizzazione sul rispetto dei diritti d’autore dovrebbero essere promosse all’interno della comunità degli sviluppatori di AI.

Per quanto riguarda la comunicazione del dissenso all’uso di opere specifiche, gli autori potrebbero considerare l’integrazione di metadati, sorta di “watermark” invisibile, in ogni contenuto pubblicato online. Questi metadati potrebbero contenere informazioni chiare sulle condizioni di utilizzo dell’opera, inclusa la proibizione esplicita di addestrare modelli di AI senza il consenso dell’autore. L’implementazione di tali metadati richiederebbe standardizzazione e supporto da parte delle piattaforme online e dei tool di pubblicazione, affinché i metadati siano riconosciuti e rispettati dai sistemi di AI durante la fase di raccolta dei dati. Inoltre, sarebbe auspicabile lo sviluppo di tecnologie e protocolli che permettano di verificare automaticamente il rispetto delle condizioni imposte dagli autori, facilitando il compito delle autorità nel monitorare l’utilizzo dei dati.

4. Responsabilità civile dell’intelligenza artificiale

Restando tema di responsabilità, possiamo parlare di “autonomia” decisionale dell’AI? Quanto il programmatore influenza l’out-put e le decisioni prese dall’AI, come ad esempio in tema di AI generativa o di guida autonoma?

La riflessione sulla possibilità di attribuire autonomia decisionale all’intelligenza artificiale (AI) e sulla responsabilità delle azioni compiute dai suoi modelli solleva questioni fondamentali nel campo dell’etica tecnologica e della regolamentazione.

Allo stato attuale, i sistemi di AI, anche quelli più avanzati, non possiedono autonomia in senso umano. Questi sistemi operano seguendo algoritmi e processando dati secondo parametri e logiche definite dai loro sviluppatori. Ciò che a volte viene percepito come “autonomia” è in realtà il risultato di complesse elaborazioni matematiche, capaci di simulare aspetti della logica o del comportamento umano ma senza coscienza, intenzionalità o emozioni autentiche. La questione della responsabilità nell’utilizzo dell’AI è particolarmente complessa. La difficoltà nell’interpretare i processi decisionali degli algoritmi di AI, soprattutto nelle reti neurali di grande dimensione, rende arduo attribuire responsabilità in maniera chiara e univoca. Questa incertezza si estende a tutti gli attori coinvolti: sviluppatori, fornitori di tecnologia e utenti finali. Gli sviluppatori e i programmatori, attraverso le scelte tecniche e i criteri di addestramento dei modelli, influenzano in modo significativo il comportamento degli algoritmi. Tuttavia, la difficile interpretazione di questi sistemi può rendere complessa se non impossibile prevedere o spiegare tutte le possibili risposte dell’AI a situazioni non precedentemente incontrate durante la fase di addestramento. Inoltre, la questione della responsabilità si complica ulteriormente quando l’AI viene implementata in applicazioni critiche, come i sistemi di guida autonoma, dove decisioni errate possono avere conseguenze dirette sulla sicurezza delle persone. In questi contesti, determinare chi sia responsabile – il creatore dell’algoritmo, il produttore del veicolo, l’utente finale o una combinazione di questi – è una sfida che richiede un attento esame legale ed etico.

In questo panorama, evitare di antropomorfizzare l’AI è fondamentale per mantenere una chiara comprensione delle sue capacità e limiti. Attribuire all’IA qualità umane come consapevolezza o intenzionalità può portare a aspettative irrealistiche o a valutazioni errate del suo funzionamento e della sua affidabilità. La necessità di una regolamentazione chiara e di linee guida etiche è evidente, per garantire che l’utilizzo dell’IA sia sicuro, etico e legalmente responsabile. Tale regolamentazione dovrebbe tenere conto della complessità tecnica dei sistemi di AI e della catena di responsabilità, dall’ideazione all’uso finale. Affrontare queste questioni è essenziale per sfruttare i benefici dell’IA minimizzando i rischi associati alla sua implementazione nella società.