Il 12 Febbraio scorso, la Corte di San Francisco, ha emesso una prima, parziale, decisione a favore di OpenAI.
Anche se viene presentata come una sentenza favorevole a OpenAI, e in parte lo è, si tratta in realtà di una decisione interlocutoria, emessa a seguito della richiesta di archiviazione avanzata da OpenAI nel corso di due cause gemelle promosse contro di lei da una serie di autori, anche sotto forma di class action.
Il 28 Giugno 2023 gli autori e scrittori Paul Tremblay, Mona Awad, quest’ultimo poi ritiratosi dal giudizio, e il 7 Luglio 2023 gli autori Sarah Silverman, Christopher Golden, e Richard Kadrey, rappresentati dagli stessi difensori e sulla base degli stessi argomenti, hanno agito in nome di tutti gli autori contro OpenAI e il suo sistema di intelligenza artificiale ChatGPT, lamentando che quest’ultimo abbia utilizzato i loro libri per addestrarsi e che i testi da esso generati siano opere derivate dai dati di addestramento.
Gli autori sostengono che, durante il training, il sistema avrebbe copiato ogni singolo testo per estrarre informazioni utili al suo funzionamento e generare testo sulla base delle richieste che l’utente avanza con i propri prompt.
Contestano, inoltre, che tutti gli output dell’intelligenza artificiale sono opere derivate dai dati di addestramento e, quindi, violano il copyright degli autori a cui non è stato chiesto il consenso e non sono stati pagati i diritti.
OpenAI avrebbe copiato milioni di libri, tra cui anche quelli degli autori che agiscono in giudizio, ma i difensori non hanno fornito una prova diretta per dimostrarlo, visto che OpenAI non ha mai rivelato quale sia il materiale di addestramento, per cui si sono basati indizi e deduzioni logiche.
È proprio questo il punto cruciale della recente decisione del Giudice Araceli Martínez-Olguín.
Pur partendo dal presupposto che nell’esaminare una richiesta di archiviazione la Corte è tenuta a considerare come veri i fatti descritti dalle parti, il Giudice ricorda che la Corte non è, tuttavia, tenuta a considerare come vere le affermazioni meramente assertive, le deduzioni non giustificate o le inferenze irragionevoli.
Sul fatto che l’opera generata dall’intelligenza artificiale possa essere un’opera derivata, la Corte non accoglie la tesi degli autori per cui tutte le opere generate dall’AI sarebbero derivate da quelle di addestramento e afferma che deve essere provato, in concreto che ci sia un’opera originale a cui si siano ispirate e che abbiano modificato.
La Corte chiede, quindi, che venga dimostrata, una sostanziale similarità tra l’opera generata dall’intelligenza artificiale e un’opera di addestramento che si presume contraffatta, prova che non è stata fornita nel corso del processo.
Gli autori si sono difesi affermando che la prova della similitudine non sarebbe necessaria perché ci si troverebbe di fronte a una copia “tale e quale” dell’opera che non ha bisogno di essere dimostrata e citano un precedente, del tutto diverso, relativo a una canzone cantata, senza consenso, in un bar.
Il Giudice osserva che in quel caso non era stata richiesta la prova della sostanziale similitudine in quanto vi era una sovrapposizione piena e palese tra il testo della canzone cantata e il testo di quella originale, mentre qui non c’è alcuna prova che ci sia stata questa copia e spetta agli autori dimostrarla.
La Corte ha quindi respinto la domanda presentata dagli autori su questo punto, ma ha concesso loro la facoltà di emendare sul punto e fornire nuove prove che, in base allo stato della tecnica, sarà molto difficile che possano riuscire a produrre.
La decisione è molto importante perché dimostra che le opere generate dall’intelligenza artificiale non possono essere considerate illecite “in sé”, ma deve essere fatta una valutazione caso per caso.
Non è però una decisione finale e restano molte altre questioni aperte, tra cui una delle più importanti.
OpenAI, infatti, ha chiesto l’archiviazione di cinque delle sei domande avanzate dagli attori, ma non della più complessa, relativa all’accusa di violazione diretta di copyright per avere copiato i libri degli autori in fase di addestramento.
Ritengo che sia stata una scelta di strategia processuale, in quanto in questa fase sommaria, OpenAI difficilmente avrebbe potuto ottenere ragione, come già è accaduto a Midjourney nel caso Sarah Andersen, Kelly McKernan, and Karla Ortiz, v. Stability AI, Midjourney, Devian Art, del gennaio 2023 che si vide respingere la richiesta di archiviazione.
In quel caso la decisione fu assunta sulla base della premessa che un sistema di intelligenza artificiale, durante la fase di training, realizzerebbe “copie compresse” delle opere originali, anche se Stability AI affermava che non fosse vero.
Nel suo atto ha scritto:
«Per essere chiari, addestrare un modello non significa copiare o memorizzare immagini per una distribuzione successiva.
Infatti, Stable Diffusion non “memorizza” alcuna immagine. Piuttosto, l’addestramento comporta lo sviluppo e il perfezionamento di milioni di parametri che definiscono collettivamente come appaiono le cose. (…).
Lo scopo di ciò non è abilitare i modelli a riprodurre copie delle immagini di addestramento. Se qualcuno volesse copiare interamente immagini da Internet, ci sono metodi molto più semplici per farlo».
Questo è il nodo che deve essere ancora sciolto e per poterlo affrontare è necessario procedere con un vero e proprio giudizio di merito e con un’istruttoria approfondita in cui, in questo caso, OpenAI possa spiegare, e dimostrare, come funzioni l’addestramento del suo sistema che, per molti aspetti, resta ancora un mistero.
Sarà quel processo e quella decisione a cambiare le sorti dell’intelligenza artificiale.
(Estratto dalla newsletter Appunti di Stefano Feltri)