skip to Main Content

Anthropic Editori Musicali Lettera Ia Suno Ai

Contro le intelligenze artificiali che copiano il software per accecare le IA

Sul web è ormai guerra tra algoritmi. Per non veder copiate le proprie opere dalla IA gli artisti che le caricano sul Web potranno usare un filtro in grado di acciecare le intelligenze artificiali

Sono sempre di più le citazioni in giudizio per violazione del diritto di autore da parte delle IA generative. L’ultima, ma solo in ordine di tempo, vede contrapporsi da un lato gli editori musicali Universal Music, ABKCO e Concord Publishing e, sul fronte opposto, la super startup italo-americana di intelligenza artificiale Anthropic (che ha appena ottenuto un finanziamento da 4 miliardi di Amazon, come pure da Google e dall’ex miliardario delle criptovalute Sam Bankman-Fried) con l’accusa, mossa dalle prime tre, che il suo chatbot noto come Claude avrebbe abusato di una quantità “innumerevole” di canzoni protette da copyright. Nel silenzio del legislatore e nelle more del giudicato, per arginare il problema è stato sviluppato un software che permette di acciecare le IA. Un modo, insomma, per farsi giustizia da sé.

BELLADONNA DIGITALE

Per la verità i suoi ricercatori, un team di sviluppatori dell’Università di Chicago, non usano il termine acciecare, ma “avvelenare”. Non a caso il nome del software, Nightshade, è il termine inglese con cui si identifica la Belladonna, pianta notoriamente velenosa.

Nightshade sarà uno strumento open source, ovvero senza finalità di lucro, che potrà essere usato dagli artisti per aggiungere una specie di protezione alle loro immagini prima di caricarle sulla Rete. Il software, spiegano i suoi creatori, altera i pixel in modo da acciecare le IA che eseguono la tecnica dello scraping, ovvero che pescano a strascico per il Web col fine di addestrarsi.

COME FUNZIONA NIGHTSHADE

Dove starebbe l’avvelenamento? Nel fatto che oltre a nascondere le opere, l’applicazione sarebbe in grado di confondere gli algoritmi di intelligenza artificiale, insegnando loro nozioni errate. Il team che ha messo a punto la protezione ha raccontato ciò che è successo adulterando l’immagine di un cane prima di servirla all’intelligenza artificiale facendole credere si trattasse di un gatto.

Dopo averle fornito cinquanta immagini avvelenate, l’intelligenza artificiale, alla richiesta di disegnare un cane, ha iniziato a fare strani miscugli tra i due animali. Dopo 100 immagini avvelenate, ha iniziato a generare gatti al posto dei cani. Dopo 300 immagini, chiedere un gatto generava inevitabilmente come output la creazione di una immagine di un cane.

INVISIBILE PER NOI, CAOTICO PER LE IA

La schermatura applicata dai ricercatori dell’Università di Chicago guidati dal professor Ben  Y. Zhao non altererà in alcun modo le fattezze delle opere digitalizzate per l’occhio umano. Insomma, sarà una specie di teca invisibile per noi ma in grado di rifrangere la visione di software già al centro di numerose polemiche come Stable Diffusion, MidJourney o Dall-E. Questo software sarà aggiunto a Glaze, tool online che nasconde i disegni digitali alterandone i pixel per confondere i modelli di IA.

Com’è ovvio, può agire solo sulle intelligenze artificiali che si cibano di immagini, mentre nulla può con quelle che si scolano testi e canzoni. I detrattori hanno iniziato a parlare di “IA emulativa”, in quanto, almeno nella fase iniziale, le intelligenze artificiali non elaborano ma rielaborano testi, musiche e opere d’arte create dall’uomo assemblandone varie parti nel tentativo di creare qualcosa di nuovo.

LA DISCUSSIONE SI È SPOSTATA NEI TRIBUNALI

Chi difende queste nuove tecnologie, invece, fa notare che così come tutte le musiche provengono dalle stesse note musicali, anche il mondo artistico è concettualmente “finito” ma si tollera che i nuovi talenti prendano ispirazione dai lavori degli artisti che li hanno preceduto. Allo stesso modo, insomma, bisognerebbe allargare le maglie delle norme a tutela del diritto d’autore per permettere alle IA generative di immagazzinare quanti più dati possibile.

Quel che è certo è che se i tribunali dovessero iniziare a vietare alle IA generative di cibarsi del materiale a disposizione per la Rete, diverrebbe molto più difficile per le software house in odierna ascesa istruire gli algoritmi in via di sviluppo e quasi certamente molto più oneroso.

Back To Top