skip to Main Content

Nyt Intelligenza Artificiale

Lasciamo libero l’algoritmo di ChatGpt che scopiazza gratis i giornali?

Commenti e reazioni della stampa italiana alla causa intentata dal New York Times a Microsoft e OpenAI

 

È iniziata la guerra tra il giornalismo e l’Intelligenza artificiale? Il New York Times ha intentato causa contro Microsoft e OpenAI. Secondo il Times, il motore di ricerca Bing! di Microsoft e OpenAI hanno usato gratuitamente milioni di articoli del quotidiano per addestrare le chatbot, come ChatGPT, che oggi fanno concorrenza proprio ai quotidiani. La diffusione dell’intelligenza artificiale minaccia di travolgere un settore già provato dalla rivoluzione digitale degli ultimi 20 anni e la mossa di un colosso come il Nyt rivela quanto la situazione sia critica.

IL PARERE DI GIUDO SCORZA (GARANTE PRIVCY), CON L’AI A RISCHIO CREATIVITÀ, DATI E DIRITTI

La causa intenta dal New York Times ha suscitato reazioni anche nel nostro paese. “L’azione del New York Times solleva una delle questioni più rilevanti rispetto all’Intelligenza artificiale generativa – ha spiegato Guido Scorza, giurista componente del Collegio del Garante della Privacy, a La Stampa -: la sostenibilità di un modello nel quale la creatività, i contenuti, i dati personali e quindi i diritti di miliardi di persone finiscono con l’essere trasformati in asset commerciali e tecnologici da una manciata di società che, grazie a questi asset hanno un enorme valore di mercato e una straordinaria potenza. Posizione che le porta ad avere un doppio vantaggio, perché con i contenuti presi dai giornali e dagli editori fa concorrenza agli editori stessi”.

Lo scorso marzo il Guido Scorza è stato tra i promotori del blocco di ChatGpt in Italia, durato fino a quando la società di San Francisco non ha accettato di rispettare tutti gli obblighi della Gdpr, la legge europea sui dati personali. “È difficile considerare questa situazione sostenibile – ha aggiungo Scorza -. Come Garante abbiamo avviato un’indagine conoscitiva per verificare se chi pubblica online, per una qualsiasi finalità, altrui dati personali, non abbia l’obbligo di proteggerli dal web scraping (drenaggio) massiccio delle fabbriche degli algoritmi. E nell’ambito del procedimento nei confronti di Open AI stiamo investigando sulla possibilità di considerare legittima, sotto il profilo della disciplina europea sulla privacy, l’attività di chi raccoglie massivamente i dati di miliardi di persone per addestrare i propri algoritmi”.

GLI ACCORDI DI AXEL SPRINGER CON OPEN AI

Di segno opposto rispetto alla posizione del New York Times sono gli accordi sottoscritti da Axel Springer, il colosso dell’editoria tedesco, proprio con OpenAI. L’intesa prevede l’utilizzo dei riassunti dei contenuti delle testate di proprietà del gruppo in risposta alle domande della chatbot. “Informazioni in tempo reale da Politico, BusinessInsider, Bild e Welt e altre pubblicazioni saranno presto disponibili per gli utenti ChatGPT”. Le risposte che ChatGPT fornirà non scavalcheranno totalmente i giornali da cui attingono informazioni ma “includeranno attribuzioni e collegamenti ad articoli completi per trasparenza e ulteriori informazioni”. Per il Wall Street Journal l’accordo tra Axel Springer e OpenAI rappresenta “una pietra miliare significativa in quanto le società di media spingono per un compenso per l’uso dei loro contenuti negli strumenti i intelligenza artificiale”. Il gruppo Springer non è nuovo all’intelligenza artificiale. Infatti, da un lato, il ceo Mathias Döpfner ha esortato le sue redazioni a sfruttare l’intelligenza artificiale, dall’altro la Bild, ha tagliato 200 posti di giornalisti, e chiuso diverse piccole sedi regionali, a sostituirli sarebbe stata proprio l’intelligenza artificiale.

IL NEW YORK TIMES HA ASSUNTO UN DIRETTORE DELLE INIZIATIVE LEGATE ALL’INTELLIGENZA ARTIFICIALE

Ma il New York Times vuole fare la guerra all’intelligenza artificiale? Non esattamente, rimarca Il Foglio, visto che solo pochi giorni prima dell’annuncio della causa il colosso statunitense “aveva assunto un “direttore delle iniziative legate alle IA”, Zach Seward, a conferma del fatto che lo sviluppo di questi sistemi interessa a tutti: grandi aziende, social network, editori”. Del resto per mesi New York Times, Microsoft e OpenAI hanno provato a trovare un accordo, senza successo.

IL PARASSITISMO DEI NUOVI MECCANISMI DI INTELLIGENZA ARTIFICIALE

Pongono l’attenzione sull’aspetto che riguarda il “furto” dei contenuti dell’AI generativa ai danni dei quotidiani i giuristi Giusella Finocchiaro, docente dell’Università di Bologna, e Oreste Pollicino, professore dell’Università Bocconi, sul Sole 24 Ore. Il termine “furto” è proprio quello utilizzato nel ricorso del New York Times contro Microsoft e OpenAI. “Non c’è nulla di “trasformativo” nell’utilizzare i contenuti del giornale, in modo gratuito, per creare un prodotto che è in concorrenza con il New York Times e a cui chiaramente mira a sottrarre lettori”, evidenziano i due giuristi citando un passaggio della denuncia del NYT.

“Il tema centrale è quello relativo ad una sorta di parassitismo, rispetto ai contenuti editoriali – scrivono Giusella Finocchiaro e Oreste Pollicino sul Sole 24 ore -, che sembra caratterizzare i nuovi meccanismi di intelligenza artificiale di natura generativa sicuramente in modo assai più significativo rispetto a quanto accade con i motori di ricerca”. I due giuristi provano a spiegare come tradurre la protezione del diritto d’autore secondo la quale il copyright “is the engine of free speech”, nella nuova era dell’intelligenza artificiale generativa. “La regola base è la trasparenza del processo, che è esattamente anche quanto fa valere il NYT dall’altra parte dell’Oceano – scrivono Finocchiaro e Pollicino -. Vale a dire che creatori di contenuti debbano essere informati del fatto che quest’ultimi sono utilizzati per addestrare modelli di intelligenza artificiale. Non solo, ma secondo l’accordo politico appena raggiunto (ed ovviamente non ancora in vigore) gli sviluppatori di modelli di AI di grandi dimensioni, e tra questi vi sono ovviamente anche open AI e Microsoft, devono rendere disponibile, e quindi trasparente, una sintesi dei contenuti informativi coperti da copyright utilizzati per addestrare i loro modelli”.

I RISCHI DELL’INTELLIGENZA ARTIFICIALE: GLI LLM POSSONO DISTRUGGERE GIORNALISMO E TESTATE

I rischi connessi alla diffusione dell’uso dei Large Language Models, sono stati sintetizzati da Mathias Döpfner, editore di Axel Springer: “Gli Llm possono distruggere giornalismo e testate”. Il quale ha però sottoscritto un con Open AI per l’uso dei contenuti dei quotidiani del gruppo Axel Springer. Nel nostro paese manca un accordo quadro con le piattaforme e “si teme la ripetizione dell’errore di una generazione fa, quando i giornali si lasciarono invadere dal web, senza comprenderne per miopia e provincialismo, o regolarne, la rivoluzione” scrive l’editorialista Gianni Riotta su Repubblica. Occorre ricordare lo scorso 9 dicembre la Commissione, il Consiglio e il Parlamento europeo hanno approvato l’Ai Act, la normativa che regolamenterà l’intelligenza artificiale nel vecchio continente ma che entrerà in vigore non prima del 2026.

TUTTE LE CAUSE INTENTATE DA TESTATE E SCRITTORI CONTRO L’INTELLIGENZA ARTIFICIALE

Quella del NYT forse è la più grande ma non è la prima causa contro le aziende che adoperano intelligenza artificiale generativa. Inoltre – ricorda oggi il Corriere della sera – numerosi scrittori hanno intentato causa come John Grisham, David Baldacci e Jonathan Franzen, contro OpenAI, rea di aver dato in pasto le loro opere a ChatGpt, oppure l’attrice Sarah Silverman (oltre alla solita OpenAI è coinvolta anche Meta). L’agenzia fotografia Getty Images ha querelato Stability AI, che ha un software capace di generare immagini.

LA DOTTRINA DEL FARI USE: CITARE È POSSIBILE MA COPIARE NO

Al momento OpenAI e Microsoft non hanno ancora risposto NYT ma probabilmente si appelleranno “alla dottrina legale Usa del fair use – immagina Riotta -, analoga al diritto di citazione previsto dalla Convenzione di Berna sul copyright del 1882: “Si possono usare porzioni limitate di testo, inclusi virgolettati, da commenti, critiche, cronache, reportage, saggi accademici”.

La soluzione della causa tra NYT e Open AI è cruciale per il futuro delle relazioni tra giornalismo e intelligenza artificiale. “Ci sono però due facili previsioni – ha scritto ieri il prof. Gregory Alegi, giornalista e storico, su Startmag -. La prima, che la causa approderà alla Corte Suprema, che dovrà decidere se l’addestramento su materiali creati dalla mente dell’uomo per alimentare le capacità di generazione digitale sia compatibile con la Costituzione degli Stati Uniti, che con eccezionale lungimiranza già nel 1787 garantiva ad «autori e inventori» la tutela federale del «diritto esclusivo alle loro rispettive scritture e scoperte.» (articolo 1, sezione 8). La seconda è che se ChatGPT, LLM e AI in generale rendono difficile la vita al giornalismo di qualità, quello copia-incolla è già un morto che cammina”. Quello che è già iniziata è un’era in cui chi produce cultura e informazione dovrà “dare battaglia” alle piattaforme che usano l’intelligenza artificiale per “generare” contenuti”

Back To Top