L’Europa ha bisogno di certezza normativa sull’IA. A dirlo è un appello promosso da Meta per comparire oggi sui principali quotidiani nazionali. Tra i firmatari aziende, ricercatori e istituzioni italiane ed europee come EssilorLuxottica, Ericsson, Klarna, Pirelli, Prada, Spotify, ThyssenKrupp e la stessa Meta di Mark Zuckerberg, proprietaria di Instagram, Facebook e WhatsApp.
Il gruppo di aziende accusa l’Unione europea di avere una normativa sull’intelligenza artificiale (IA) frammentata e poco coerente, che rischia di danneggiare la competitività del continente.
COSA CHIEDE L’APPELLO
I firmatari dell’appello chiedono a legislatori e regolatori europei un cambio di rotta con “regole coerenti” sull’IA. In particolare su due questioni. La prima riguarda lo sviluppo di modelli “aperti”, i cosiddetti open source, ovvero disponibili gratuitamente a tutti per essere utilizzati, modificati e sviluppati. Il gruppo ritiene che tali modelli accrescano “indipendenza e controllo perché le aziende possono scaricarli e perfezionarli come vogliono, eliminando la necessità di inviare i propri dati altrove”.
Il secondo punto su cui batte l’appello riguarda i modelli “multimodali” perché, come si legge nella lettera aperta, “la differenza tra modelli di solo testo e modelli multimodali è paragonabile alla differenza tra avere un solo senso e averli tutti e cinque”.
I RISCHI PER L’EUROPA
“Senza questi modelli [sia aperti che multimodali, ndr], l’IA verrà sviluppata altrove – avvertono i firmatari -, privando i cittadini europei dei progressi tecnologici di cui godono Stati Uniti, Cina e India”.
A sostegno della tesi vengono poi citate ricerche in materia, tra cui una di JPMorgan che afferma che “nel prossimo decennio l’IA generativa potrebbe contribuire all’aumento del 10% del PIL globale” e i cittadini europei correrebbero dunque il rischio di essere privati di questa opportunità di crescita.
“La capacità dell’Ue di competere con il resto del mondo in materia di IA, e di trarre vantaggio dai modelli open source – insiste l’appello – si basa sul mercato unico e su un quadro normativo condiviso”.
CHE PROBLEMI HANNO LE REGOLE ATTUALI
Secondo i firmatari “se aziende e istituzioni vorranno investire decine di miliardi di euro per sviluppare un’IA generativa per i cittadini europei, queste avranno bisogno di regole chiare, applicate in modo coerente, che consentano l’utilizzo dei dati europei”.
Il gruppo rimprovera infatti l’Ue di recenti decisioni normative “frammentate e imprevedibili” e di interventi delle autorità europee per la protezione dei dati che “hanno creato una grande incertezza sul tipo di dati che possono essere utilizzati per addestrare i modelli IA”: “ciò significa che la prossima generazione di modelli IA open source, così come i prodotti e i servizi derivanti da essi, non riusciranno a comprendere né tantomeno rifletteranno la conoscenza, la cultura o le lingue europee”.
CHI SONO I FIRMATARI
A firmare l’appello, oltre a professori e ricercatori sono Adaptive ML, Artefact, audEERING, Bineric AI, CampusAI, Consumer Choice Center Europe, Criteo, Digital Poland Association, Ecipe, Eng, Ericsson, EssilorLuxottica, EsTech, Exor, Flower, Fully AI, I-Com, Infobalt, Klarna, KorniaAI, La villa numeris, Meta, Metlen Energy and Metals, Mirakl, Nabla, Photoroom, Pirelli, Prada Group, Publicis Group, Quansight, SalesTube, Sap, Spotify, Taxfix, ThyssenKrupp, Unbabel, 8vance.
LA BATTAGLIA DI META PER L’OPEN SOURCE
Meta, che ha finanziato la diffusione dell’appello, ha particolarmente a cuore la difesa dell’open source e sul sito che ha pubblicato il comunicato si legge che, senza nuove regole, “l’Ue si perderà anche altre innovazioni, come l’assistente IA di Meta, che è sulla buona strada per diventare l’assistente IA più utilizzato al mondo entro la fine di quest’anno”.
Già nel luglio 2023, quando la società ha presentato il suo modello IA Llama 2, Zuckerberg aveva affermato: “L’open source promuove l’innovazione perché consente a un numero maggiore di sviluppatori di costruire con nuove tecnologie. Inoltre, migliora la sicurezza perché quando il software è aperto, più persone possono esaminarlo per identificare e risolvere potenziali problemi. Credo che i progressi sarebbero maggiori se l’ecosistema fosse più aperto, ed è per questo motivo che stiamo lanciando Llama 2”.
FAVOREVOLI E CONTRARI ALL’OPEN SOURCE
Anche Google, con Gemma 2B e Gemma 7B, ha messo a disposizione dei modelli IA open source. Mentre OpenAI di Sam Altman ha abbandonato tale approccio strada facendo e per questo è stata attaccata da Elon Musk, che aveva partecipato alla fondazione della software house.
Ma cosa c’è dietro al dibattito tra open e closed source? Oltre alla dichiarata intenzione di democratizzare la tecnologia, da parte di chi sostiene modelli aperti, bisogna considerare anche gli aspetti relativi alla sicurezza. Come ha scritto Start, se da un lato un software aperto incoraggia la creatività, l’innovazione e la democratizzazione, dall’altro, secondo i sostenitori dei modelli chiusi, minaccia la nostra sicurezza.
La tesi infatti è che i modelli closed source sono più sicuri perché hanno delle politiche di utilizzo che proteggono da un uso pericoloso delle IA. Sebbene anche in questi casi è possibile effettuare il jailbreak delle politiche, ossia violarle per aggirare le protezioni, spesso tali vulnerabilità vengono risolte rapidamente.