Skip to content

Cosa sappiamo sul Fondo sull’intelligenza artificiale di Anthropic, Google, Microsoft e OpenAI

Un pool di software house dietro alla creazione di un nuovo AI Safety Fund, fondo sull'intelligenza artificiale da oltre 10 milioni di dollari

 

Ci sono tutti i protagonisti del settore, ovvero quelli che nel corso del 2023 hanno fatto i maggiori progressi o investito di più nell’IA generativa: Anthropic, Google, Microsoft e OpenAI. Sono loro a costituire il pool di software house dietro alla creazione del nuovo AI Safety Fund, iniziativa in cui, secondo gli annunci, dovranno confluire fin da subito oltre 10 milioni di dollari.

A COSA SERVE IL FONDO SULL’INTELLIGENZA ARTIFICIALE

Scopo dell’AI Safety Fund, come il nome lascia intendere, promuovere la ricerca nel campo della sicurezza dell’IA. Sarà legato a doppio filo al Frontier Model Forum, un organismo del settore sorretto dalle medesime software house (che hanno appena nominato Chris Meserole primo direttore esecutivo dell’organismo) che si occupa “di garantire uno sviluppo sicuro e responsabile dei modelli di IA di frontiera”.

“Il Forum e i partner filantropici  – spiegano le software house coinvolte – stanno creando un nuovo AI Safety Fund, che sosterrà ricercatori indipendenti di tutto il mondo affiliati a istituzioni accademiche, istituti di ricerca e startup.”

GLI OBIETTIVI DEL FONDO SULL’IA

L’obiettivo principale del Fondo sarà  sostenere lo sviluppo di nuovi modelli di valutazione delle capacità potenzialmente pericolose dei sistemi di frontiera. “Riteniamo che un aumento dei finanziamenti in quest’area contribuirà a innalzare gli standard di sicurezza e di protezione e fornirà spunti per le mitigazioni e i controlli di cui l’industria, i governi e la società civile hanno bisogno per rispondere alle sfide poste dai sistemi di intelligenza artificiale”, dicono da Anthropic, Google, Microsoft e OpenAI.

Il Fondo pubblicherà un invito a presentare proposte nei prossimi mesi. Il Meridian Institute amministrerà il Fondo e il suo lavoro sarà supportato da un comitato consultivo composto da esperti che i partner dell’iniziativa assicurano essere esterni e indipendenti, esperti di aziende di IA e persone con esperienza nel campo delle sovvenzioni.

CHI LO FINANZIA

L’impegno iniziale di finanziamento per l’AI Safety Fund proviene da Anthropic, Google, Microsoft e OpenAI e “dalla generosità dei nostri partner filantropici, la Patrick J. McGovern Foundation, la David and Lucile Packard Foundation, Eric Schmidt e Jaan Tallinn”. L’insieme di queste risorse ammonta a oltre 10 milioni di dollari di finanziamento iniziale. Ma dal pool di software house fanno sapere di essere “in attesa di ulteriori contributi da parte di altri partner.”

LA TASK FORCE DI OPENAI SUI RISCHI DELL’IA

Tutto ciò avviene mentre OpenAI annuncia la formazione di un team interno alla società che dovrà occuparsi di monitorare e studiare quelli che vengono definiti come rischi catastrofici dovuti all’impiego dell’intelligenza artificiale. Il team si chiama Preparedness ed è guidato da Aleksander Madry, direttore del Center for Deployable Machine Learning del MIT di Boston e membro di OpenAI da maggio 2023.

LE MOSSE DI GOOGLE

Parallelamente, Google ha deciso di avviare un programma con cui la community di esperti può cercare, individuare e condividere le vulnerabilità (insomma, i bug) dei software di intelligenza artificiale,

AL VIA LA LOBBY DELLA IA?

In merito alcuni osservatori parlano già di nascita di una lobby dell’intelligenza artificiale, un club che permetta alle prima software house giunte sul mercato di scegliersi i posti migliori. L’esistenza di iniziative di studio sui rischi dell’intelligenza artificiale poi potrebbe essere legata alla volontà di instaurare un dialogo più fitto coi legislatori scettici sulla materia, nel tentativo di superare le loro resistenze.

Al momento ad avversare i modelli di IA generativa troviamo soprattutto i titolari di diritti d’autore che sostengono che le loro opere vengano saccheggiate dall’attività di scraping degli algoritmi intelligenti. O, dicono loro, semplicemente copioni.

Torna su