skip to Main Content

Frontier Model Forum

Anthropic, Google, Microsoft e OpenAi si alleano nel Frontier Model Forum per sviluppo sicuro dell’IA. Un bluff?

I quattro leader del settore AI hanno lanciato il Frontier Model Forum, organismo per garantire lo "sviluppo sicuro e responsabile" dei modelli di intelligenza artificiale più potenti. Tuttavia, per i critici si tratta di un escamotage per evitare la regolamentazione

I big della tecnologia si alleano sull’Intelligenza artificiale.

Ieri Anthropic, Google, Microsoft e OpenAI hanno annunciato l’istituzione del Frontier Model Forum, organismo nato per garantire “uno sviluppo sicuro e responsabile dei modelli di IA”.

Il gruppo si concentrerà sul coordinamento della ricerca sulla sicurezza e sull’articolazione delle migliori pratiche di quelli che vengono chiamati “modelli di IA di frontiera” che superano le capacità presenti nei modelli esistenti più avanzati. Il Frontier Model Forum mirerà a promuovere infatti la ricerca sulla sicurezza e a fornire un canale di comunicazione tra l’industria e i responsabili politici.

Come ricorda Axios, le aziende sono tra le sette che venerdì scorso si sono impegnate in un accordo con la Casa Bianca per ridurre al minimo i rischi dell’IA, condurre ulteriori ricerche sulla sicurezza dell’IA e condividere le migliori pratiche di sicurezza, tra le altre promesse.

Allo stesso tempo, il Financial Times fa presente che già esistono gruppi simili. La Partnership on AI, di cui anche Google e Microsoft erano membri fondatori, è stata costituita nel 2016 con membri provenienti da tutta la società civile, il mondo accademico e l’industria e con la missione di promuovere l’uso responsabile dell’intelligenza artificiale.

Cosa cambierà ora con Frontier Model Forum?

Se lo domandano alcuni critici che sottolineano l’assenza di obiettivi concreti o risultati misurabili negli impegni delle quattro aziende.

COSA FARÀ IL FRONTIER MODEL FORUM

Il Frontier Model Forum lavorerà anche con responsabili politici e accademici, facilitando la condivisione delle informazioni tra aziende e governi.

“L’organismo – spiega una nota – attingerà alle competenze tecniche e operative delle aziende associate a vantaggio dell’intero ecosistema di Intelligenza artificiale”, ad esempio attraverso l’avanzamento di valutazioni tecniche, lo sviluppo di una libreria pubblica di soluzioni per supportare le migliori pratiche e gli standard del settore.

PRESTO UN COMITATO CONSULTIVO ED ESECUTIVO

Nei prossimi mesi, il Frontier Model Forum “istituirà un comitato consultivo per guidarne la strategia e le priorità”. Inoltre, organizzerà anche finanziamenti con un gruppo di lavoro, oltre a creare un comitato esecutivo per guidare i suoi sforzi.

E COSA NON

Non si impegnerà in attività di lobbying, ha affermato un portavoce di OpenAI, come riporta Reuters.

GLI OBIETTIVI DEL FRONTIER MODEL FORUM

Tra gli obiettivi del Forum, promuovere la ricerca sulla sicurezza dell’IA; identificare le migliori pratiche per lo sviluppo responsabile; collaborare con responsabili politici, accademici, società civile e aziende per condividere le conoscenze su possibilità e rischi per la sicurezza; sostenere gli sforzi per sviluppare applicazioni che possano aiutare a far fronte alle maggiori sfide della società.

PARTECIPANTI CERCASI

I quattro fondatori hanno fatto sapere che l’iniziativa è aperta alle organizzazioni che sono “disposte a contribuire all’avanzamento degli sforzi del Forum anche partecipando a iniziative congiunte”.

Ma l’adesione è limitata alle aziende che costruiscono “modelli di apprendimento automatico su larga scala che superano le capacità attualmente presenti nei modelli esistenti più avanzati”.

I COMMENTI DEGLI ESPERTI

Infine, gli scettici ritengono che il progetto delle quattro big tech americane sia un tentativo per sfuggire alle maglie delle regolamentazione.

Al Financial Times, Emily Bender, una linguista computazionale dell’Università di Washington che ha svolto ricerche approfondite su modelli linguistici di grandi dimensioni, ha affermato che le rassicurazioni delle società erano “un tentativo di evitare la regolamentazione; affermare la capacità di autoregolazione, su cui sono molto scettico”.

Concentrare l’attenzione sui timori che “le macchine prenderanno vita e prenderanno il sopravvento” è stata una distrazione dai “problemi reali che abbiamo a che fare con il furto di dati, la sorveglianza e l’inserimento di tutti nella gig economy”, ha concluso Bender.

Back To Top