Torna operativo il Comitato di sicurezza sull’intelligenza artificiale interno a OpenAI, la software house finanziata da Microsoft al lavoro su ChatGpt & soci. E alla guida ci sarà… Sam Altman stesso, Ceo e founder del gruppo, nonché principale responsabile dell’ammutinamento dell’ultimo periodo (o, per usare le parole della CNN, “rivolta”) che aveva portato alla chiusura dell’organo collegiale sorto in seno all’ex startup.
COS’È IL COMITATO DI SICUREZZA
Per comprendere cosa sta succedendo in OpenAI occorre però riavvolgere il nastro e ripercorrere gli ultimi avvenimenti. Lo smottamento di fatto ha avuto inizio con le dimissioni di Jan Leike e Ilya Sutskever, ex direttore scientifico di OpenAI.
Entrambi erano infatti membri promotori del Superalignment di OpenAI, un comitato interno pensato per porsi questioni morali con riferimento allo sviluppo di una tecnologia ignota e potenzialmente pericolosa (non solo per ciò che concerne l’elaborazione di deep fake particolarmente raffinati, ma anche per il suo impatto sul mondo del lavoro). OpenAI aveva promesso di allocare a tale nobile finalità il 20% della potenza di calcolo a disposizione.
Secondo le fonti di TechCrunch, però, la software house guidata da Sam Altman non ha mai fornito le risorse di calcolo necessarie, bloccando di fatto il lavoro del team. Team che, con l’addio di Sutskever prima e Leike immediatamente dopo, ora è di fatto decapitato e ridotto ai minimi termini.
“Ero a capo del super allineamento di OpenAI e abbandonare questo lavoro è una delle cose più difficili che abbia mai fatto – ha scritto Jan Leike su X – perché abbiamo bisogno urgentemente di capire come si possono guidare e controllare sistemi di IA più intelligenti di noi”.
To all OpenAI employees, I want to say:
Learn to feel the AGI.
Act with the gravitas appropriate for what you're building.
I believe you can "ship" the cultural change that's needed.
I am counting on you.
The world is counting on you.
:openai-heart:
— Jan Leike (@janleike) May 17, 2024
Il post con cui l’ex membro della software house che ha appena alzato il velo su Gpt-4o annuncia il proprio addio al gruppo ha una evidente connotazione polemica: “Sono entrato in OpenAI perché pensavo fosse il posto migliore al mondo dove fare questo tipo di ricerca – ha spiegato sempre Leike – Tuttavia sono in disaccordo da un po’ di tempo con le priorità stabilite dalla leadership dell’azienda. Credo che gran parte della nostra larghezza di banda dovrebbe essere spesa per prepararci alla sicurezza, al monitoraggio, al super allineamento, e all’impatto sociale delle prossime generazioni di modelli [di Intelligenza artificiale generativa ndR]. Ma negli ultimi mesi il mio team ha dovuto lottare per avere la potenza di calcolo necessaria a questa cruciale ricerca”.
Le parole dell’ex dipendente danno corpo all’ipotesi secondo cui all’interno di OpenAI vi fossero due fazioni: quella guidata da Ilya Sutskever che voleva comprendere eventuali rischi legati allo sviluppo di algoritmi sempre più intelligenti, anche a costo di rallentarne la commercializzazione e quella di tutt’altro avviso capeggiata da Sam Altman, che avrebbe dalla sua soprattutto gli investitori. Tanto che, se in un primo momento, ovvero lo scorso novembre, il CdA era riuscito a defenestrare l’amministratore delegato, adesso sta accadendo l’opposto e in OpenAI sembra essere iniziata l’epurazione dei cesaricidi.
LA RISTRUTTURAZIONE DI SAM ALTMAN
Riavvolto il nastro, si comprendono meglio i fatti delle ultime ore. L’azienda di Sam Altman ha comunicato di aver riaperto il comitato, identificato ora come Safety and Security Committee, che sarà guidata dallo stesso Ceo, Bret Taylor, Adam D’Angelo e Nicole Seligman.
I gave my notice to OpenAI on May 14th. I admire and adore my teammates, feel the stakes of the work I am stepping away from, and my manager @Miles_Brundage has given me mentorship and opportunities of a lifetime here. This was not an easy decision to make.
— Gretchen Krueger (@GretchenMarina) May 22, 2024
“Un primo compito del Comitato sarà quello di valutare e sviluppare ulteriormente i processi e le salvaguardie di OpenAI nei prossimi 90 giorni – fa sapere la software house responsabile dell’Intelligenza artificiale più chiacchierata del pianeta -. Alla conclusione dei 90 giorni, condividerà le sue raccomandazioni con l’intero consiglio”. Tutto risolto? Non proprio, considerato che nel mentre pure Gretchen Krueger, policy researcher, ha liberato la scrivania. Motivo? Divergenze proprio sul tema della sicurezza…