Un mese fa, proprio in concomitanza della presentazione di Gpt-4o, Ilya Sutskever, cofondatore di OpenAI e suo ex chief scientist officer, se ne era andato da OpenAI senza fornire troppe spiegazioni e ora annuncia di aver creato una propria società di intelligenza artificiale (IA) incentrata sullo sviluppo di una “superintelligenza sicura”.
IL BURRASCOSO RAPPORTO CON ALTMAN
Nonostante abbiano dato vita insieme a quella che oggi è una delle più note aziende di IA, il rapporto tra Sutskever e Altman almeno nell’ultimo anno è piuttosto turbolento. Sutskever è stato infatti uno dei protagonisti dello psicodramma andato in scena lo scorso novembre quando il cda di OpenAI ha cacciato Altman.
Dopo aver partecipato all’allontanamento dell’allora Ceo, Sutskever a distanza di pochi giorni ha firmato una lettera dei dipendenti che ne chiedeva il ritorno ed esprimeva rammarico per la sua “partecipazione alle azioni del consiglio”. Ma col rapido reintegro di Altman, Sutskever è stato prontamente rimosso dal consiglio di amministrazione “e la sua posizione in azienda è diventata poco chiara”, scrive Reuters.
Lo scorso maggio è arrivata la rottura definitiva, senza però alcuna scenata. Anzi, la cordialità mostrata dai due sui social ha reso tutto quasi più sospetto. Sutskever, ringraziando Altman, ha annunciato che avrebbe lasciato la software house, certo che questa costruirà un’IA “sicura e vantaggiosa”. Veniva anche anticipato il lancio di un nuovo progetto.
After almost a decade, I have made the decision to leave OpenAI. The company’s trajectory has been nothing short of miraculous, and I’m confident that OpenAI will build AGI that is both safe and beneficial under the leadership of @sama, @gdb, @miramurati and now, under the…
— Ilya Sutskever (@ilyasut) May 14, 2024
Altman, dal blog di OpenAI, aveva risposto che l’azienda “non sarebbe ciò che è senza di lui”, che gli sarà “sempre grato per quello che ha fatto” e che si impegnerà per “portare a termine la missione iniziata insieme”.
UN PROGETTO MOLTO DIVERSO DA OPENAI (PER ORA)
Ora la nuova società di IA di Sutskever, il cui nome è Safe Superintelligence, è pronta per essere presentata al pubblico. Come hanno spiegato su X i suoi tre fondatori si propone di “affrontare insieme sicurezza e capacità, e di risolvere i problemi tecnici attraverso rivoluzionarie scoperte ingegneristiche e scientifiche”.
“Il nostro obiettivo – proseguono – non comporta alcuna distrazione da parte delle spese generali di gestione o dei cicli di produzione, e il nostro modello di business significa che la sicurezza, la protezione e il progresso sono tutti isolati dalle pressioni commerciali a breve termine”.
Superintelligence is within reach.
Building safe superintelligence (SSI) is the most important technical problem of our time.
We've started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence.
It’s called Safe Superintelligence…
— SSI Inc. (@ssi) June 19, 2024
In un’intervista a Bloomberg, Sutskever ha detto: “Questa azienda è speciale perché il suo primo prodotto sarà la superintelligenza sicura e non farà nient’altro fino a quel momento. Sarà completamente isolata dalle pressioni esterne dovute al fatto di dover gestire un prodotto grande e complicato e di dover essere bloccata in una corsa per il successo”.
La missione di Safe Superintelligence è, dunque, creare un sistema di intelligenza artificiale sicuro e potente all’interno di un’organizzazione di ricerca pura che non ha intenzione di vendere prodotti o servizi di IA a breve termine – un po’ come voleva fare OpenAI all’inizio. In altre parole, sta cercando di portare avanti il suo lavoro senza le distrazioni di rivali come Google e Anthropic.
Che si tratti di una frecciatina ad Altman? Il Ceo di OpenAI, infatti, è stato recentemente criticato da illustri ex dipendenti di prediligere il profitto alla sicurezza e di non prestare sufficiente attenzione ai “gravi rischi” posti da un’intelligenza artificiale sviluppata troppo velocemente. Tuttavia, secondo Bloomberg, come impedire a un sistema di IA di andare fuori controllo rimane un esercizio prevalentemente filosofico.
SOCI, SOCIETÀ E INVESTITORI
Sutskever ha fondato l’azienda insieme a Daniel Gross, ex responsabile dell’IA di Apple e imprenditore e investitore di startup, e Daniel Levy, “che si è costruito una solida reputazione nell’addestramento di modelli di IA di grandi dimensioni lavorando al fianco di Sutskever presso OpenAI”, scrive Bloomberg. Lo stesso Sutskever in passato ha lavorato come ricercatore presso Google Brain e ha iniziato la sua carriera al fianco di Geoffrey Hinton, uno dei cosiddetti “padrini dell’IA”, che di recente ha messo in guardia dai potenziali pericoli connessi all’IA.
Safe Superintelligence ha uffici a Palo Alto, in California, e a Tel Aviv. Tuttavia, non ha rivelato i suoi investitori, né alcun dettaglio sul suo modello di business. OpenAI è nata come organizzazione di ricerca no profit, ma ha poi creato una filiale a scopo di lucro quando ha iniziato ad aver bisogno di raccogliere finanziamenti.
Ma nonostante l’intenzione dichiarata di non fare dei profitti una priorità, secondo Bloomberg, la società avrà probabilmente pochi problemi a raccogliere fondi, dato il pedigree del suo team fondatore e l’intenso interesse per il settore. “Tra tutti i problemi che dobbiamo affrontare, la raccolta di capitali non sarà uno di questi”, ha garantito Gross.