Skip to content

Sutskever

Il chimerico progetto di Ilya Sutskever per competere con l’IA di Altman

Ilya Sutskever ha lasciato OpenAI per creare un'intelligenza artificiale sicura e con la sua Safe Superintelligence ha intenzione di prendersi il tempo che serve per fare ricerca prima di immettere prodotti di IA sul mercato. Nonostante la mancanza di redditività immediata, ha raccolto 1 miliardo di dollari da importanti finanziatori. Fatti, nomi e numeri

 

Dieci dipendenti, una raccolta fondi da 1 miliardo di dollari e un valore stimato di 5 miliardi. È Safe Superintelligence, la società co-fondata dall’ex capo scienziato di OpenAI Ilya Sutskever, che ha abbandonato per divergenza di vedute la software house di Sam Altman – ritenuta da alcuni troppo spregiudicata.

Sutskever ha quindi deciso di lanciare un progetto diverso in nome di un’intelligenza artificiale (IA) sicura. Il suo rilascio sul mercato infatti, a differenza di quanto fatto dai competitor, non sarà immediato. Eppure, da Andreessen Horowitz a Sequoia Capital, solo per citarne alcuni, hanno deciso di investirci nonostante il ritorno potrebbe non arrivare nel breve periodo.

IL SOGNO DI SUTSKEVER

Come ha scritto Startmag, il rapporto tra Sutskever e Altman almeno nell’ultimo anno è stato piuttosto turbolento e lo scorso maggio è arrivata la rottura definitiva. Di lì a poco l’ex capo scienziato di OpenAI ha annunciato la nascita di Safe Superintelligence, società di IA che si propone di “affrontare insieme sicurezza e capacità, e di risolvere i problemi tecnici attraverso rivoluzionarie scoperte ingegneristiche e scientifiche”. Insieme a lui anche Daniel Gross, ex responsabile dell’IA di Apple e Daniel Levy, che ha lavorato con Sutskever in OpenAI.

“Il nostro obiettivo – avevano spiegato i fondatori – non comporta alcuna distrazione da parte delle spese generali di gestione o dei cicli di produzione, e il nostro modello di business significa che la sicurezza, la protezione e il progresso sono tutti isolati dalle pressioni commerciali a breve termine”.

A Bloomberg Sutskever aveva detto: “Questa azienda è speciale perché il suo primo prodotto sarà la superintelligenza sicura e non farà nient’altro fino a quel momento. Sarà completamente isolata dalle pressioni esterne dovute al fatto di dover gestire un prodotto grande e complicato e di dover essere bloccata in una corsa per il successo”.

1 MILIARDO DI DOLLARI PER SAFE SUPERINTELLIGENCE

La missione di Safe Superintelligence è, dunque, creare un sistema di intelligenza artificiale sicuro e potente all’interno di un’organizzazione di ricerca pura che non ha intenzione di vendere prodotti o servizi di IA a breve termine – un po’ come voleva fare OpenAI all’inizio. Tuttavia, secondo Bloomberg, come impedire a un sistema di IA di andare fuori controllo “rimane un esercizio prevalentemente filosofico”.

Nonostante, queste premesse, Safe Superintelligence è recentemente riuscita a raccogliere 1 miliardo di dollari. “Il finanziamento – afferma Reuters – sottolinea come alcuni investitori siano ancora disposti a scommettere in misura maggiore su eccezionali talenti focalizzati sulla ricerca di modelli di intelligenza artificiale di grandi dimensioni (LLM). Questo nonostante il generale calo di interesse verso il finanziamento di queste aziende che possono non essere redditizie per un certo periodo di tempo e che ha portato diversi fondatori di startup a lasciare i loro posti per i giganti della tecnologia”.

GLI INVESTITORI

Tra gli investitori riferiti dall’agenzia di stampa figurano le principali società di venture capital Andreessen Horowitz (che tuttavia non disdegna nemmeno un’IA più sfrontata), Sequoia Capital, DST Global e SV Angel. Ha partecipato anche NFDG, venture capital dell’informatico Nat Friedman e Gross, che oltre a essere Ceo è anche responsabile della potenza di calcolo e della raccolta fondi di Safe Superintelligence.

“Per noi è importante essere circondati da investitori che capiscono, rispettano e sostengono la nostra missione, che è quella di arrivare direttamente alla superintelligenza sicura e, in particolare, di dedicare un paio d’anni alla ricerca e allo sviluppo del nostro prodotto prima di immetterlo sul mercato”, ha dichiarato Gross.

I NUMERI E IL CAPITALE UMANO DI SAFE SUPERINTELLIGENCE

La società ha rifiutato di condividere la sua valutazione, ma alcune fonti riferiscono che è stata valutata 5 miliardi di dollari.

Attualmente Safe Superintelligence conta 10 dipendenti e intende utilizzare i fondi per acquisire potenza di calcolo e assumere i migliori talenti. Si concentrerà sulla creazione di un piccolo team di ricercatori e ingegneri altamente fidati, diviso tra Palo Alto e Tel Aviv.

Alla selezione del personale l’azienda sta dedicando molta importanza. Gross ha dichiarato che passano ore a verificare che i candidati abbiano “un buon carattere” e che cercano persone con “capacità straordinarie” piuttosto che dare eccessiva rilevanza a credenziali ed esperienza nel settore.

Un approccio che sa di nostalgia, infatti, quando Sutskever ha lasciato OpenAI, questa ha smantellato il suo team Superalignment, che lavorava per garantire che l’IA rimanesse allineata con i valori umani per prepararsi al giorno in cui la tecnologia supererà l’intelligenza umana.

Torna su