skip to Main Content

OpenAI

I segreti sulla tarantella di Sam Altman in OpenAI. Scoop Reuters

Prima dei quattro giorni di esilio del ceo di OpenAI, Sam Altman, diversi ricercatori hanno inviato al board una lettera in cui avvertivano di una potente scoperta di intelligenza artificiale che, secondo loro, potrebbe minacciare l’umanità. Che cosa ha svelato l'agenzia Reuters

Ci sarebbero i timori del lancio di una nuova intelligenza artificiale in grado di minacciare l’umanità dietro l’allontanamento di Altman da OpenAI.

È quanto rivela oggi a sorpresa Reuters citando alcune fonti, secondo cui, prima del siluramento di Sam Altman da OpenAI venerdì scorso (durato appena cinque giorni), alcuni ricercatori avevano inviato al consiglio di amministrazione della società una lettera in cui mettevano in guardia su una scoperta nell’intelligenza artificiale che poteva minacciare l’umanità.

In questa missiva si fa riferimento a una nuova intelligenza artificiale – il nome in codice è Q* (si pronuncia Q-Star) – che la società (sviluppatrice del popolare bot ChatGpt) sarebbe pronta a commercializzare. Il nuovo modello Q* ha alimentato preoccupazioni sulla sicurezza tra il personale, con i lavoratori che hanno espresso le loro paure al board prima del licenziamento del ceo.

Prima del ritorno di Sam Altman nel ruolo di ceo avvenuto ieri, oltre 700 dipendenti di OpenAI avevano minacciare le dimissioni a inizio settimana a meno che il consiglio non si fosse dimesso e avesse reintegrato Altman e Greg Brockman, il presidente che aveva lasciato in polemica la società.

Tutti i dettagli.

LA MISSIVA DI ALLERTA AL BOARD DIETRO IL LICENZIAMENTO DI ALTMAN DA OPENAI

Secondo le fonti di Reuters, questa lettera potrebbe essere stata uno dei fattori che ha poi portato al licenziamento di Altman. Secondo una delle fonti, la dirigente di lunga data Mira Murati ha detto mercoledì ai dipendenti che una lettera sulla svolta dell’intelligenza artificiale chiamata Q* ha accelerato le azioni del consiglio.

I PROGRESSI SU Q*

Il creatore di ChatGPT ha fatto progressi su Q*, che alcuni internamente credono potrebbe essere una svolta nella ricerca della superintelligenza da parte della startup, nota anche come intelligenza generale artificiale (AGI), ha riferito una delle fonti a Reuters. Con AGI si intende un sistema in grado di eseguire un’ampia varietà di compiti a livello umano o superiore. OpenAI definisce l’AGI come sistemi di intelligenza artificiale più intelligenti degli esseri umani.

Il modello Q* è stato in grado di risolvere problemi matematici di base mai visti prima, secondo il sito di notizie tecnologiche Information, che ha aggiunto che il ritmo di sviluppo dietro il sistema aveva allarmato alcuni ricercatori sulla sicurezza. La capacità di risolvere problemi di matematica sarebbe vista come uno sviluppo significativo nell’intelligenza artificiale.

Molti esperti temono che aziende come OpenAI — sottolinea il Guardian — si stiano muovendo troppo velocemente verso lo sviluppo dell’intelligenza generale artificiale (AGI), un’intelligenza che potrebbe, in teoria, sfuggire al controllo umano.

Back To Top