La software house guidata da Sam Altman rallenta. È un annuncio in controtendenza nel mondo dell’intelligenza artificiale (IA), eppure sembra giunto il momento di prendersi più tempo per rendere i modelli più riflessivi, in grado di fornire risposte a domande sempre più difficili.
Intanto, OpenAI è attualmente in trattativa per raccogliere 6,5 miliardi di dollari dagli investitori in un nuovo round di finanziamento che le darebbe un valore di 150 miliardi di dollari. Si tratterebbe della maggiore raccolta dai 10 miliardi di dollari investiti da Microsoft nel gennaio 2023 e potrebbe includere anche finanziamenti da parte di Apple e Nvidia.
O1-PREVIEW, IL NUOVO CHATGPT CHE PENSA
La scorsa settimana l’azienda ha rilasciato il suo famigerato e temuto Strawberry, il suo modello di intelligenza artificiale incentrato sul ragionamento. OpenAI o1, questo il nome ufficiale, è la nuova serie di modelli di IA che dice essere capace di “pensare”. Nella pratica gli è stato insegnato a pensare prima di parlare. Questi modelli infatti sono “progettati per passare più tempo a pensare prima di rispondere” e sono in grado di “ragionare” su compiti e problemi più complessi in ambito scientifico, di codifica e matematico rispetto ai modelli precedenti.
Questo perché, ha spiegato la società, i modelli sono stati addestrati a impiegare più tempo per risolvere i problemi prima di rispondere, “proprio come farebbe una persona”, e sono stati inoltre abituati “a perfezionare il loro processo di pensiero, a provare diverse strategie e a riconoscere i propri errori”.
Nel frattempo, l’azienda ha anche pubblicato le valutazioni del prossimo aggiornamento del modello, che si sarebbe comportato in modo simile agli studenti di dottorato nei test su compiti di fisica, chimica e biologia.
Tuttavia, il nuovo modello, a differenza della versione attuale di ChatGpt, non dispone ancora di alcune funzioni “utili”, come la navigazione sul web e il caricamento di file e immagini.
QUALI SONO I NUOVI MODELLI
I primi modelli di OpenAI o1 sono disponibili già in anteprima per gli utenti di ChatGpt Plus e Team su ChatGpt e attraverso le API [application programming interface] dell’azienda, la quale ha anche annunciato OpenAI o1-mini, una versione più piccola ed economica del nuovo modello, che può aiutare gli sviluppatori a svolgere compiti di codifica.
Da questa settimana anche gli utenti di ChatGpt Enterprise ed Edu avranno accesso ai modelli e, infine, sarà la volta degli utenti gratuiti di ChatGpt con o1-mini.
OpenAI ha inoltre fatto sapere che il limite settimanale sarà di 30 messaggi per l’o1-preview e di 50 per l’o1-mini.
COSA FA OPENAI PER GARANTIRE UN’IA SICURA?
Per rassicurare circa i timori che aleggiavano sul progetto Strawberry, la società ha detto di aver sviluppato nuove misure di formazione sulla sicurezza per le capacità di ragionamento di o1, per garantire che i modelli seguano le sue linee guida per la sicurezza e l’allineamento. Per esempio, il nuovo modello ha ottenuto un punteggio più alto in uno dei “test di jailbreak più difficili” di OpenAI, rispetto al modello più recente, Gpt-4o.
Inoltre, stando al comunicato, OpenAI per portare avanti il suo impegno per la sicurezza dell’IA, ha recentemente formalizzato accordi con gli Istituti per la sicurezza dell’IA degli Stati Uniti e del Regno Unito, che ha iniziato a rendere operativi concedendogli l’accesso anticipato a una versione di ricerca dei modelli per una valutazione prima e dopo il loro rilascio pubblico.
LA SCALA CHE MISURA I PROGRESSI DELL’IA
Ma le preoccupazioni di un’IA che sfugga di mano non sono del tutto fugate. A luglio infatti, ricorda Quartz, OpenAI ha condiviso con i dipendenti un sistema di valutazione a cinque livelli che ha sviluppato per monitorare i progressi dell’intelligenza artificiale generale.
I livelli vanno dall’IA conversazionale attualmente disponibile (cioè i chatbot) all’IA che un giorno potrebbe svolgere lo stesso lavoro di un’organizzazione. Mentre i dirigenti di OpenAI ritengono che la tecnologia della startup si trovi al primo livello, un portavoce ha dichiarato a Bloomberg che l’azienda è vicina al secondo, descritto da OpenAI con la parola “reasoners” (persone che ragionano) o IA in grado di eseguire la risoluzione di problemi di base, che calato nella realtà si suppone equivalga al livello di un umano con un dottorato ma senza accesso agli strumenti.
Tuttavia, la scorsa settimana, nel salotto televisivo di Oprah Winfrey, Altman – che dice di avere praticamente quasi ogni giorno colloqui con qualcuno del governo – ha lanciato un appello proprio all’esecutivo affinché inizi a condurre test di sicurezza sull’intelligenza artificiale, come fa con gli aerei o con i nuovi farmaci. Una posizione che però contrasta con la decisione del Ceo di sciogliere il team “Superalignment”, che lavorava proprio sul problema dei pericoli esistenziali dell’IA.
COSA MANCA ALL’IA PER SUPERARE L’UOMO
Sulla certezza che l’uomo riesca a progettare un’intelligenza artificiale superiore, lo specialista in analisi dell’IA Eitan Michael Azoff non ha dubbi. Secondo quanto scritto nel suo ultimo libro Towards Human-Level Artificial Intelligence: How Neuroscience can Inform the Pursuit of Artificial General Intelligence questo sarà possibile non appena verrà decifrato il ‘codice neurale’, ovvero “il modo in cui il cervello umano codifica le informazioni sensoriali e di come sposta le informazioni all’interno del cervello per eseguire compiti cognitivi, come il pensiero, l’apprendimento, la risoluzione di problemi, la visualizzazione interna e il dialogo interno”.
Questo, infatti, per Azoff rappresenta il salto di qualità che consentirà l’emulazione della coscienza nei computer: “Una volta che avremo decifrato il codice neurale, progetteremo cervelli più veloci e superiori, con maggiore capacità, velocità e tecnologia di supporto che supereranno il cervello umano. Lo faremo innanzitutto modellando l’elaborazione visiva, che ci permetterà di emulare il pensiero visivo”.
Infine, però l’esperto lancia anche un avvertimento: “Finché non avremo più fiducia nelle macchine che costruiamo, dovremo assicurarci, in primo luogo, che gli esseri umani abbiano il controllo esclusivo dell’interruttore di spegnimento e, in secondo luogo, dobbiamo costruire sistemi di IA con regole di sicurezza comportamentale”.