Forse anche per provare a sedare le voci dell’ultimo periodo, alimentate da diversi addii eccellenti molto polemici circa la gestione di Sam Altman della software house (il Ceo lo scorso novembre fu pure defenestrato salvo poi essere rimesso al proprio posto dagli investitori che temevano che OpenAi perdesse il vantaggio maturato sulle rivali), la Casa madre di ChatGpt ha reso pubblica la “GPT-4o System Card”, un documento di ricerca che illustra le misure di sicurezza e le valutazioni dei rischi condotte prima del lancio del suo ultimo modello di intelligenza artificiale.
QUANTO È PERICOLOSO CHATGPT SECONDO CHI LO HA CREATO
Obiettivamente è difficile trovare un dottor Frankenstein che ammetta la pericolosità della propria creatura e, dato che diverse defezioni di persone di spicco di OpenAi hanno di fatto comportato la dismissione del Superalignment di OpenAI, ovvero il comitato interno pensato per porsi questioni morali con riferimento allo sviluppo di una tecnologia ignota e potenzialmente pericolosa (non solo per ciò che concerne l’elaborazione di deep fake particolarmente raffinati, ma anche per il suo impatto sul mondo del lavoro), sostituito da un consiglio presieduto dallo stesso Altman, i risultati sono da prendere con le molle.
LE VOCI DI RISCHIO
A ogni modo, secondo la valutazione di OpenAI, GPT-4o, ovvero l’ultima Intelligenza artificiale sfornata dalla prolifica software house alimentata dai miliardi di Microsoft e, nell’ultimo periodo, Apple, presenterebbe un “rischio medio”. Questa classificazione deriva dalla valutazione in quattro categorie di rischio: sicurezza informatica, minacce biologiche, persuasione e autonomia del modello.
NUOVI DUBBI ALL’ORIZZONTE?
Tutte voci considerate a basso rischio, a eccezione della persuasione, dove alcuni campioni di scrittura di GPT-4o si sono dimostrati più efficaci nel convincere i lettori rispetto a testi scritti dalle controparti umane.
CHI CONTROLLA LE IA?
Una spia importante che sicuramente rinfocolerà i dubbi di chi guarda con sospetto l’opera delle Intelligenze artificiali, tanto più in un periodo estremamente delicato come questo che, tra guerre e presidenziali statunitensi, rischia già di essere minato da bot propagandistici sguinzagliati per il Web.
OPENAI PERDE ALTRI PEZZI
A ogni modo il documento serve a OpenAi per dimostrare quella trasparenza che secondo le accuse le difetterebbe. Intanto però la software house guidata da Sam Altman continua a perdere nomi di spicco. A inizio agosto due dei co-fondatori storici hanno lasciato l’azienda: John Schulman è passato alla rivale Anthropic, mentre Greg Brockman ha invece detto di volersi dedicare a tutt’altro.
IL TURNOVER FRENETICO IN OPENAI
Questo vuol dire che, degli 11 manager originari del 2015, in OpenAi restano solo l’attuale Ceo, Sam Altman, e il ricercatore Wojciech Zaremba. Il turnover – si sa – è massiccio in ogni startup, specie se subentrano investitori importanti, tuttavia di fronte alla recente emorragia di personale apicale è difficile non pensare ai numerosi adii polemici dell’ultimissimo periodo.
LE POLEMICHE INTESTINE
Lo smottamento di fatto ha avuto inizio con le dimissioni di Jan Leike e Ilya Sutskever, ex direttore scientifico di OpenAI. “Ero a capo del super allineamento di OpenAI e abbandonare questo lavoro è una delle cose più difficili che abbia mai fatto – ha scritto Jan Leike su X – perché abbiamo bisogno urgentemente di capire come si possono guidare e controllare sistemi di IA più intelligenti di noi”.
LE ACCUSE DI LEIKE
“Sono entrato in OpenAI perché pensavo fosse il posto migliore al mondo dove fare questo tipo di ricerca – ha spiegato sempre Leike – Tuttavia sono in disaccordo da un po’ di tempo con le priorità stabilite dalla leadership dell’azienda. Credo che gran parte della nostra larghezza di banda dovrebbe essere spesa per prepararci alla sicurezza, al monitoraggio, al super allineamento, e all’impatto sociale delle prossime generazioni di modelli [di Intelligenza artificiale generativa ndR]. Ma negli ultimi mesi il mio team ha dovuto lottare per avere la potenza di calcolo necessaria a questa cruciale ricerca”.
SAM ALTMAN HA VINTO?
Le parole dell’ex dipendente hanno dato corpo all’ipotesi secondo cui all’interno di OpenAI vi fossero due fazioni: quella guidata da Ilya Sutskever che voleva comprendere eventuali rischi legati allo sviluppo di algoritmi sempre più intelligenti, anche a costo di rallentarne la commercializzazione e quella di tutt’altro avviso capeggiata da Sam Altman, che avrebbe avuto dalla sua soprattutto gli investitori. E se in un primo momento, ovvero lo scorso novembre, il CdA era riuscito a defenestrare l’amministratore delegato, adesso la situazione si è drasticamente ribaltata e gli ultimi addii eccellenti parrebbero dimostrare che il Ceo solo ora abbia terminato il repulisti dei propri cesaricidi.