Skip to content

openai

Cosa sappiamo su Strawberry, la nuova Intelligenza artificiale di OpenAi. E perché un po’ inquieta

LA software house OpenAi corteggiata da Apple e Microsoft avrebbe già messo a punto una ulteriore evoluzione di ChatGpt. Conosciuta col nome in codice Strawberry sarebbe in grado di agire in autonomia anticipando l'essere umano. Tutti i dettagli

Se ChatGpt è bastato, assieme agli altri algoritmi rivali, a far scendere in piazza artisti, sceneggiatori, scrittori, giornalisti e traduttori, che con l’avvento delle Intelligenze artificiali temono di perdere il lavoro (la lista è assai più lunga) e se questi ritrovati della scienza e della tecnologia hanno già spinto diversi legislatori a predisporre discipline ad hoc (dopo l’Ai Act europeo si muovono anche gli Usa col Copied Act) nel tentativo di arginarli, chissà cosa dirà il mondo di fronte a Strawberry, l’ultimo nato nel vivaio di OpenAi.

COS’È STRAWBERRY

Il poco che si sa sul progetto il cui nome in codice apparentemente è rassicurante (fragola) è infatti inquietante: l’Intelligenza artificiale made in San Francisco, anche grazie ai miliardi messi nella fornace da Microsoft, sarà programmata per essere sempre un passo avanti rispetto agli uomini, pianificando in anticipo le ricerche online, muovendosi in autonomia.

Più che un assistente virtuale una vera e propria badante elettronica che potrebbe sostituirsi in toto al suo assistito, naturalmente dopo averne compreso le routine comportamentali. Questo, almeno, è ciò che dice un documento visionato dall’agenzia Reuters.

TUTTE LE MARETTE INTERNE A OPENAI

Lo scenario dipinto è futuristico e preoccupante, dato che si va nella direzione di dare sempre maggior spazio agli algoritmi smart. Dal momento che solo fino al 2022 anche le attuali Intelligenze artificiali apparivano fantascientifiche, è lecito supporre che questo modello potenziato riuscirà realmente a fare ciò che promette. Difficile, insomma, essere sciettici.

Un altro aspetto che non consente di vivere l’avvento di una AI basata su Strawberry con tranquillità è il recente avvicendamento di esperti avvenuto nella software house di ChatGpt: molte delle personalità più importanti interne al gruppo, come Jan Leike e Ilya Sutskever, ex direttore scientifico di OpenAI – entrambi membri del Superalignment di OpenAI, comitato interno pensato per porsi questioni morali con riferimento allo sviluppo di una tecnologia ignota e potenzialmente pericolosa – secondo le fonti di TechCrunch se ne sarebbero andate sbattendo la porta perché la software house guidata da Sam Altman avrebbe fatto di tutto per ostacolarne il lavoro.

 

Queste voci sono state successivamente confermate su X dallo stesso Jan Leike: “Sono entrato in OpenAI perché pensavo fosse il posto migliore al mondo dove fare questo tipo di ricerca – ha spiegato sempre Leike – Tuttavia sono in disaccordo da un po’ di tempo con le priorità stabilite dalla leadership dell’azienda. Credo che gran parte della nostra larghezza di banda dovrebbe essere spesa per prepararci alla sicurezza, al monitoraggio, al super allineamento, e all’impatto sociale delle prossime generazioni di modelli [di Intelligenza artificiale generativa ndR]. Ma negli ultimi mesi il mio team ha dovuto lottare per avere la potenza di calcolo necessaria a questa cruciale ricerca”.

Le parole dell’ex dipendente hanno dato corpo all’ipotesi secondo cui all’interno di OpenAI vi fossero due fazioni: quella guidata da Ilya Sutskever che voleva comprendere eventuali rischi legati allo sviluppo di algoritmi sempre più intelligenti, anche a costo di rallentarne la commercializzazione e quella di tutt’altro avviso capeggiata da Sam Altman, che avrebbe dalla sua soprattutto gli investitori.

LA RISTRUTTURAZIONE DI SAM ALTMAN

Dopo la fuoriuscita di talenti, l’azienda di Sam Altman ha comunicato di aver riaperto il comitato, identificato ora come Safety and Security Committee, che sarà guidata dallo stesso Ceo, Bret Taylor, Adam D’Angelo e Nicole Seligman.

LA LETTERA ALLA SEC

Una ristrutturazione che non è bastata a placare le polemiche. Nelle ultime ore è stata avanzata una denuncia di fronte alla Securities and Exchange Commission per chiedere all’agenzia Usa di indagare sulla veridicità delle accuse secondo le quali il produttore di ChatGpt avrebbe impedito ai dipendenti di parlare al pubblico dei rischi della sua tecnologia di Intelligenza artificiale. In caso affermativo, si chiede all’agenzia di applicare rapidamente e con fermezza le sue regole contro gli accordi di non divulgazione che scoraggiano i dipendenti o gli investitori dal sollevare preoccupazioni presso gli enti di regolamentazione.

Ma la sensazione generale è comunque di impotenza, dato che il settore continua a svilupparsi alla velocità della luce all’interno di un comparto tecnico ed economico che solo ora sta iniziando a essere regolamentato dai legislatori. E dopo, si sa, è difficile richiudere il vaso di Pandora, specie se Pandora è una AI.

TANTO POTERE IN UN ALGORITMO? O IN OPENAI?

Per questo le ultime notizie su Strawberry, anziché eccitare, inquietano. OpenAi potrebbe aver trovato per così dire le chiavi d’accesso ai mistici sentieri della predizione, che non significa indovinare il futuro ma indovinare come si muoveranno gli esseri umani. Si pensi cosa potrebbe fare un algoritmo simile applicato alla Borsa.  Non solo: secondo Bloomberg, OpenAi avrebbe già in cantiere algoritmi capaci di codificare e sviluppare capacità di ragionamento simili a quelle umane.

Torna su