skip to Main Content

Sam Altman Openai

Qual è la vera anima di ChatGpt e di Sam Altman? L’analisi di Stefano Feltri

Se ChatGpt di Sam Altman e l’intelligenza artificiale diventano più simili agli esseri umani, c’è da scommettere che anche la loro anima sarà sempre più soggetta alle tentazioni e alle debolezze di quelle che tanto spesso hanno piegato intelligenze non artificiali alle logiche del profitto a danno del benessere. L'approfondimento di Stefano Feltri tratto dal suo blog Appunti

 

Qual è l’anima di ChatGpt? Non si tratta di una discussione filosofica, ma di business: ChatGpt è un prodotto e dietro ogni prodotto c’è una azienda, anche se il dibattito intorno alle prospettive dell’intelligenza artificiale scivola subito su scenari apocalittici o questioni di principio.

Eppure, come abbiamo imparato nel quindicennio dell’ascesa dei social network, il giudizio su una tecnologia non è separabile da quello sull’azienda e le persone che la sfruttano.

OpenAI e il suo amministratore delegato Sam Altman sono diversi dai Mark Zuckerberg ed Elon Musk che hanno trasformato piattaforme di condivisione in monopolisti della pubblicità capaci di distruggere i media, controllare la politica e intossicare il dibattito pubblico?

C’è qualcosa di molto nuovo e qualcosa di ben conosciuto nella traiettoria di OpenAI e Altman.

Gli ingredienti della storia sono gli stessi della parabola di Facebook-Meta e Google, ma sono proprio i dettagli societari che potrebbero fare la differenza, in meglio o in peggio.

Fondatore, non miliardario

Sam Altman è un visionario che abbina quel misto di ingenuità e velleitarismo che caratterizza la generazione dei “fondatori” precedenti: come Mark Zuckerberg ed Elon Musk, Altman si professa interessato a perseguire il benessere dell’umanità, non a fare soldi.

​​”Noi immaginiamo un mondo nel quale l’umanità prospererà in modi oggi impossibili da immaginare. Speriamo di contribuire al mondo con una intelligenza artificiale allineata con questa esplosione di prosperità”, si legge in un manifesto dei principi di Altman.

Ho tradotto “flourish” con “prosperare”, ma in inglese “flourish” non implica un aumento dei consumi o del Pil, bensì un fiorire intellettuale, perfino rinascimentale nell’accezione. L’intelligenza artificiale, nelle ambizioni di Altman, dovrebbe curare il cancro, risolvere la crisi climatica, garantire lavoro…

Tutte ambizioni già sentite.

C’è una grande differenza rispetto ai “fondatori” del passato: durante un’audizione davanti al Senato americano, Sam Altman ha dichiarato di non avere azioni di OpenAI. “Si cerchi un buon avvocato, allora”, gli ha suggerito, cinico, un senatore.

Perché OpenAI in effetti è, o almeno, è stata diversa dalle start up della Silicon Valley che diventano giganti monopolisti attraverso un percorso ormai consolidato: vari investitori iniziali mettono capitale nella primissima fase, i fondi di venture capital si aggiungono per far crescere l’azienda, poi arriva la quotazione in Borsa che rende tutti ricchi ma lascia il controllo saldamente in mano al fondatore.

Forse proprio perché Sam Altman si è occupato a lungo di incubare start up come Airbnb, ha impostato OpenAI in modo diverso nel 2015, in pratica un ente no profit per salvare il mondo attraverso la tecnologia, con la promessa di condividere risultati e conoscenze per il progresso del genere umano.

Ma anche per le utopie servono soldi, e così nel 2019 all’OpenAI originale Altman e soci decidono di affiancare una limited partnership, cioè la struttura societaria che hanno gli studi legali o anche alcune società di consulenza, come McKinsey, che è più chiusa rispetto a una società per azioni e con meno possibilità per gli investitori di pesare.

Nasce quindi OpenAI LP che riesce a raccogliere molti più soldi, ma in parallelo perde anche parte della natura open source iniziale del progetto (oggi OpenAI divulga pochissime informazioni sui suoi modelli di intelligenza artificiale, con con la motivazione ufficiale di evitare problemi di sicurezza).

A differenza di OpenAI, la nuova OpenAI LP può generare profitti e distribuirli ai soci, ma con un tetto alla redditività: i primi investitori possono guadagnare al massimo cento volte l’investimento iniziale.

Che è molto, moltissimo, ma Sam Altman ha spiegato al Senato americano che si tratta di un rendimento commisurato al rischio di investire in una tecnologia nascente.

Chi investirà in futuro, lo farà in un contesto molto più chiaro, con rischi e potenzialità più semplici da stimare e dunque – ha promesso Altman – i rendimenti saranno inferiori.

Elon Musk non ha gradito questa evoluzione, nel 2018, e ha lasciato il consiglio di amministrazione in polemica con Altman e il resto del team. Musk sostiene di aver “donato” 100 milioni di dollari a un ente no profit che poi ha smesso di essere “open” e anche di essere no profit.

In realtà, secondo un retroscena di The Semafor, Musk nel 2018 pensava che OpenAI avesse perso terreno nei confronti di Google e che non sarebbe riuscita a scalfirne il predominio, dunque ha proposto a Altman di prendere lui il controllo di OpenAI. Una mossa in puro stile Musk.

La cosa non si è fatta anche perché Musk, con Tesla, era esposto all’accusa di conflitti di interesse perché la sua unità AI di Tesla è di fatto un competitor di OpenAI.

L’applicazione della intelligenza artificiale ai sistemi di guida è da sempre uno dei principali campi di ricerca e investimento nel quale, inevitabilmente, hanno un ruolo anche le tecnologie di intelligenze artificiali generative generali (cioè applicabili un po’ a tutto) sulle quali lavora OpenAI.

L’ombra di Microsoft

Con l’uscita di Elon Musk, a OpenAI è venuto meno un potenziale finanziatore con risorse necessarie a sostenere le ambizioni dell’azienda, ma lo ha presto rimpiazzato con Microsoft, che ha deliberato un gigantesco investimento da un miliardo di dollari. Proprio la cifra che Musk aveva promesso, mettendoci però – pare – soltanto 100 milioni.

In cambio Microsoft ha ottenuto subito due cose, l’esclusiva come fornitore di servizi cloud a OpenAI, e la possibilità di commercializzare alcuni prodotti coperti da licenza basati su tecnologie di OpenAI (che però non includono quelli di rilievo generale, cioè Microsoft non può “vendere” direttamente ChatGpt o il generatore di immagini Dall-E).

Se l’investimento di Microsoft dovesse rendere il massimo possibile previsto dal tetto di OpenAI LP, quel miliardo diventerebbe 100 miliardi. Sono cifre significative anche per un gigante come il gruppo fondato da Bill Gates, che nell’anno fiscale 2022 ha fatturato 198 miliardi di dollari con profitti per 72.

Queste due mosse – la scelta di abbandonare il puro modello non profit e l’alleanza con Microsoft – indicano che per quanto sincero potesse essere il desiderio di Altman di non sottomettere OpenAI alle logiche del profitto e del monopolio, il realismo ha prevalso presto. Microsoft rappresenta da sempre quanto di più distante c’è dalle utopie predicate dalla Silicon Valley: Bill Gates per provare a cambiare il mondo ha lasciato l’azienda e lanciato una fondazione umanitaria, e la società si è dimostrata così rigida e prigioniera dei suoi schemi da mancare le due ultime rivoluzioni digitali.

Il suo motore di ricerca Bing è una pallida imitazione di Google (o almeno lo è stata, vedremo ora che ingloba ChatGpt) e l’unica presenza nel mondo social di Microsoft è con la nicchia di LinkedIn, piattaforma per i professionisti delle stesse aziende a cui Microsoft vende i suoi servizi (tipo Outlook, Teams e tutto il resto).

Con il saldo legame con OpenAI, la Microsoft guidata oggi da Satya Nadella si è assicurata un posto in prima fila per la nuova ondata di innovazione, che lascia invece indietro gli altri giganti digitali.

Google ha disperso le sue risorse ed energie in mille progetti, adesso abbandona le velleità scientifiche e punta al profitto con la fusione tra DeepMind e GoogleBrain, entrambe attive nel campo dell’intelligenza artificiale, e testa applicazioni sia nelle mail che nella ricerca.

Meta, cioè Facebook, si è persa tra rivoluzioni interrotte (la sua moneta digitale Libra) e altre mai davvero iniziate (vi ricordate l’effimera moda del metaverso, fondato sulla bolla delle criptovalute e degli Nft?), ha sviluppato dei suoi large language model (Llama) per dimostrare di essere competitiva, ma sono solo strumenti di ricerca non utilizzabili dagli utenti normali.

IBM ha annunciato così tante volte i suoi fenomenali progressi con Watson, l’intelligenza artificiale di cui si è parlato nell’ultimo decennio, che poi i risultati sono sempre risultati inferiori alle attese e se ne sono un po’ perse le tracce.

Minaccia o opportunità

Non resta che Sam Altman e, nonostante la partnership con Microsoft, questo 38enne originario di Chicago sembra una persona seria e responsabile.

Io l’ho incrociato un paio di volte alle riunioni annuali Bilderberg e, pur rispecchiando nell’abbigliamento minimalista i canoni della Silicon Valley, non ostenta la sicurezza assoluta al limite della presunzione di onnipotenza dei vari Peter Thiel, Demis Hassabis o Mustafa Suleyman.

Il fatto che, tecnicamente, non possa arricchirsi più di tanto con OpenAI perché non è azionista sembra quasi renderlo un guardiano dell’integrità del progetto.

Ha generato molti apprezzamenti anche la sua apparente prudenza: in Senato ha detto che l’intelligenza artificiale ha bisogno di regole per evitare che qualcosa vada storto e poi ha firmato una dichiarazione congiunta con altri protagonisti dell’AI breve e netta:

Mitigare il rischio dell’estinzione generato dall’intelligenza artificiale dovrebbe essere una priorità globale analoga ad altri rischi a livello sociale come le pandemie o la guerra nucleare.

Nella sua personale “offensiva di charme”, per usare la formula dei media anglosassoni, Altman pensa anche all’Europa: ha detto di non vedere l’ora di rispettare l’Artificial Intelligence Act, la normativa europea in discussione per regolare le applicazioni più problematiche dell’intelligenza artificiale.

“Ci serve proprio un ufficio in Europa”, ha detto Altman nei giorni scorsi a Parigi, cioè nella capitale dello Stato che nell’ultimo decennio si è dimostrato più ostile alle grandi piattaforme digitali americane.

C’è qualcosa che non torna, però, in queste dichiarazioni. Se Altman è il garante dell’etica e dell’integrità del progetto di OpenAI, non può disinnescare lui stesso le minacce che paventa?

In fondo, nessun’altra azienda è davvero competitiva al momento, OpenAI potrebbe usare il suo temporaneo vantaggio per impostare questo nascente settore in modo da rendere gli scenari catastrofici meno probabili.

Questo non riguarda tanto il “cosa” ChatGpt dice, cioè se può spiegare come costruire una bomba o come suicidarsi. Informazioni di quel genere sono già ampiamente disponibili online, o al massimo negli abissi del deep web.

I due temi più rilevanti sono l’addestramento delle intelligenze artificiali e l’applicazione della tecnologia.

L’uso dei dati in fase di apprendimento da parte dell’algoritmo pone una infinità di problemi in termini sia di copyright (il saccheggio di contenuti prodotti da altri) sia di discriminazioni (l’intelligenza artificiale tende a consolidare pregiudizi e modelli sociali discutibili presenti nei dati di addestramento).

E poi ci sono le applicazioni: finora le AI spaventano molto ma ancora generano soltanto informazione, cosa succederà quando saranno in grado di fare cose? Dalla guida delle automobili alla gestione delle liste d’attesa degli ospedali, alla selezione del personale.

La normativa europea dell’AI Act cerca di affrontare queste questioni, ma è difficile regolamentare tutto.

La trasparenza su dati, algoritmi e applicazioni è uno dei migliori antidoti allo strapotere discrezionale delle aziende. Ma Altman e OpenAI sembrano andare invece nella direzione di una maggiore chiusura.

E allora perché evocare continuamente l’apocalisse? Come ho già commentato su Appunti, quando aziende molto potenti chiedono più regole di solito è perché vogliono che la politica consolidi la loro posizione dominante e alzi barriere inaccessibili a nuovi, potenziali, concorrenti.

Se l’intelligenza artificiale diventerà una questione di sicurezza nazionale, o addirittura di sicurezza globale, Altman e i suoi emuli avranno il massimo della protezione possibile dalle minacce che arrivano dal mercato (concorrenza e disaffezione del pubblico).

Fermare la ricerca non è un’opzione, altrimenti, semplicemente, i cinesi arriverebbero prima a controllare una tecnologia che può generare l’estinzione della specie umana, è uno dei messaggi contenuti in quella breve dichiarazione.

Dunque, l’unica soluzione è che le imprese attive in un campo tanto delicato lavorino insieme ai decisori politici e ai regolatori.

Cooperare con le autorità, in fondo, è garanzia di buoni rapporti, e permette di sfruttare al massimo il potere della società: basta ricordare che il Twitter pre-Musk di Jack Dorsey, un fondatore anomalo un po’ come Altman, cooperava in segreto con l’FBI per censurare account o notizie sgradite e tollerare o sostenere quelli di agenti o partner che diffondevano contenuti contrari alle regole della piattaforma.

Come con il Covid

La minaccia della Cina, un po’ come quella dell’Unione sovietica durante la Guerra fredda, permette di fare pressione sul governo americano affinché protegga il grande mercato domestico e forse addirittura quello occidentale dalla sfida di Pechino, che sull’intelligenza artificiale almeno sul piano della ricerca è già competitiva.

Se guardiamo la breve dichiarazione dei protagonisti del settore, c’è già tutto nel paragone tra i pericoli di estinzione e quelli da pandemie e olocausto nucleare.

La Guerra fredda e la Guerra al Covid hanno in comune la sospensione di molte regole di mercato e la disponibilità dei governi a spendere senza limiti a favore delle imprese private capaci di risolvere la minaccia del momento, che trasformano così la catastrofe imminente nel più formidabile dei business plan.

Questa è la richiesta di Sam Altman e degli altri. Con le migliori intenzioni, certo, con l’impegno che i profitti miliardari verranno investiti per curare il cancro e combattere i mali del mondo.

Ma se ChatGpt e l’intelligenza artificiale diventano progressivamente più simili agli esseri umani, c’è da scommettere che anche la loro anima sarà sempre più soggetta alle tentazioni e alle debolezze di quelle che tanto spesso hanno piegato intelligenze non artificiali alle logiche del profitto a danno del benessere.

(Estratto dal blog Appunti di Stefano Feltri)

Back To Top