skip to Main Content

Sam Altman

ChatGpt, ecco perché Sam Altman è un furbacchione

No, Sam Altman, fondatore e amministratore delegato di OpenAi, non è andato davanti al Senato degli Stati Uniti a chiedere di regolamentare l’intelligenza artificiale né perché è brutta e cattiva né perché è un paladino dei diritti, ma bensì per altri fini molto più personali. L'articolo di Stefano Feltri tratto dal suo blog Appunti

 

A leggere i giornali italiani sembra che Sam Altman, il fondatore e amministratore delegato di OpenAi, sia il classico scienziato pazzo pentito da fumetto: prima inventa ChatGpt e la nuova generazione di intelligenze artificiali, poi si pente e dice in audizione al Senato americano che possono succedere cose terribili.

In realtà, Sam Altman è andato davanti al Senato a dire una cosa diversa: serve regolamentare l’intelligenza artificiale.

A molti questa può sembrare una posizione responsabile o addirittura una richiesta di aiuto, quasi stesse chiedendo di essere fermato prima di andare troppo avanti. Ma non è così.

Sam Altman sta chiedendo alla politica di regolare il settore in modo da sancire la posizione dominante di OpenAi e di metterla al riparo da interferenze nella nascita e nell’affermazione del suo modello di business.

Anche Mark Zuckerberg, fondatore di Facebook e amministratore delegato di Meta, ha spesso offerto la sua disponibilità al legislatore americano per arrivare a una regolazione delle piattaforme social.

Ha perfino auspicato limiti, ma poi ha sempre fatto solo e soltanto l’interesse dell’azienda. La regolazione invocata era soltanto una benedizione dell’esistente.

Basta vedere le richieste di Altman per capire che lo scopo di quello che ai giornali italiani è sembrato un “allarme” è soltanto un tentativo di ottenere l’approvazione di una politica ancora incerta sulla posizione da tenere verso una tecnologia difficile da comprendere, figurarsi da regolare.

Concorrenza zero

Altman chiede un sistema di licencing e requisiti di sicurezza, cioè una restrizione all’entrata nel settore: soltanto chi rispetta certi standard può essere autorizzato a sviluppare tecnologie di intelligenza artificiale sopra una certa soglia di complessità.

In pratica, Altman chiede che ci voglia un permesso della politica per competere con OpenAi.

Inoltre, poiché anche molti altri paesi stanno entrando nel settore (leggi: Cina), gli Stati Uniti dovrebbero imporre questo sistema di licenze e regole “su una scala globale in modo da assicurare una cooperazione internazionale sulla sicurezza dell’intelligenza artificiale, anche considerando meccanismi di supervisione intergovernativa e di fissazione di standard”.

Tradotto per le persone normali, Altman vorrebbe che gli Stati Uniti vietassero a livello globale ad altre aziende o paesi di entrare nel settore presidiato da OpenAi e dal suo grande investitore Microsoft.

Se gli standard vengono definiti dagli Stati Uniti, sempre interessati a proteggere le proprie aziende e a tenere a distanza quelle di paesi poco affidabili, è evidente che una intelligenza artificiale cinese, per esempio, non verrebbe mai autorizzata a operare nel mercato americano o comunque in quello sottoposto a questo ipotetico coordinamento globale per la sicurezza.

Che sia questo il retropensiero di Altman è reso esplicito in un altro passaggio della versione scritta della sua audizione, quando dice che “OpenAi è impegnata a lavorare con i policymaker americani per mantenere la leadership degli Stati Uniti nelle aree cruciali dell’intelligenza artificiale e per assicurare che i suoi benefici vadano a quanti più americani possibile”.

Il regolato scrive le regole

Oltre mezzo secolo fa, il premio Nobel per l’economia George Stigler dell’Università di Chicago elaborava la teoria che l’ha reso famoso: “un’industria può attivamente cercare di ottenere un intervento di regolazione favorevole, oppure può essere costretta a subirlo passivamente” quindi, di solito “un’industria cerca di ottenere la regolamentazione che agisce ed opera a tutela dei suoi interessi”.

Un esempio che faceva Stigler nel suo saggio è quello del settore petrolifero che chiedeva e otteneva restrizioni alle importazioni invece che sussidi alla domanda.

Nel primo caso i benefici dell’oligopolio – in termini di minore offerta, prezzi più alti e margini elevati – vanno tutti a imprese americane.

Nel secondo invece la spesa pubblica a sostegno della domanda per tenere bassi i prezzi viene divisa anche con le imprese che entrerebbero nel mercato americano per approfittare dei sussidi e della domanda gonfiata dalla spesa pubblica.

Come evidente, il tipo di limiti e regole suggeriti da Sam Altman finirebbe per consolidare la posizione di OpenAi e scoraggiare la concorrenza, senza risolvere nessuno dei problemi che preoccupano la politica, poiché sicuramente OpenAi rispetterebbe gli standard di sicurezza ed etica fissati grazie alla collaborazione di OpenAi stessa.

Nell’audizione è emerso in modo netto che OpenAi non ha alcuna intenzione di collaborare con le autorità sulle caratteristiche della sua tecnologia che rappresentano vantaggi competitivi, cioè soprattutto sui dettagli di calibrazione dei modelli.

Così come sulla proprietà intellettuale dei dati usati per addestrare l’algoritmo o sulla riservatezza delle conversazioni che gli utenti hanno con ChatGpt (i dati sull’utilizzo del servizio, come dell’intelligenza artificiale per immagini Dall-E, possono essere usati dall’azienda a meno che l’utente non richieda espressamente il contrario).

Nel settore digitale i problemi non sono mai venuti davvero dall’assenza di regole, ma dalla presenza di regole pensate su misura delle aziende invece che a tutela degli utenti o della società.

L’esempio più noto è quello della Section 230, una legge del 1996 che esenta le piattaforme digitali dalla responsabilità di quello che pubblicano, a differenza degli individui o dei media tradizionali.

Una norma pensata in un’altra epoca per favorire la nascita di siti web che poi è stata alla base di molte delle evoluzioni più disturbanti dei social media (nessun giornale potrebbe pubblicare messaggi di odio o notizie false senza pagarne le conseguenze, penali, civili e di reputazione).

Quello è il genere di regole che Sam Altman vorrebbe per ChatGpt e OpenAi, magari in buona fede, perché vuole davvero che l’intelligenza artificiale possa curare il cancro e combattere la crisi climatica.

Ma in una democrazia c’è da sperare che non sia il regolato a decidere le regole. E che il Congresso degli Stati Uniti legiferi per limitare il potere di OpenAi, invece che per renderlo più duraturo. Per il bene degli americani, certo, ma anche di tutti noi.

(Estratto dal blog Appunti di Stefano Feltri)

Back To Top