Skip to content

anthropic

Aggiungi Startmag.it

alle tue fonti preferite su Google

Cosa pensa Dario Amodei, il ceo di Anthropic che non si piega ai voleri del Pentagono

Ha fatto dell'intelligenza artificiale la sua missione per migliorare la vita delle persone e non è disposto quindi a sacrificare l'etica e i valori della democrazia, nemmeno se a chiederlo è il presidente degli Stati Uniti. Ecco cosa pensa Dario Amodei, Ceo di Anthropic, dell'IA e dei suoi rischi. Fatti e commenti

 

Incredibile, ma vero, c’è ancora qualcuno che – a proprio rischio e pericolo – dice “no” al presidente degli Stati Uniti Donald Trump. Dario Amodei, ceo e cofondatore di Anthropic, nonché uno dei volti più influenti nel mondo dell’intelligenza artificiale, lo ha appena fatto rifiutandosi di far usare senza limitazioni al Pentagono la propria IA per usi militari.

L’azienda, valutata circa 350 miliardi di dollari, si distingue infatti non solo per la velocità di crescita ma anche per un approccio etico marcato nella gestione della tecnologia.

La Casa Bianca ha minacciato di ricorrere al Defense Production Act e di dichiarare l’azienda un “rischio per la catena di approvvigionamento”. Tuttavia, Amodei non si è lasciato intimidire e ha ribadito la propria posizione: la società non acconsentirà a impieghi della sua tecnologia che possano “sottovalutare, piuttosto che difendere, i valori della democrazia”.

LO SCONTRO CON IL PENTAGONO

Il governo statunitense ha sollecitato Anthropic ad accettare qualsiasi “uso legittimo” dei suoi strumenti, comprese potenziali applicazioni per la sorveglianza domestica di massa e per armi autonome. Secondo Amodei, questi scenari non erano mai stati contemplati nei contratti esistenti e non dovrebbero esserlo ora. La società ha invece offerto di collaborare con il dipartimento della Difesa per migliorare l’affidabilità dei sistemi, senza ottenere riscontri positivi.

La minaccia di usare il Defense Production Act per obbligare l’azienda a rimuovere i vincoli etici o adattare il modello alle esigenze militari rappresenterebbe, secondo esperti, un precedente senza pari nella storia della normativa statunitense.

CHI È DARIO AMODEI

Dario Amodei è nato a San Francisco ma non si è mai considerato un profilo tech tradizionale. Come ricorda Bloomberg, è cresciuto nel Mission District prima che fosse trasformato dal boom dell’industria tecnologica, in una famiglia operaia: il padre, cresciuto orfano in Italia, lavorava come artigiano della pelle fino a quando problemi di salute cronici lo costrinsero a fermarsi, la madre lavorava come responsabile di progetti in biblioteca. La sorella Daniela Amodei, oggi cofondatrice e presidente di Anthropic, lo ricorda come un bambino fuori dal comune, con un talento precoce per matematica e scienze.

Durante il liceo frequentò corsi all’University of California – Berkeley, dopo studiò fisica al California Institute of Technology per due anni e poi si trasferì alla Stanford University. In quegli anni si avvicinò all’intelligenza artificiale leggendo The Singularity Is Near di Ray Kurzweil, che prevedeva il raggiungimento dell’intelligenza umana da parte delle macchine entro il 2029 e una fusione uomo-macchina entro il 2045.

Laureatosi nel 2006, si concentrò sulle applicazioni neurologiche e biologiche della fisica e proseguì con un dottorato presso la Princeton University, studiando le strutture neuronali dei gangli degli anfibi e le retine delle salamandre. Vegetariano fin dall’infanzia, con l’eccezione di crostacei e altri invertebrati, ha raccontato: “Non ero entusiasta delle implicazioni etiche sugli animali. Ero uno scienziato. Volevo risolvere problemi di biologia e salute umana”.

A colpirlo fu soprattutto la rapidità dei progressi nel campo delle reti neurali artificiali rispetto ai ritmi più lenti della ricerca accademica tradizionale: il rilancio del deep learning attorno al 2012 e i progressi nella visione artificiale lo impressionarono profondamente. Nel 2014 Andrew Ng lo reclutò per lavorare sull’IA in Baidu. Amodei accettò immediatamente, ma dopo un anno a Baidu e uno a Google Brain, iniziò a riflettere in modo sistematico sulle implicazioni etiche dell’IA e nel 2016 pubblicò il paper Concrete Problems in AI Safety, individuando cinque aree chiave in cui i sistemi intelligenti potrebbero comportarsi in modi imprevisti e dannosi.

COME UN’IA ETICA È DIVENTATA UNA MISSIONE

Come ha raccontato Medium, la vita di Amodei è segnata da una vicenda personale che ha plasmato la sua visione sull’IA. La morte del padre nel 2006 per una malattia rara, divenuta curabile solo pochi anni dopo, ha convinto il Ceo di Anthropic a considerare l’intelligenza artificiale come uno strumento per accelerare la ricerca scientifica. Amodei ha spiegato di provare “rabbia quando viene etichettato come un ‘doomer’ che vuole frenare lo sviluppo”, sottolineando come la perdita di suo padre gli abbia fatto comprendere appieno i potenziali benefici della tecnologia.

LA FILOSOFIA TECNICA E AZIENDALE

Amodei, fisico teorico di formazione, sostiene convintamente le cosiddette “leggi di scala”, secondo cui un aumento di dati e potenza di calcolo produce miglioramenti prevedibili nelle prestazioni dei modelli. E avverte anche che la crescita dell’IA è esponenziale: “due anni prima che l’esponenziale impazzisca del tutto, sembra che stia solo iniziando”.

Anthropic, definita da Amodei la “società di software con la crescita più rapida della storia a questa scala”, non si limita ai chatbot per consumatori, ma vende la tecnologia di base tramite API a settori come farmaceutica e finanza.

Il ricercatore e imprenditore, tuttavia, riconosce la difficoltà di applicare principi etici assoluti nella gestione di un’azienda così grande: l’affermazione “nessuna persona cattiva dovrebbe mai beneficiare del nostro successo” risulta infatti complicata da rispettare nella pratica.

LA VISIONE SULL’IA

Come ha spiegato in un’intervista al New York Times, Amodei immagina un futuro in cui l’IA possa rivoluzionare la biologia, agendo come un ricercatore autonomo capace di accelerare la cura di malattie quali il cancro e l’Alzheimer, senza bisogno di una “superintelligenza divina”. Preferisce invece un mondo popolato da circa 100 milioni di modelli ciascuno al massimo delle capacità umane, un vero e proprio “paese di geni”.

Sul piano economico, prevede una crescita del Pil senza precedenti, con una ricchezza che aumenterebbe così rapidamente da rendere la distribuzione complessa: “la crescita è davvero facile, è la distribuzione che è difficile”.

OCCUPAZIONE E RISCHI GEOPOLITICI

Sull’impatto occupazionale, Amodei si è espresso più volte e recentemente ha affermato che la velocità della transizione tecnologica potrebbe portare a un “bagno di sangue per i lavori d’ufficio di livello base”, colpendo professioni nel settore legale, finanziario e della programmazione.

Ritiene inoltre che la fase “centauro”, in cui l’uomo e la macchina collaborano, potrebbe essere molto breve prima che la macchina diventi autonoma. E, intanto, la distinzione tra lavoro cognitivo e operazioni fisiche è sempre più labile, con la robotica destinata ad automatizzare anche compiti manuali.

Sul fronte militare, teme la possibilità di sciami di droni autonomi e l’uso dell’IA per aggirare le protezioni costituzionali sulla privacy, pur essendo scettico su rallentamenti globali nella ricerca, considerata troppo preziosa economicamente e strategicamente.

SICUREZZA E CONTROLLO

Per gestire i rischi, Anthropic addestra i propri modelli secondo una “costituzione” di 75 pagine basata su principi etici, monitorando persino neuroni artificiali che si attivano in simulazioni di ansia umana. “La ragione per cui avverto del rischio è per non dover rallentare”, ha detto Amodei, puntando a uno sviluppo sicuro che liberi tutto il potenziale salvavita dell’IA senza sottrarre la libertà umana.

LA RIVALITÀ CON OPENAI

Un approccio abbastanza lontano dalla maggior parte dei competitor, nonché alla radice del rapporto conflittuale con Sam Altman. Amodei infatti dopo essere entrato inizialmente in OpenAI come responsabile della sicurezza dell’IA, ha lasciato l’azienda nel 2020 per divergenze di vedute, fondando poi Anthropic con sette ex colleghi.

La rivalità si è intensificata con campagne pubblicitarie e commenti pubblici, culminando in momenti come la recente apparizione all’AI Summit in India, dove i due Ceo si sono rifiutati di stringersi la mano in mondovisione.

Torna su