Skip to content

conflitto interessi altman openai

OpenAI va alla guerra con la Difesa Usa

Decine di attivisti si sono radunati sotto la sede di OpenAI a San Francisco, chiedendo il boicottaggio dell'intelligenza artificiale alla luce dell'annuncio della società guidata da Sam Altman di collaborare con il Pentagono

Proteste sotto la sede di OpenAI a San Francisco contro l’ambizione della società di lavorare con il Pentagono.

A inizio settimana una trentina di manifestanti si sono radunati fuori dalla sede della società dietro ChatChpt e guidata da Sam Altman (nella foto) protestando contro lo sviluppo dell’intelligenza artificiale di prossima generazione definita intelligente quanto la persona media, chiamata Agi, da parte dell’azienda.

L’iniziativa, organizzata dai gruppi Pause AI e No Agi, puntava a chiedere agli ingegneri di OpenAI di abbandonare il loro lavoro su sistemi di intelligenza artificiale avanzati, riporta Bloomberg.

I manifestanti erano particolarmente preoccupati per come a gennaio OpenAI avesse cambiato le sue politiche di utilizzo in sordina, rimuovendo il divieto di applicazioni “militari e di guerra” per i suoi prodotti.

Inoltre, sempre a gennaio un dirigente di OpenAI ha dichiarato in un’intervista a Bloomberg che la società sta lavorando con il Dipartimento della Difesa degli Stati Uniti su un software di sicurezza informatica open source ed è in trattative con il governo degli Stati Uniti per aiutare a prevenire il suicidio dei veterani.

La notizia arriva dopo anni di polemiche sulle aziende tecnologiche che sviluppano tecnologia per uso militare. I dipendenti di tutti i colossi tecnologici coinvolti con contratti militari hanno espresso preoccupazione dopo che migliaia di dipendenti di Google hanno costretto il colosso di Mountain View ad abbandonare il Project Maven. Ovvero il programma del Pentagono che punta a costruire sistemi di riconoscimento delle immagini per migliorare gli attacchi dei droni in zone di guerra.

Tutti i dettagli.

LE ULTIME MOSSE DI OPENAI

A inizio anno OpenAI ha ritirato il divieto sull’uso militare di ChatGpt e dei suoi altri strumenti di intelligenza artificiale. Sebbene le sue politiche affermino ancora che gli utenti non dovrebbero “utilizzare il nostro servizio per danneggiare se stessi o gli altri”, incluso per “sviluppare o utilizzare armi”, rilevava la Cnbc.

La mossa è coincisa con l’annuncio della collaborazione con il Dipartimento della Difesa degli Stati Uniti sugli strumenti di intelligenza artificiale, inclusi strumenti di sicurezza informatica open source, secondo un’intervista rilasciata da Anna Makanju, vicepresidente per gli affari globali di OpenAI, alla Bloomberg House al World Economic Forum di Davos insieme al ceo Sam Altman.

GLI ANNUNCI A DAVOS

Durante l’intervista al Forum di Davos, la manager di OpenAI ha sostenuto che la sua collaborazione con l’esercito “è molto in linea con ciò che vogliamo vedere nel mondo”.

Dopodiché un portavoce della società ha spiegato: “La nostra politica non consente che i nostri strumenti siano utilizzati per danneggiare le persone, sviluppare armi, per la sorveglianza delle comunicazioni, o per ferire altri o distruggere proprietà”. “Esistono, tuttavia, casi d’uso legati alla sicurezza nazionale che sono in linea con la nostra missione” ha precisato.

La silenziosa inversione di rotta della politica di OpenAI non è piaciuta agli organizzatori della manifestazione di questa settimana.

LE PROTESTE CONTRO L’AGI

Il messaggio arrivato dal collettivo statunitense nella giornata di lunedì è chiaro: fermare lo sviluppo dell’intelligenza artificiale che potrebbe portare a un futuro in cui le macchine supereranno l’intelligenza umana, astenendosi da qualsiasi ulteriore affiliazione militare.

“Il 12 febbraio abbiamo chiesto a OpenAI di porre fine al suo rapporto con il Pentagono e di non accettare alcun cliente militare” si legge nella descrizione dell’evento. “Se i loro limiti etici e di sicurezza possono essere rivisti per comodità, non ci si può fidare di loro”.

Sia Pause AI che No Agi condividono l’obiettivo comune di fermare lo sviluppo della nuova intelligenza artificiale ma i loro metodi divergono. La prima è aperta all’idea di una tecnologia realizzata con confini e limiti, ossia in modo sicuro, mentre No Agi si oppone fermamente alla sua creazione, sottolineando le potenziali minacce psicologiche e la perdita di significato che ne deriverebbe per la vita dell’uomo, riporta l’Ansa.

A Bloomberg, Sam Kirchner, tra gli organizzatori della manifestazione, ha dichiarato che l’Agi rimuoverà significato dall’esistenza umana ostacolando la nostra capacità di contribuire e fare scoperte.

LA POSIZIONE DELLA SOCIETÀ GUIDATA DA SAM ALTMAN

Un portavoce di OpenAI ha affermato che la società mantiene il divieto di utilizzare i suoi strumenti per costruire armi, danneggiare persone o distruggere proprietà.

Torna su