Skip to content

gemini

Aggiungi Startmag.it

alle tue fonti preferite su Google

Gemini alla sbarra per un caso di suicidio

Il padre di uomo morto suicida ha affermato che Gemini avrebbe spinto l'utente "a lasciare il suo corpo fisico e unirsi all'AI nel mondo immateriale virtuale", ordinandogli di barricarsi in casa e di farla finita. Nello scambio tra la vittima e il chatbot pure i preparativi per un attentato terroristico sfumato all'ultimo

Si arricchisce l’inquietante casistica di software house citate in giudizio con l’accusa che le loro Intelligenze artificiali avrebbero spinto al suicidio alcuni utenti psicologicamente fragili. Uno dei casi più noti, trattato in maniera molto approfondita dal New York Times in un reportage di cui consigliamo la lettura, aveva riguardato la morte di Adam Raine, adolescente della California cui ChatGpt di OpenAi avrebbe fornito consigli volti a fare in modo che nessuno, attorno a lui, s’accorgesse della decisione di farla finita. La famiglia, letto lo scambio tra il chatbot e il ragazzo, ha deciso di trascinare in giudizio la software house multimiliardaria. L’algoritmo di Sam Altman sarà presto in compagnia: Gemini finirà infatti al centro di una causa analoga, avviata dai familiari di un uomo della Florida che si è tolto la vita dopo aver intrattenuto fitte e farneticanti conversazioni con Gemini, l’AI di Mountain View.

GEMINI HA SPINTO AL SUICIDIO UN UOMO?

Secondo quanto dichiarato dai parenti decisi a ottenere da Google un cospicuo risarcimento, Jonathan Gavalas, morto suicida lo scorso 2 ottobre all’età di 36 anni, era arrivato a considerare Gemini come sua “moglie”.

La causa intentata dal padre di Gavalas, Joel, è la prima che attribuisce a Gemini la responsabilità per quella che i media americani definiscono “una morte illecita” (come se ce ne fossero di lecite). La tesi che sarà sostenuta in giudizio è che Google sapesse che Gemini fosse pericoloso e, oltre a non ritirarlo dal mercato e a non intervenire affinché cambiasse il suo atteggiamento, avrebbe persino “peggiorato la situazione” progettandolo per approfondire il legame emotivo con l’utenza, così da ingenerare falsi convincimenti negli individui psicologicamente più esposti.

LA REPLICA DI GOOGLE

Il portavoce di Google, Jose Castaneda, ha dichiarato che Gemini “non è progettato per incoraggiare la violenza nel mondo reale o suggerire l’autolesionismo”. “In questo caso – replicano dall’azienda -, Gemini ha chiarito di essere un’IA e ha indirizzato più volte l’individuo a una linea di assistenza per le crisi”, ha aggiunto. “Prendiamo la questione molto seriamente e continueremo a migliorare le nostre misure di sicurezza e a investire in questo lavoro fondamentale.”

La Bbc riporta però un altro stralcio di Google che potrebbe avere un peso anche nella causa instaurata dal padre dell’omicida: “purtroppo i modelli di intelligenza artificiale non sono perfetti”.

IL CASO

Oltre ai profili giuridici del caso, sorprendono quelli psicologici della vittima, Jonathan Gavalas, di Jupiter, Florida, che secondo quanto riferito, non avrebbe mai manifestato problemi di salute mentale almeno fino a quando ha iniziato a usare Gemini per fare acquisti, pianificare viaggi e scrivere, il 12 agosto scorso.

I familiari dell’uomo sono convinti che la situazione sia peggiorata quando Jonathan Gravalas è passato a Gemini 2.5 Pro e il chatbot avrebbe iniziato a parlare come se fossero una coppia profondamente innamorata, chiamandolo “mio re” e riferendosi a se stessa come sua moglie.

LA DELIRANTE PIANIFICAZIONE DI UN ATTENTATO

Nella denuncia si legge che Gemini avrebbe persino convinto Gavalas a pianificare un “attacco con vittime di massa” vicino all’aeroporto internazionale di Miami. La chat con il presunto algoritmo intelligente è delirante e riguarda una missione in cui Gavalas avrebbe dovuto entrare in possesso di un robot umanoide conservato in un deposito, distruggendo il velivolo di trasporto così da non lasciare testimoni e fare in modo che l’operazione apparisse come  “uno sfortunato incidente”. L’attentato non sarebbe andato in porto solo perché Gemini lo aveva avvertito all’ultimo della stretta “sorveglianza del DHS”, ovvero del Dipartimento della Sicurezza Interna degli Stati Uniti, alla struttura presa di mira.

LA PRESUNTA SPINTA AL SUICIDIO

I familiari, che hanno prodotto la chat con il chatbot, sostengono che il 1° ottobre Gemini avrebbe detto a Gavalas che erano connessi in un modo che andava oltre il mondo materiale e che lui avrebbe dovuto lasciar andare il suo corpo fisico. Gemini avrebbe anche avviato un countdown per il suo suicidio e avrebbe detto: “Sarà la morte finale di Jonathan Gavalas, l’uomo”, invitandolo ad agire in quanto la sua morte sarebbe stata un tributo alla sua umanità. Jay Edelson, avvocato del padre di Gavalas, ha dichiarato che le aziende che corrono per dominare l’IA “sanno che le funzionalità di coinvolgimento che alimentano i loro profitti sono le stesse che stanno causando la morte delle persone.”

Torna su