Il settore assicurativo statunitense sta valutando una progressiva ritirata dalle coperture legate all’intelligenza artificiale. Mentre chatbot, agenti autonomi e modelli generativi entrano con rapidità nei processi aziendali, cresce in parallelo il timore di richieste di risarcimento da miliardi di dollari per eventuali incidenti causati da questi modelli.
Diverse compagnie stanno quindi chiedendo ai regolatori l’autorizzazione a introdurre clausole di esclusione – segnale che evidenzia una crescente incertezza sulle responsabilità e sui rischi sistemici associati all’uso dell’IA.
COMPAGNIE CHE VOGLIONO TIRARSI FUORI
Stando al Financial Times, AIG, Great American e WR Berkley hanno presentato ai regolatori statunitensi richieste per offrire polizze che non includano i rischi connessi all’impiego di strumenti basati sull’intelligenza artificiale. In particolare, WR Berkley ha proposto un’esclusione che impedirebbe di risarcire richieste legate a “qualsiasi uso reale o presunto” dell’IA, anche quando incorporata in prodotti o servizi venduti dalle aziende assicurative.
MOTIVAZIONI E TIMORI REGOLATORI
Nel rispondere al regolatore dell’Illinois, AIG ha definito l’IA generativa una “tecnologia estremamente ampia”, rilevando che la probabilità di eventi capaci di generare richieste di risarcimento “probabilmente aumenterà nel tempo”. La società ha precisato di non avere al momento intenzione di applicare le esclusioni già presentate, ma di voler mantenere la possibilità di farlo in futuro. Great American e WR Berkley non hanno commentato le iniziative in corso.
UN’INCOGNITA DIFFICILE DA ASSICURARE
Il Ft ha raccolto il parere di alcuni esperti del settore, tra cui Dennis Bertram, responsabile cyber per l’Europa di Mosaic, secondo cui gli output dei modelli di intelligenza artificiale sono considerati dalle compagnie assicurative troppo imprevedibili e opachi. Anche Mosaic, pur essendo specializzata nella copertura di software avanzati, ha scelto di non assicurare i rischi associati ai grandi modelli linguistici (LLM). Rajiv Dattani, cofondatore della Artificial Intelligence Underwriting Company, ha sintetizzato così la principale criticità: “Nessuno sa chi sia responsabile quando le cose vanno storte”.
Anche Ericson Chan, chief information officer di Zurich Insurance, ha osservato che gli errori tecnologici tradizionali consentono di “identificare facilmente la responsabilità”, mentre i rischi legati all’IA coinvolgono potenzialmente sviluppatori, costruttori di modelli e utenti finali. L’impatto di tali dinamiche, secondo Chan, “potrebbe essere esponenziale”.
INCIDENTI CHE ALIMENTANO LE PREOCCUPAZIONI
Le compagnie del settore stanno infatti osservando con attenzione una serie di incidenti sempre più rilevanti. Wolf River Electric ha citato Google per diffamazione, chiedendo almeno 110 milioni di dollari, sostenendo che la funzione AI Overview aveva riportato informazioni false. Un tribunale ha inoltre imposto ad Air Canada di rispettare uno sconto inventato da un chatbot, mentre il gruppo britannico Arup ha subito una perdita di 200 milioni di dollari di Hong Kong dopo una truffa realizzata tramite un deepfake di un dirigente durante una videoconferenza.
RISCHI SOSTENIBILI (E NON)
Per Kevin Kalinich, responsabile cyber di Aon, il mercato assicurativo potrebbe sostenere una singola perdita da 400 o 500 milioni di dollari causata da un agente IA che fornisse prezzi o diagnosi errate. Tuttavia, ha avvertito che ciò che il settore non può sostenere è un errore di un fornitore di IA che generi “1.000 o 10.000 richieste” correlate. Le allucinazioni dell’IA, inoltre, non rientrano generalmente nelle polizze cyber, mentre le cosiddette coperture tech “errors and omissions” potrebbero essere ristrette da nuovi ritagli di responsabilità.
QUALCUNO PROVA A METTERSI AL RIPARO
Alcuni assicuratori, riferisce il Ft, hanno predisposto delle “integrazioni” alle polizze per chiarire la gestione dei rischi legati all’intelligenza artificiale. QBE, per esempio, ha ampliato la copertura per le sanzioni previste dall’AI Act europeo, pur limitando il risarcimento al 2,5% del massimale di polizza. La svizzera Chubb ha accettato di includere alcune forme di rischio IA, escludendo però gli incidenti considerati “diffusi”, ossia in grado di colpire simultaneamente numerosi clienti.
Altri assicuratori stanno invece introducendo estensioni dedicate a rischi molto specifici, come il malfunzionamento di un chatbot.
IN ATTESA DELLA CATASTROFE
Broker e avvocati prevedono un aumento delle controversie legali man mano che le perdite legate all’IA diventeranno più ingenti. Secondo Aaron Le Marquer, responsabile del team di contenziosi assicurativi dello studio Stewarts, “probabilmente ci vorrà un grande evento sistemico perché le compagnie assicurative dicano: un momento, non abbiamo mai avuto intenzione di coprire questo tipo di evento”.






