skip to Main Content

Dati Intelligenza Artificiale

Quali sono i rischi dell’IA generativa per le aziende e come proteggersi. Report

Un report realizzato da Aws e Ibm sull'integrazione dell'intelligenza artificiale generativa (IAg) nelle aziende rivela che nel 70% dei casi si tende a dare priorità all'innovazione rispetto alla sicurezza e solo il 24% degli attuali progetti di IAg sono protetti. Tutti i dettagli

 

L’intelligenza artificiale generativa (IAg) è sempre più comune nelle sia nella vita quotidiana che in quella lavorativa nelle aziende. Per Eurostat, nel 2023, il 30,4% delle grandi imprese dell’Unione europea ha utilizzato tecnologie di IA, con Danimarca, Finlandia e Lussemburgo sul podio; mentre stando a Exploding Topics, ha fatto altrettanto il 35% delle aziende globali e il 42% ha dichiarato di averne esplorato l’uso. Inoltre, più del 50% delle imprese prevede di incorporare le tecnologie IA nel 2024.

Tuttavia, un recente report realizzato da AWS e IBM ha scoperto che la sicurezza rappresenta un punto debole nel 76% delle iniziative di IA generativa.

L’IA NELLE AZIENDE

IBM ha recentemente collaborato con Oxford Economics per intervistare 200 dirigenti in merito alle loro iniziative relative all’IA generativa. Nonostante l’82% degli intervistati sia preoccupato per i rischi connessi all’IA e dichiari di che un’IA sicura e affidabile sia essenziale per il successo aziendale, solo il 24% degli attuali progetti di intelligenza artificiale generativa viene messo in sicurezza. Ad affermarlo è la ricerca condotta da Clarke Rodgers, direttore di AWS Enterprise Strategy e Dimple Ahluwalia, VP e Global Managing Partner di IBM Cybersecurity Services.

Lo studio ha inoltre rivelato la preoccupante tendenza dei dirigenti a dare nel 70% dei casi priorità all’innovazione rispetto alla sicurezza.

I RISCHI DI UNA IA NON PROTETTA

Ma quali sono i potenziali rischi che corrono le aziende utilizzando tecnologie di IAg non protette? Tra i problemi identificati dal report ci sono ingegneria sociale e frodi, furto di dati, furto di identità e impersonificazione, jailbreak, cracking di password e sfruttamento delle vulnerabilità.

Alcune minacce, come l’ingegneria sociale, suonano familiari, altre assumono un nuovo significato, come le tattiche di phishing più sofisticate. I team di IBM Security, per esempio, hanno riscontrato che le capacità dell’IA consentono di ridurre del 99,5% il tempo necessario per creare un’e-mail di phishing efficace.

Ci sono poi minacce del tutto nuove e specifiche dell’IA e dell’IAg, come l’estrazione di modelli o gli exploit di inversione. L’iniezione di prompt, per esempio, si riferisce alla manipolazione dei modelli di IA per intraprendere azioni non volute; l’inversione sfrutta l’estrazione di informazioni sui dati utilizzati per addestrare un modello. Queste tecniche, spiega il report, non sono ancora molto diffuse, ma prolifereranno man mano che i malintenzionati acquisiranno maggiore familiarità con l’hardware, il software e i servizi che supportano l’IAg.

Ma per AWS bisognerà innanzitutto prestare attenzione alle minacce che hanno il massimo impatto con il minimo sforzo.

A CHI SI RIVOLGONO LE AZIENDE PER DIFENDERSI DAI RISCHI DELL’IA

Oltre il 90% delle funzionalità per mettere in sicurezza l’IAg proviene da prodotti di terze parti o partner. Nel 31% dei casi avviene attraverso un prodotto o una soluzione di sicurezza per esempio con funzionalità integrate; nel 21% tramite un fornitore di servizi gestiti (outsourcing); nel 20% attraverso un partner di infrastruttura (come AWS, Azure e Google); in un altro 20% con un partner dell’ecosistema o un altro fornitore e nel 9% dei casi attraverso una soluzione sviluppata internamente.

Le aziende che hanno adottato strumenti per implementare la sicurezza hanno ridotto di un terzo il tempo necessario per rilevare gli incidenti e di almeno il 18% i costi delle violazioni dei dati. Inoltre, si prevede che il mercato dei prodotti di sicurezza IA crescerà a un CAGR di quasi il 22% nei prossimi cinque anni.

IL CASO DI EVERSANA

Il report porta poi l’esempio di Eversana, un’azienda statunitense attiva nell’offerta di servizi commerciali globali per il settore life sciences, che si sta rivolgendo ad AWS per accelerare i casi d’uso dell’IA generativa nel settore delle scienze biologiche, dove c’è bisogno di soluzioni che combinino sicurezza, conformità e scalabilità.

L’obiettivo è sfruttare la potenza dell’IA per aiutare i produttori farmaceutici a incrementare l’efficienza e a creare valore aziendale, migliorando i risultati per i pazienti.

Eversana mantiene il pieno controllo sui dati e nella sua prima applicazione, in collaborazione con AWS e TensorIoT, il team ha cercato di automatizzare i processi associati alle approvazioni di contenuti medici, legali e normativi (Mlr). Questo approccio, riferisce lo studio, ha permesso di snellire i processi critici da mesi a settimane e l’azienda prevede che, una volta automatizzate le proprie funzionalità Mlr, potrà ulteriormente migliorare il tempo per l’approvazione da settimane a pochi giorni.

Back To Top