Skip to content

L’AI Act europeo basta da solo contro i rischi dell’intelligenza artificiale?

Quanto è fondato l’allarme lanciato da Dario Amodei, amministratore delegato di Anthropic, sul rischio che l’intelligenza artificiale diventi troppo intelligente per essere controllabile? L’approfondimento di Laura Turini per Appunti di Stefano Feltri

Diciamo subito che Amodei non è un catastrofista. Vede l’intelligenza artificiale come una tecnologia molto positiva, che può aiutarci a trovare nuovi medicinali e a risolvere problemi seri, come l’inquinamento ambientale e molti altri.

Il punto è che i sistemi sociali, politici e perfino tecnologici potrebbero non essere all’altezza di questa grande potenza che sta per finire nelle nostre mani.

Il rischio, dunque, è fondato se non siamo consapevoli che l’intelligenza artificiale non è un foglio di carta e non è nemmeno un avatar digitale con cui ci divertiamo a chiacchierare, ma qualcosa di molto più serio.

Nel prossimo futuro potremmo trovarci di fronte a ciò che Amodei definisce un “Paese di geni”, composto da molte intelligenze artificiali super-specializzate in singoli settori. A quel punto i rischi sono quelli di comportamenti imprevisti, potenzialmente ostili o comunque contrari ai principi fondamentali dei diritti umani.

Ci sono poi rischi legati all’uso da parte di piccoli gruppi avversi, che potrebbero più facilmente sviluppare armi biologiche o organizzare cyberattacchi.

Esiste anche un rischio di autoritarismo politico, con sorveglianza totale e propaganda personalizzata, e un impatto economico sul mondo del lavoro, oltre alla tendenza a concentrare la ricchezza. In sostanza, quello che Amodei fa è avvertirci che è meglio aprire gli occhi e prepararci per tempo.

Le nuove regole europee e italiane sono adatte a gestire questi nuovi rischi?

Sicuramente le norme europee, da questo punto di vista, sono molto avanzate. La legge italiana non aggiunge molto rispetto a quanto già prevede il Regolamento europeo sull’intelligenza artificiale.

L’AI Act introduce però il concetto di pratiche vietate, cioè individua una serie di sistemi di intelligenza artificiale considerati a rischio inaccettabile per la presunta violazione dei diritti fondamentali.

I sistemi che rientrano in questa categoria diventano proibiti: non possono essere prodotti né commercializzati. È un elemento di protezione molto rilevante e riguarda soprattutto sistemi di controllo e sorveglianza.

Detto questo, il divieto esiste in Europa e non esiste fuori dall’Europa, e questo è un grande problema.

È vero che l’AI Act si applica anche alle aziende straniere che vogliono immettere prodotti sul mercato europeo, ma è anche vero che nulla impedisce a imprese extraeuropee di sviluppare e vendere prodotti di qualsiasi tipo al di fuori dell’Unione.

C’è poi un altro aspetto: l’AI Act, come abbiamo detto più volte, non si occupa delle armi sviluppate e utilizzate con sistemi di intelligenza artificiale; e, per la stessa ragione, il rischio legato alle armi biologiche resta enorme.

Quindi sì, il Regolamento europeo è uno strumento importante che aiuta a ridurre il rischio, ma da solo certamente non basta a eliminarlo.

Quali rischi attuali ci sono nel modo molto rapido in cui si sta diffondendo l’AI di oggi nelle nostre vite e nelle nostre aziende?

I rischi legati a un uso inconsapevole dell’intelligenza artificiale dentro le aziende sono molto alti.

Innanzitutto c’è il rischio di perdita di dati, ma non è l’unico: esistono anche rischi legati all’adozione di decisioni basate su risposte fornite da sistemi di intelligenza artificiale che possono essere sbagliate o non adeguate alle esigenze aziendali.

Può sembrare teoria, ma non lo è: le ricerche più recenti mostrano che una percentuale molto alta di manager, così come di dipendenti, usa l’intelligenza artificiale come una sorta di oracolo, cioè si affida completamente alle risposte che riceve.

Non solo l’AI viene usata per compiti che un dipendente non sa svolgere; il problema è ancora più serio, perché se una persona non sa fare una certa attività, spesso non è nemmeno in grado di valutare la risposta con sufficiente senso critico.

Parliamo di percentuali molto alte, nell’ordine del 60-70%. Inoltre c’è il fenomeno della Shadow AI: dipendenti e persino manager utilizzano sistemi di intelligenza artificiale in azienda senza informare l’IT e senza che la proprietà o la direzione ne sappiano nulla.

Questo comporta un rischio elevatissimo perché impedisce all’azienda di adottare strumenti adeguati, anche dal punto di vista della sicurezza, per evitare perdite di dati.

L’ignoranza su come funziona un sistema di intelligenza artificiale significa anche che, dentro un prompt, possono finire dati aziendali riservati, senza rendersi conto che così quei dati possono essere riutilizzati o comunque circolare fuori dall’azienda, con una potenziale divulgazione molto grave.

Per questo le imprese devono impegnarsi fin dall’inizio a introdurre percorsi di formazione interni, necessari per proteggere gli asset aziendali e anche coerenti con quanto richiesto dall’articolo 4 dell’AI Act, che è già pienamente in vigore.

(Estratto da Appunti di Stefano Feltri)

Torna su