Il Regolamento europeo sull’intelligenza artificiale entrerà in vigore, salvo imprevisti, a maggio e ne sentiremo parlare a lungo. Il suo contenuto è complesso e articolato ma, sostanzialmente, i punti centrali sono due. Da un lato i buoni propositi. L’AI Act si propone di creare un quadro giuridico armonizzato per promuovere lo sviluppo dell’intelligenza artificiale garantendo gli interessi pubblici quali “la salute e la sicurezza e la protezione dei diritti fondamentali, compresi la democrazia, lo Stato di diritto e la protezione dell’ambiente”. Dall’altro la soluzione per attuarli. Un sistema di misure incentrato sulla valutazione del rischio e su cosa fare per mitigarlo.
In questo contesto si prevede che debba esserci un obbligo di trasparenza generalizzato, mentre per i sistemi considerati da alto rischio, che hanno un impatto rilevante sulla vita delle persone, come quelli per la selezione del personale, è previsto l’obbligo di dotarsi di procedure idonee a ridurre i possibili rischi, sia dal punto di vista gestionale che tecnico.
Ci sono poi alcuni settori che sono considerati a rischio inaccettabile e sono vietati. Lo sono, ad esempio, come abbiamo già visto su Appunti, quelli che influenzano il comportamento umano, i sistemi di social scoring e quelli di identificazione biometrica remota in tempo reale.
L’AI NON VIETA I SISTEMI PER USI BELLICI
Colpisce che tra i sistemi vietati non sono inclusi i sistemi di intelligenza artificiale destinati a usi bellici.
Non solo, quando «i sistemi di IA sono immessi sul mercato, messi in servizio o utilizzati con o senza modifica di tali sistemi per scopi militari, di difesa o di sicurezza nazionale» sono del tutto esentati dall’applicazione dell’AI Act.
La motivazione di questa esclusione la troviamo nel Considerando (23) che chiarisce che “per quanto riguarda gli scopi militari e di difesa, l’esclusione è giustificata dall’articolo 4, par. 2, TUE (Trattato dell’Unione Europea) e dalle “specificità della politica di difesa comune degli Stati membri”, mentre per quanto riguarda le finalità di sicurezza nazionale, “l’esclusione è giustificata sia dal fatto che la sicurezza nazionale resta di esclusiva competenza degli Stati membri ai sensi dell’articolo 4, par. 2, TUE, sia dalla natura specifica e dalle esigenze operative delle attività di sicurezza nazionale, nonché dalle specifiche norme nazionali applicabili a tali attività”.
L’Europa ha quindi deciso di non mettersi a tavolino per fare fronte comune sugli strumenti più pericolosi in assoluto, ritenendo che sia il diritto internazionale pubblico “il quadro giuridico più appropriato per la regolamentazione dei sistemi di IA nel contesto dell’uso letale della forza e di altri sistemi di IA nel contesto delle attività militari e di difesa”.
IL RUOLO DI PALANTIR NELLE GUERRE
Questo accade mentre, purtroppo, le guerre sono sempre più parte delle nostre vite, con gli scontri in Israele e Ucraina che lasciano ogni giorno sconcertati. Ed è proprio in questi due conflitti che l’intelligenza artificiale sembra svolgere un ruolo non secondario, grazie ad una società americana, Palantir Technologies, specializzata nell’analisi dei big data e che ha ottenuto dal governo degli Stati Uniti oltre 170 milioni di dollari per la fornitura di stazioni terrestri gestite dall’intelligenza artificiale all’interno del progetto Titan, Tactical Intelligence Targeting Access Node.
Palantir ha sviluppato una specifica piattaforma di intelligenza artificiale per aiutare l’esercito in caso di conflitto, sia nella fase di analisi e di scelta degli obiettivi, sia nell’assumere decisioni e organizzare piano di attacco.
L’azienda ha fornito la sua tecnologia sia all’Ucraina che a Israele, schierandosi apertamente a favore di Israele e perdendo per questo molti dipendenti che, per protesta, hanno preferito dimettersi.
Il suo fondatore e amministratore delegato, Alex Karp, ha dichiarato che la sua tecnologia serve a rendere ancora più forti e sicuri gli Stati Uniti, che sono lo stato al mondo in cui questa tecnologia rivoluzionaria ha raggiunto il massimo sviluppo. Aiutare Israele, dal suo punto di vista, significa difendere i valori dell’Occidente e quindi la sua sarebbe una specie di missione.
Si è dichiarato orgoglioso di potere essere intervenuto sul campo di battaglia contro Hamas in tempi rapidi.
In un’intervista a CNBC ha dichiarato: “Dal mio punto di vista, non si tratta solo di Israele. È un po’ come se ti chiedessero: ‘Credi nell’Occidente? Credi che l’Occidente abbia creato un modo di vivere superiore?”.
A prescindere dal fatto che non si vede dove sia scritto che la risposta a queste domande debba essere affermativa, viene da domandarsi chi sia Alex Karp per decidere cosa sia giusto o sbagliato e chi appoggiare o non appoggiare in una guerra.
Siamo al paradosso che l’Europa non ritiene di avere il potere di intervenire per regolamentare l’uso dell’intelligenza artificiale in ambito bellico, ma un privato può farlo.
In tutto questo sorge anche il dubbio che qualche “tragico incidente involontario”, come è stata definita l’uccisione a Gaza di sette operatori di una ONG lo scorso primo Aprile, possa essere frutto di un errore tecnico dell’intelligenza artificiale che prende il nome, non casuale, di allucinazione.
(Estratto dalla newsletter Appunti di Stefano Feltri: ci si iscrive qui)