skip to Main Content

Floridi

Che cosa (non) va nel regolamento Ue sull’Intelligenza artificiale secondo il prof. Floridi

Obiettivi e rilievi sulla bozza di regolamento Ue che riguarda l'Intelligenza artificiale. L'analisi di Floridi sul Pais

La sfida per la nostra società e le nostre istituzioni – scrive Luciano Floridi su El Pais – non è tanto la trasformazione tecnologica, ma come la nuova sfera è governata e regolata. Uno scenario in cui l’Unione europea non ha alcuna competenza.

Si parlava da tempo di una nuova legislazione europea sull’intelligenza artificiale (AI), almeno dal 16 luglio 2019, quando Ursula von der Leyen è stata eletta presidente della Commissione europea. In quella data, la Von der Leyen ha promesso che, entro 100 giorni, avrebbe proposto una nuova legislazione europea sull’IA coerente con i valori etici europei. All’epoca, ho commentato che le ragioni strategiche giustificavano una tale ambizione, che tuttavia non era realistica per i tempi. La strategia aveva già messo al lavoro il gruppo di esperti sull’etica dell’IA (l’HLEG, High-Level Expert Group on Artificial Intelligence, di cui ero membro). Istituito dalla Commissione, il gruppo aveva appena pubblicato linee guida etiche e politiche per l’IA in Europa. Era chiaro che il passo successivo era quello di tradurre queste linee guida in uno strumento legislativo. Il lavoro già fatto, tuttavia, aveva dimostrato quanto fosse lungo e laborioso questo processo. Personalmente, ero convinto che ci sarebbe voluto almeno un anno per tradurre i principi in standard. Come molti altri, non avevo previsto la pandemia. Oggi, quasi due anni dopo, abbiamo un progetto preliminare di proposta per la regolamentazione dell’AI nell’Unione europea, l’AI Act (AIA), lanciato ufficialmente il 21 aprile 2021. È il primo al mondo.  Nel complesso, la bozza di testo è stata valutata come un buon punto di partenza per garantire che il settore della tecnologia AI si sviluppi in modo sicuro e accettabile nell’UE, a beneficio dell’economia, della società e dell’ambiente. Non mi soffermerò sui suoi aspetti giuridici, alcuni dei quali sono destinati ad evolversi. Filosoficamente, credo che gli aspetti positivi fondamentali della AIR siano molti, anche se con alcune limitazioni.

In primo luogo, è un regolamento, non una direttiva, quindi deve essere implementato, non solo abbracciato, da tutti gli stati membri dell’UE, allo stesso modo del regolamento generale sulla protezione dei dati (GDPR). Come il GDPR, anche l’AIR presuppone la non territorialità della legislazione. Viviamo in un mondo post-Westphalia e la AIR colpisce qualsiasi attore, indipendentemente da dove si trova fisicamente o legalmente. Ciò che conta è se si tratta di un servizio, per esempio, un sistema automatizzato di gestione delle assunzioni offerto da una società di Singapore a una società in Spagna, che ha un impatto sui cittadini europei. Secondo questa modalità post-Westphalia, i giganti dell’IA avranno a che fare con l’UE, non con i singoli stati, quando dovranno dimostrare di rispettare la nuova legislazione. L’UE si presenta come un unico interlocutore non solo nella gestione dei dati personali (GDPR), ma ora anche nell’implementazione dell’AI. È appropriato dire che c’è forza nei numeri quando è in gioco la sovranità digitale. Nessuna azienda potrà permettersi di ignorare un mercato che rappresenta circa un sesto dell’economia globale. Questo significa anche, però, che sarà più difficile per le aziende che devono applicare la AIR spiegare perché non adottano standard altrettanto elevati quando operano in altri paesi. Inoltre, l’AIR potrebbe avere un’influenza positiva, non in Cina e probabilmente nemmeno negli Stati Uniti, ma dal Canada alla Corea del Sud, dal Giappone alla Gran Bretagna, da Israele a Singapore, mettendo l’UE in una posizione di “leadership esemplare” per la buona Governance delle tecnologie AI, come è già successo con il GDPR. Collaborare con questi paesi leader nel settore dell’IA sarà più facile grazie a un buon quadro legislativo.  L’AIA eredita un altro fattore positivo dal GDPR: la protezione della dignità umana e dei diritti umani come obiettivo finale. Sfortunatamente, l’AIA usa una terminologia anacronistica nel definire questo approccio centrato sull’uomo, cioè pone l’umanità al centro dello sviluppo tecnologico. L’idea è corretta: la tecnologia deve essere al servizio dell’umanità. Ma in realtà dobbiamo tenere conto anche dell’ambiente, mentre il passo dall’umano-centrismo all’antropocentrismo è breve, e sappiamo quanto il pianeta abbia sofferto per l’ossessione dell’umanità di mettersi sempre al centro, come se tutto dovesse essere al nostro servizio, Madre Natura compresa. Fortunatamente, anche se la terminologia è superata, la visione di fondo è corretta: l’AIA sottolinea il valore dell’IA come tecnologia verde, che può essere di straordinario aiuto per la sostenibilità e per combattere l’inquinamento e il cambiamento climatico. In questo, l’IYA è complementare alle politiche ambientali europee. L’ho definito il progetto verde e blu, di cui l’UE deve farsi promotrice in tutto il mondo. In termini di approccio, l’AIA mira a eliminare o mitigare i rischi dell’IA, per sostenere la fiducia in queste tecnologie innovative. L’idea è che l’etica faccia bene al mercato, non il contrario. Proprio per questa ragione, l’AIA adotta esplicitamente le linee guida etiche proposte dall’HLEG. E qui vale la pena sottolineare un altro aspetto positivo fondamentale. Il regolamento non fa concessioni alle speculazioni fantascientifiche che purtroppo distraggono così tanto l’opinione pubblica. L’IA è affrontata come una tecnologia che risolve i problemi e svolge i compiti, non come una forma di vita aliena. Pertanto, l’AIA esclude qualsiasi possibilità di attribuire all’IA una soggettività giuridica relativa a diritti o doveri. La responsabilità di ogni sistema di IA è sempre giustamente assegnata all’umanità che lo progetta, produce, commercializza e usa.

Tutto bene allora? Non esattamente. La bozza contiene anche alcuni limiti concettuali che meritano di essere corretti, oltre ai miglioramenti giuridici che possono essere introdotti. Esaminiamoli.

La bozza è talvolta ambigua. Un caso importante è la definizione di sistemi AI ad alto rischio, un concetto chiave in tutto il regolamento, che combina esplicitamente due significati che penso sarebbe preferibile distinguere. Da un lato, abbiamo sistemi di IA dal cui corretto funzionamento dipendono questioni vitali – pensate a un sistema di auto a guida autonoma: qualcosa di buono che deve funzionare bene. D’altra parte, abbiamo sistemi di IA dal cui abuso dipendono questioni vitali: si pensi all’abuso dei sistemi di sorveglianza biometrica in tempo reale, che sono vietati dalla normativa: un male che non deve essere usato. Se non si distingue tra le due cose, finiremo per confondere la resilienza forzata dei buoni sistemi di IA con la resistenza che deve essere esercitata contro l’uso improprio dei sistemi di IA.

In altri casi, la bozza è vaga, come quando parla di vietare l’uso di sistemi di IA destinati a distorcere il comportamento umano, con il rischio di probabili danni fisici o psicologici. L’intento di fondo è accettabile, ma se questo approccio fosse applicato troppo rigorosamente, rischierebbe di bandire molti sistemi di IA non problematici.

Infine, certe aspettative nella bozza sembrano soffrire di un eccessivo idealismo. Un esempio significativo sono gli standard per i database utilizzati per l’addestramento dei modelli di apprendimento automatico, che dovrebbero essere, tra le altre cose, rilevanti, rappresentativi, senza errori e completi. In realtà, questi sono requisiti altamente desiderabili, ma raramente sono completamente soddisfatti – basta pensare ai database di qualsiasi ministero, che di solito sono incompleti ed errati. Sarebbe quindi preferibile parlare di soglie al di sotto delle quali il livello di soddisfazione di questi standard è inaccettabile.

L’AIA andrà ad unirsi al GDPR e sarà saldata con il Digital Services Act e il Digital Markets Act che regoleranno le piattaforme e i servizi online. Tra qualche anno, quando questa architettura legislativa sarà completata, l’UE si sarà assicurata una infosfera in cui i suoi cittadini potranno vivere e operare in modo migliore e più sostenibile. È chiaro che la sfida non è più tanto l’innovazione digitale quanto la governance digitale, e in questa sfida l’UE non ha competenza.

Back To Top