Dal Messico alla Gran Bretagna, passando per l'Ue, l'India e gli Usa: nel 2024 ben 76 Paesi andranno al voto e lo faranno per la prima volta con le insidie dell'intelligenza artificiale, che può consentire a chiunque di fare falsi d'autore difficilmente distinguibili dagli originali: ecco come YouTube si blinda nel caso in cui iniziassero a circolare video fasulli in grado di spostare gli equilibri elettorali
L’intelligenza artificiale promette di fare grandi cose. A sentire i proclami degli investitori e degli sviluppatori al lavoro su questi algoritmi miracolosi, saremmo persino all’alba di una rivoluzione dalla portata ancora ignota, ma che ridisegnerà il modo di lavorare. Vuoi le tante cause fioccate per la violazione dei diritti d’autore, vuoi le gaffe dell’IA (che hanno costretto
Sundar Pichai, Ceo di Google, a scusarsi per gli scivoloni del suo
Gemini), vuoi il proliferare di licenziamenti sospetti nelle aziende che hanno introdotto la nuova tecnologia, vuoi il fatto che finora sia stata utilizzata per scopi meno elevati, come fotomontaggi (il Papa col Moncler) e video truffaldini (
Fabio Fazio e
Giorgia Meloni che invitano gli internauti meno accorti a fare trading), è difficile per il momento essere ottimisti. Di certo si sta delineando un mondo in cui sarà sempre più difficile discernere un video falso da uno vero, se c’è lo zampino dell’intelligenza artificiale.
DOVE SI VOTA NEL 2024
E questo ci espone maggiormente alle truffe, appunto, ma anche a falsi di ogni tipo, che potrebbero persino riscrivere la storia (pensiamo a un video inedito dell’uomo sulla luna in cui si veda Neil Armstrong aprire il voluminoso casco per fumarsi una sigaretta) o influenzare il nostro presente.
Per esempio sotto elezioni potrebbero iniziare a girare video fasulli in cui vengono presi di mira alcuni candidati, facendo loro dire o fare di tutto. L’unico limite è la fantasia di chi scrive lo script, perché ormai la tecnologia permette a tutti, adolescenti in vena di scherzi, frustrati in cerca di notorietà, come pure oscuri faccendieri di fare lavori per i quali un tempo sarebbero servite troupe e tanti, tantissimi soldi. Nel 2024 su 8 miliardi, 2 miliardi di persone saranno chiamate alle urne.
Solo le europee di giugno riguarderanno oltre 400milioni elettori di 27 Paesi. E poi naturalmente ci sono le presidenziali Usa del 5 novembre prossimo: gli elettori sono 160 milioni. Numeri che comunque impallidiscono rispetto al miliardo circa di indiani chiamati a votare in primavera. Poi ci sono i 100 milioni di messicani che andranno alle urne il 2 giugno. E forse dopo l’estate si voterà pure nel Regno Unito.
Se ci aggiungiamo le competizioni elettorali già passate, come quelle russe e portoghesi, e quelle di Paesi più piccoli ma comunque vicini di casa come Austria, Belgio e altri Stati minori che non annovereremo per comodità, si arriva a un totale di 76 Paesi al voto per due miliardi circa di elettori chiamati alle urne. Molti di questi hanno in mano uno smartphone e passano parte del proprio tempo libero sui social e sulle piattaforme principali, maturando anche in quei contesti la propria opinione.
YOUTUBE CAMBIA POLITICA SUI VIDEO FATTI CON L’INTELLIGENZA ARTIFICIALE
Forse non è dunque un caso se proprio nell’anno in cui Europa, Usa e India vanno al voto la più grande piattaforma web di video, YouTube, abbia iniziato ad adottare politiche più stringenti sul materiale veicolato in cui c’è lo zampino dell’intelligenza artificiale.
Anzitutto la piattaforma acquisita nell’autunno del 2006 da Google per 1,6 miliardi di dollari prova a scrollarsi di dosso il possibile fardello della responsabilità legale afferente la veridicità dei contenuti che gli internauti vi caricano. Come? Le nuove norme prevedono che al momento del caricamento dei video gli internauti debbano dichiarare se i contenuti sono stati creati o modificati attraverso l’utilizzo di intelligenza artificiale.
I VIDEO NEL MIRINO
In particolare, YouTube non intende concedere a tutti quegli elementi che potrebbero “facilmente essere scambiati per una scena, una persona o un luogo reale” di girovagare senza una segnalazione ad hoc. L’intera impalcatura, come s’è detto, poggia sulla responsabilità di chi carica i video: l’utente dovrà infatti segnalare ogni intervento artificiale. Un sistema che espone a rischi chi, non girando direttamente un contenuto, dovesse limitarsi a riprenderlo dal proprio canale. Anche perché si parla già di sanzioni. Non sono ancora state definite ma probabilmente andranno dalla rimozione del contenuto alla chiusura del canale.
Con ogni probabilità YouTube contrasterà i video realizzati con l’intelligenza artificiale con… l’intelligenza artificiale. La piattaforma, che dispone già di alcuni dei più evoluti algoritmi in grado di riconoscere materiale video e musicale protetto dal diritto d’autore (ecco perché i pochi che ancora provano a caricare film completi ovattano il sonoro, distorcendolo e ribaltano le immagini, magari zoomandole), sta già implementando la sua task force artificiale per riconoscere i falsi generati con l’IA.
I BOLLINI IN ARRIVO
Per i video che veicolano contenuti ritenuti particolarmente sensibili, come notizie, politica, finanza, scienza e salute, YouTube applicherà un bollino sul lettore video per mettere da subito in evidenza la genuinità o meno del contenuto. Le uniche deroghe dovrebbero riguardare i video realizzati a scopi artistici e ricreativi.
LA POLITICA TEME L’IA
Nelle ultime settimane, proprio per via dell’avvicinarsi di un periodo elettorale eccezionalmente intenso, la politica si è interessata spesso degli algoritmi. L’Unione europea, è noto, ha varato a tempo di record un corpus normativo ad hoc, l’AI Act, il primo nel suo genere.
La Casa Bianca per il momento si è limitata a esercitare pressioni sulle Big Tech affinché aumentino i controlli sui contenuti realizzati con gli scaltri algoritmi. Mentre il più tranciante si è rivelato il presidente sudcoreano Yoon Suk-yeol, intervenendo nella giornata di apertura del Vertice per la democrazia: “Le notizie false e la disinformazione basate sull’intelligenza artificiale e sulla tecnologia digitale non solo violano la libertà individuale e i diritti umani, ma minacciano anche i sistemi democratici”. Bisognerà vedere se il sistema democratico reggerà all’impatto (anche se un contenuto venisse bloccato, nel frattempo sarà già stato salvato e circolerà su chat e gruppi chiusi) e se soprattutto ha senso demandare una simile e cruciale opera di controllo a privati.