skip to Main Content

Deepfake Meta

L’etichetta “made by IA” di Meta riuscirà ad arginare il mare magnum di deepfake?

Meta inizierà a segnalare su Facebook, Instagram e Threads se un'immagine è stata generata con l'intelligenza artificiale. Anche Google aveva fatto lo stesso annuncio, ma combattere i deepfake sembra una missione impossibile. Fatti e commenti

 

Chi per un attimo non ha creduto (o voluto credere, in certi casi) che le foto di Papa Francesco in un appariscente piumino bianco o quelle dell’arresto di Donald Trump e Vladimir Putin fossero vere? Col rapido sviluppo dell’intelligenza artificiale (IA) e dei suoi strumenti negli ultimi mesi, distinguere la realtà dalla finzione è sempre più difficile, soprattutto sui social, veicolo preferito per far circolare i deepfake, ovvero foto, video e audio creati con software di IA che sembrano reali.

Meta di Mark Zuckerberg ha quindi annunciato che, nei prossimi mesi, su Facebook, Instagram e Threads appariranno delle etichette per segnalare se un’immagine è stata generata con l’IA. L’anno scorso, anche Google aveva dichiarato che avrebbe preso lo stesso provvedimento per YouTube e le sue altre piattaforme.

Tuttavia, gli esperti, pur apprezzando l’iniziativa, sono scettici in merito all’efficacia.

META E LE ETICHETTE “MADE BY AI”

Mentre online il confine tra realtà e finzione si fa sempre più labile, ieri Meta ha fatto sapere che le immagini generate con l’IA saranno riconoscibili sui suoi social grazie a un’etichetta dove sarà scritto “made by IA”. L’obiettivo è evitare di creare confusione e diffondere deepfake tra gli utenti attraverso Facebook, Instagram e Threads. In merito ai contenuti che possono essere condivisi su WhatsApp, invece, non si sa ancora cosa succederà.

Gli standard tecnici a cui l’azienda di Zuckerberg sta lavorando potrebbero poi essere estesi anche a video e audio realizzati con strumenti di IA, anche se in questi casi, secondo il presidente degli affari globali dell’azienda, Nick Clegg, “è più complicato”. Meta ha poi detto che inizierà a chiedere agli utenti di etichettare i propri contenuti audio e video di IA e che applicherà sanzioni, non meglio descritte, se non lo faranno. Clegg ha tuttavia ricordato che, invece, non ci esiste un meccanismo valido per etichettare il testo scritto generato da strumenti come ChatGpt.

L’ambiziosa intenzione di Meta, che già etichetta qualsiasi contenuto generato utilizzando i propri strumenti di intelligenza artificiale, è quella di ampliare il monitoraggio alle immagini generate dai servizi di IA di altre aziende, come OpenAI, Microsoft, Adobe, Midjourney, Shutterstock e Google. Ed è qui che molti esperti si dicono scettici.

PERCHÉ SARÀ DIFFICILE CONTRASTARE I DEEPFAKE

In un periodo in cui generare contenuti falsi è molto facile, grazie a software di IA elementari, tentare di contenere un fiume in piena sembra molto difficile. Il 2024, inoltre, è un anno di elezioni e se le presidenziali Usa del 2020, seguite dall’assalto al Campidoglio, erano solo un assaggio del peso che hanno avuto i social nell’influenzare o disinformare le persone, è solo immaginabile cosa può succedere con gli strumenti di oggi e i passi da gigante compiuti in pochissimo tempo dall’IA. “Mi aspetto uno tsunami di disinformazione”, ha dichiarato Oren Etzioni, esperto di intelligenza artificiale e professore emerito dell’Università di Washington. “Non posso provarlo. Spero di essere smentito. Ma gli ingredienti ci sono e sono completamente terrorizzato”.

Si aggiungono poi anche i rischi per la privacy e relativi al singolo individuo, come nel caso delle immagini pornografiche deepfake di Taylor Swift che sono circolate online e che si ritiene siano state generate da modelli di diffusione tipo Stable Diffusion, Midjourney o Dall-E, ma di cui non si è poi cercato di determinare la provenienza.

Seppur accolta con entusiasmo, la notizia di Meta non fa stare del tutto sereni. Come ha detto Gili Vidan della Cornell University, il sistema potrebbe essere “abbastanza efficace” nel segnalare gran parte dei contenuti generati dall’intelligenza artificiale e realizzati con strumenti commerciali, ma probabilmente non catturerà tutto. Anche per i consumatori, scrive Quartz, una potenziale preoccupazione è che le piattaforme tecnologiche diventino più efficaci nell’identificare i contenuti generati dall’IA da una serie di importanti fornitori commerciali, ma non riescano a individuare quelli prodotti con altri strumenti.

Back To Top