Le immagini generate dall’intelligenza artificiale che ritraggono condizioni di estrema povertà, bambini e vittime di violenza sessuale stanno invadendo i siti di foto stock e vengono utilizzate sempre più spesso dalle principali ONG che si occupano di salute, secondo quanto riferito da professionisti sanitari di tutto il mondo che hanno espresso preoccupazione per una nuova era di “pornografia della povertà”, scrive il Guardian.
“Tutti la stanno utilizzando”, ha affermato Noah Arnold, che lavora presso Fairpicture, un’organizzazione con sede in Svizzera che si occupa di promuovere l’uso etico delle immagini nello sviluppo globale. “Alcuni utilizzano attivamente immagini generate dall’intelligenza artificiale, mentre altri, per quanto ne sappiamo, stanno almeno sperimentando”.
LA GRAMMATICA VISIVA DELLA POVERTÀ
Arsenii Alenichev, ricercatore presso l’Istituto di Medicina Tropicale di Anversa che studia la produzione di immagini relative alla salute globale, ha affermato: “Le immagini replicano la grammatica visiva della povertà: bambini con piatti vuoti, terra crepata, immagini stereotipate”.
Alenichev ha raccolto più di 100 immagini generate dall’intelligenza artificiale che ritraggono la povertà estrema, utilizzate da individui o ONG nell’ambito di campagne sui social media contro la fame o la violenza sessuale. Le immagini che ha condiviso con il Guardian mostrano scene esagerate che perpetuano stereotipi: bambini rannicchiati insieme nell’acqua fangosa; una ragazza africana in abito da sposa con una lacrima che le riga il viso. In un articolo pubblicato giovedì su Lancet Global Health, sostiene che queste immagini equivalgono a “poverty porn 2.0”. […]
IMMAGINI RAZIALIZZATE E STEREOTIPATE
“È abbastanza chiaro che varie organizzazioni stanno iniziando a prendere in considerazione immagini sintetiche invece di fotografie reali, perché sono economiche e non è necessario preoccuparsi del consenso e di tutto il resto”, ha detto Alenichev.
Le immagini generate dall’intelligenza artificiale di estrema povertà appaiono ora a dozzine su popolari siti di foto stock, tra cui Adobe Stock Photos e Freepik, in risposta a query come “povertà”. Molte recano didascalie come “Bambino fotorealistico in un campo profughi”; “Bambini asiatici nuotano in un fiume pieno di rifiuti”; e “Volontario bianco caucasico fornisce consulenza medica a giovani bambini neri in un villaggio africano”.
Adobe vende le licenze per le ultime due foto di questo elenco a circa 60 sterline.
“Sono così razzializzate. Non dovrebbero nemmeno permettere che vengano pubblicate perché sono come i peggiori stereotipi sull’Africa, o sull’India, o su qualsiasi altro posto”, ha detto Alenichev.
LE RESPONSABILITÀ DELLE PIATTAFORME
Joaquín Abela, Ceo di Freepik, ha affermato che la responsabilità dell’uso di immagini così estreme ricade sui consumatori dei media e non su piattaforme come la sua. Le foto stock generate dall’intelligenza artificiale, ha detto, sono generate dalla comunità globale di utenti della piattaforma, che possono ricevere una commissione di licenza quando i clienti di Freepik scelgono di acquistare le loro immagini.
Freepik ha cercato di ridurre i pregiudizi che aveva riscontrato in altre parti della sua libreria fotografica, ha detto, “iniettando diversità” e cercando di garantire l’equilibrio di genere nelle foto di avvocati e amministratori delegati ospitate sul sito. […]
L’USO DA PARTE DELLE ORGANIZZAZIONI INTERNAZIONALI
In passato, importanti organizzazioni benefiche hanno utilizzato immagini generate dall’intelligenza artificiale come parte delle loro strategie di comunicazione sulla salute globale. Nel 2023, la sezione olandese dell’organizzazione benefica britannica Plan International ha pubblicato una campagna video contro i matrimoni infantili contenente immagini generate dall’intelligenza artificiale di una ragazza con un occhio nero, un uomo anziano e un’adolescente incinta.
L’anno scorso, l’ONU ha pubblicato un video su YouTube con “ricostruzioni” generate dall’intelligenza artificiale di violenze sessuali durante i conflitti, che includevano la testimonianza generata dall’intelligenza artificiale di una donna burundese che descriveva di essere stata violentata da tre uomini e lasciata morire nel 1993 durante la guerra civile nel suo Paese. Il video è stato rimosso dopo che il Guardian ha contattato l’ONU per un commento.
Un portavoce delle forze di pace delle Nazioni Unite ha dichiarato: “Il video in questione, prodotto più di un anno fa utilizzando uno strumento in rapida evoluzione, è stato rimosso, poiché riteniamo che mostri un uso improprio dell’intelligenza artificiale e possa comportare rischi per l’integrità delle informazioni, mescolando filmati reali e contenuti quasi reali generati artificialmente. Le Nazioni Unite rimangono fermamente impegnate a sostenere le vittime di violenze sessuali legate ai conflitti, anche attraverso l’innovazione e la difesa creativa”.
IL DIBATTITO ETICO E I RISCHI DI DISTORSIONE
Arnold ha affermato che il crescente utilizzo di queste immagini generate dall’intelligenza artificiale arriva dopo anni di dibattiti nel settore sull’etica delle immagini e sulla narrazione dignitosa della povertà e della violenza. “Presumibilmente, è più facile utilizzare immagini generate dall’intelligenza artificiale già pronte che non richiedono il consenso, perché non si tratta di persone reali”. […]
Da tempo è stato riscontrato che gli strumenti di IA generativa replicano, e talvolta esagerano, i pregiudizi sociali più diffusi. La proliferazione di immagini distorte nella comunicazione sanitaria globale potrebbe aggravare il problema, ha affermato Alenichev, perché le immagini potrebbero diffondersi su Internet ed essere utilizzate per addestrare la prossima generazione di modelli di IA, un processo che ha dimostrato di amplificare i pregiudizi.
Un portavoce di Plan International ha affermato che quest’anno l’ONG ha “adottato linee guida che sconsigliano l’uso dell’IA per raffigurare singoli bambini” e ha aggiunto che la campagna del 2023 ha utilizzato immagini generate dall’IA per salvaguardare “la privacy e la dignità delle ragazze reali”.
Adobe ha rifiutato di commentare.
(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)






