Skip to content

IA apple icloud

Perché Apple rischia un processo miliardario per ciò che si trova su iCloud

Negli Usa oltre 2500 vittime di abusi intendono fare causa ad Apple per non aver controllato ciò che l'utenza stocca su iCloud. Nel 2021 Cupertino annunciò iniziative per controllare i dati ma, subissata di accuse di violazione della privacy, abbandonò il progetto

A voler sintetizzare al massimo una questione legale estremamente complessa, si potrebbe parlare di culpa in vigilando applicata al mondo del Web: secondo la tesi dell’accusa, infatti, chi ha le chiavi di casa del cloud – ovvero Apple – non avrebbe fatto abbastanza per accertarsi che nello storage online ci finissero pure materiali illeciti. Ma la vicenda, come si anticipava, è assai più complessa.  E per questo occorre riavvolgere il nastro del film fin dalle prime battute. Secondo quanto riporta il NY Times, infatti, si starebbe coagulando una class action in un tribunale della California settentrionale contro Apple da parte oltre 2500 persone che chiedono a Cupertino un risarcimento superiore a 1,2 miliardi di dollari. L’accusa? Non aver verificato che su iCloud si stoccasse materiale pedopornografico.

CHI INTENDE FARE CAUSA AD APPLE E PERCHE’

Per la precisione, gli attori sarebbero 2.680, tutti a vario titolo vittima di abusi o reati analoghi. Tutti intenzionati a chiedere ad Apple una specie di risarcimento per quanto patito. Per certi versi la loro strategia legale potrebbe apparire sconclusionata: è come se si accusasse il proprietario di un magazzino di non essersi accertato che il conduttore vi stesse accatastando materiale pedopornografico. Nessun giudice accoglierebbe una simile richiesta.

COSA C’E’ SU iCLOUD?

Ma la causa in questione, oltre alla cattiva pubblicità, presenta comunque un profilo insidioso per l’azienda di Tim Cook: nel 2021 Apple annunciò – e dunque promise – lo sviluppo e poi l’applicazione di strumenti tecnologici altamente avanzati per il rilevamento di materiale pedopornografico depositati su iCloud. Questi algoritmi avrebbero dovuto vagliare le tonnellate di giga stoccate dai vari account per segnalare automaticamente le immagini sospette al National Center for Missing and Exploited Children, creando una vera e propria rete virtuale per la protezione dei minori nel mondo digitale.

INTERESSI CONTRAPPOSTI DA TUTELARE

Non se ne fece nulla, perché all’epoca gli utenti insorsero adducendo la violazione della privacy: volevano infatti avere certezze che i controlli non avessero piloti umani, non fosse tenuto un registro di ciò che i bot avevano rinvenuto rovistando o, molto semplicemente, rifiutavano a monte l’ipotesi di doversi sottoporre a una simile perquisizione. Per non incorrere in class action da parte dell’utenza iCloud, Cupertino preferì accantonare il progetto.

UN PASSO INDIETRO NON GRADITO

Ed è qui che si sostanzia l’appiglio logico delle oltre 2500 vittime di abusi: sostenere che Apple fosse a conoscenza del problema, avesse già gli strumenti per risolverlo, ma abbia preferito guardare altrove. Un atteggiamento che avrebbe favorito le condotte criminose, sempre secondo la tesi della parte attrice.

LA REPLICA DI CUPERTINO

Apple respinge ogni addebito: “Il materiale pedopornografico è abominevole e siamo impegnati a contrastare i modi in cui i predatori mettono a rischio i bambini”, la risposta che Cupertino ha affidato a un suo portavoce, Fred Sainz, che ricorda iniziative messe in campo dalla big tech americana come il sistema Communication Safety per avvertire i minori di contenuti a rischio. Ma critiche analoghe arrivano anche al di qua dell’oceano, dalla National Society for the Prevention of Cruelty to Children del Regno Unito che sostiene vi sia una sottostima delle segnalazioni di materiale pedopornografico.

Torna su