Skip to content

agostino ghiglia

ChatGPT&Co. possono mandarci in questura. L’allarme del Garante Privacy

Semplici strumenti innovativi o mezzi di controllo? Gli algoritmi leggono, archiviano e - in alcuni casi - segnalano gli utenti alle autorità. Come ha detto Agostino Ghiglia (Garante Privacy): "Ogni parola può diventare un fascicolo. Il confine tra sicurezza e sorveglianza massiva si assottiglia ogni giorno". Tutti i dettagli

 

L’intelligenza artificiale non si limita più a rispondere alle domande o generare contenuti: ora può anche segnalare un utente alle autorità. È quanto emerge da un allarme lanciato da Agostino Ghiglia, membro del Garante per la privacy. Gli strumenti di IA come ChatGPT, Claude o Gemini analizzano conversazioni in cerca di segnali di pericolo, che, se ritenuti gravi, possono diventare veri e propri fascicoli inoltrati alla polizia. Un sistema già in funzione, che solleva interrogativi sul futuro della nostra libertà digitale.

DA DISTOPIA A REALTÀ

Quella che sembrava un’ipotesi da romanzo distopico è ormai realtà: l’intelligenza artificiale può denunciare un cittadino alle autorità, intercettando e valutando automaticamente i contenuti delle sue conversazioni. A sollevare il caso è Agostino Ghiglia, che in un’intervista a Il Giornale spiega come siamo entrati in una nuova fase del rapporto tra tecnologia e controllo.

“Ogni parola può diventare un fascicolo. Il confine tra sicurezza e sorveglianza massiva si assottiglia ogni giorno”, avverte l’esperto.

NON SOLO CHATGPT, È LA SORVEGLIANZA DEGLI ALGORITMI

Secondo Ghiglia, le piattaforme di intelligenza artificiale più diffuse – da ChatGPT a Gemini – non si limitano a elaborare dati in modo anonimo o temporaneo: “Tutti controllano, filtrano, archiviano, e inviano le chat in caso di pericolo alle autorità, seppur con modalità diverse”.

Gli algoritmi esaminano le conversazioni, identificano parole chiave e costruiscono pattern, creando banche dati interrogabili. A quel punto interviene un operatore umano che decide se inoltrare il caso alle autorità competenti. “I nostri dati personali – ha aggiunto – vengono conservati, incrociati, letti, analizzati. Ora un sospetto può nascere da un pattern, non da un fatto”.

DENUNCE SENZA GIUDICE: LA POLICY DI OPENAI

Al centro della questione c’è la Law Enforcement Policy di OpenAI, la società che sviluppa ChatGPT. Questa prevede che, in presenza di un mandato o di un ordine giudiziario, le richieste e i dati degli utenti possano essere consegnati alle autorità. Tra l’altro, se ne era già parlato anche in relazione al fatto che sempre più persone si rivolgono ai chatbot come fosse uno psicologo e lo stesso Sam Altman, Ceo Di openAI, aveva messo in guardia dai potenziali rischi.

Ma il punto più controverso, sottolinea l’articolo, riguarda i casi d’emergenza: anche in assenza di autorizzazione giudiziaria, le piattaforme possono inviare segnalazioni dirette, sulla base di una valutazione autonoma di rischio imminente.

UN MECCANISMO IN TRE FASI

Il processo si articola in tre fasi. Nel primo livello, gli algoritmi cercano segnali “pericolosi”; nel secondo, dei revisori umani valutano se si tratti di un rischio reale; infine, se ritenuto necessario, viene contattata la polizia o un servizio d’emergenza.

Attualmente, le segnalazioni dovrebbero riguardare solo casi estremi come minacce di suicidio, stragi annunciate o abusi su minori (nonostante alcuni casi dimostrino che i chatbot non sono così bravi a individuare questi pericoli e, anzi, possono veicolare altri rischi). Tuttavia, rimane aperto il timore che in futuro questi strumenti possano essere usati anche per altri scopi, meno chiari o più discutibili.

PRIVACY IN PERICOLO

Ghiglia è netto e ribadisce: “Nessuna conversazione è davvero privata. Ogni parola può essere un fascicolo: è questa la nuova normalità”.

Inoltre, solleva una questione fondamentale: “La domanda non è più se siamo controllati, ma chi controlla chi ci controlla, con quali criteri, e come possiamo difendere la nostra libertà e la nostra identità digitale quando il giudizio passa, silenzioso e inesorabile, attraverso un algoritmo”.

RISCHI POLITICI E POTERE DELLE BIG TECH

Secondo il membro del Garante privacy, non si può escludere che in futuro le ricerche o le opinioni espresse attraverso l’IA possano diventare motivo di incriminazione, magari per finalità politiche.

Ma c’è anche un paradosso istituzionale: “Mentre Bruxelles si divide sul compromesso tra sicurezza e diritti fondamentali, le multinazionali private hanno già implementato il loro controllo totale”, sottolinea Ghiglia.

RICONQUISTARE IL CONTROLLO SUI DATI

Per l’esperto, la risposta non può essere il rifiuto della tecnologia, ma un nuovo modello di gestione dei dati personali: “Non si può fermare la tecnologia ma bisogna assolutamente tornare padroni dei nostri dati: regole chiare, limiti di conservazione reali, trasparenza sulle richieste delle autorità, strumenti concreti di cancellazione e controllo.”

Solo così, conclude, sarà possibile “usare l’intelligenza artificiale senza consegnarle il potere di usarci”.

Torna su