Su Nature Biotechnology è stato pubblicato un articolo di George Church del Dipartimento di Genetica, Harvard Medical School, che affronta i problemi di sicurezza connessi con l’applicazione dell’Intelligenza Artificiale nelle biotecnologie. Gli autori propongono di integrare, negli strumenti generativi di AI utilizzati in biotecnologia, misure di sicurezza al fine di rendere più difficile l’uso per scopi illeciti.
Ormai tutti sentiamo parlare di AI, sappiamo che sta rivoluzionando le attività umane, dalla conoscenza al lavoro, con impatti evidenti in politica. Lo sviluppo e l’applicazione di questi programmi sono oggetto di dibattiti che prendono atto sia delle enormi potenzialità sia dei rischi di una applicazione non corretta. Pochi giorni fa Leone XIV, appena nominato Papa, ha posto l’attenzione su questo tema e ha ottenuto tra l’altro la risposta del Presidente del Consiglio, Giorgia Meloni, che già l’aveva portato al G7 in Puglia facendo intervenire Papa Francesco.
Questa anima bifronte si riscontra però in ogni sviluppo tecnologico; non sono le scoperte o le tecnologie ad essere positive o negative di per sé, ma il modo in cui le usiamo. Anche se come ricercatore ritengo che ogni scoperta e innovazione abbia un valore sempre positivo, in quanto permette di capire meglio la realtà.
Nella ricerca biotecnologica, la AI ha già un impatto notevole. Nel 2024 il premio Nobel per la Chimica è stato assegnato a David Baker, Demis Hassabis e John M. Jumper per aver sviluppato programmi, come AlphaFold2, che usano l’intelligenza artificiale per la “progettazione computazionale di proteine” o per prevedere la struttura di quasi tutte le proteine conosciute in base alla loro sequenza aminoacidica. Un passo da gigante se pensiamo che, nel 1962, Max Ferdinand Perutz e John Kendrew hanno ricevuto il Nobel per essere riusciti a determinare la truttura di una proteina con i raggi X. Ma la AI permette ha anche aumentato la nostra capacità di analizzare i genomi, di studiare l’espressione genica con impatti diagnostici e terapeutici e di generare sequenze di proteine mai viste prima in tempi record. RFdiffusion e ProGen possono progettare proteine che servirebbero come farmaci, vaccini e altre terapie.
Ma gli stessi programmi possono essere usati per aumentare la virulenza virale, progettare tossine o modificare gli embrioni umani. E le discussioni bioetiche e politiche riguardo questi strumenti sono in ritardo rispetto ai progressi tecnologici. Alcuni ritengono che gli strumenti siano ormai così facili da utilizzare e di ampio accesso da rendere possibile anche a chi opera al di fuori dall’accademia una progettazione “tossica” o pericolosa. Anche se il rischio rimane teorico, un gruppo di 130 ricercatori ha firmato un documento in cui si impegnano a utilizzare l’IA in modo sicuro.
Nell’articolo di Nature Biotechnology si va oltre, delineando misure di sicurezza da integrare nei programmi di AI. Una di queste è FoldMark, che permette di inserire un codice in una sequenza proteica senza modificare la funzione della proteina. Se viene rilevata un’azione tossica, il codice può far risalire a chi l’ha progettata. Gli autori suggeriscono anche di ridurre la pericolosità potenziale dei programmi, che sono addestrati su proteine esistenti, incluse tossine e proteine patogene, con un approccio chiamato “disapprendimento”, rendendo più difficile l’uso per nuove proteine potenzialmente pericolose. L’articolo suggerisce anzi di allenare i modelli di AI perché le riconoscano e rifiutino proteine “pericolose” e sollecita gli sviluppatori ad adottare misure di sicurezza esterne per monitorare l’uso di AI e allertare quando qualcuno tenta di produrre materiali biologici potenzialmente pericolosi.
L’attuazione di questi sistemi di sicurezza non sarà semplice. Un organo di regolamentazione o una supervisione sarebbe un punto di partenza, ma le regolamentazioni spesso creano più danni che benefici.
L’opinione pubblica si interessa ancora poco degli impatti della AI in termini di biosicurezza, concentrandosi su disinformazione o deep fake. Tuttavia, in un periodo con attriti internazionali e un’instabilità globale a cui non eravamo abituati, è meglio iniziare a pensarci.