Ci saranno più vantaggi o svantaggi dall’Intelligenza artificiale? Più rischi o più benefici?
Ecco l’opinione di Michele Colajanni, professore ordinario di ingegneria informatica all’università di Bologna e fondatore della Cyber Academy per la formazione di hacker etici e del Centro di Ricerca Interdipartimentale sulla Sicurezza e Prevenzione dei Rischi (CRIS) presso l’Università di Modena e Reggio Emilia.
Puoi indicare un esempio pratico in cui è giustificato avere paura dell’Intelligenza Artificiale e pertanto applicare la nuova tecnologia con particolare prudenza?
Se escludiamo i pericoli insiti nel dominio delle macchine sull’uomo che lascerei alle sceneggiature di Hollywood, i problemi maggiori non sono insiti nell’AI, ma nel rilascio graduale del controllo da parte nostra. La macchina è veloce e instancabile, l’uomo è pigro. È una lotta impari e gradualmente sempre più persone cederanno volentieri il controllo delle loro scelte alle macchine. Già adesso molti tendono a delegare la scelta di un film, di una musica, di una relazione, di un investimento. Il solito problema della rana bollita: quando ce ne accorgeremo sarà troppo tardi. Col controllo si delega anche la capacità di discernimento e le competenze. Le nuove generazioni cresceranno a pane e qualche versione di ChatGPT senza avere il piacere di “sudare” per acquisire qualche specifica competenza. Forse non serviranno, ma è uno scenario distopico che mi preoccupa. Un’altra preoccupazione deriva dall’eccessiva enfasi che fa apparire l’AI come la panacea di tutti i nostri problemi. Non è così e forse non sarà mai così. Ci sono ambiti in cui i risultati sono migliori di quelli umani, altri che rappresentano ancora temi di ricerca aperti e altri ancora in cui forse l’AI non sarà mai applicabile con successo. Tuttavia, la spinta finanziaria è molto forte, quindi ogni prudenza razionale sembra inaccettabile, spesso derisa come antimodernismo. Pericoloso!
Qual è a tuo avviso, invece, l’esempio in cui la AI è più utile per risolvere importanti problemi nell’interesse delle persone e della società?
Penso che i maggiori ambiti di miglioramento saranno nella combinazione di digitale, AI e medicina. Non solo la diagnostica attuale, ma nuovi approcci terapeutici, nuovi medicinali personalizzati. Tutto ciò che porta non necessariamente ad allungare la vita, ma a migliorarne la qualità. Non è così semplice come poteva sembrare all’inizio perché ogni uomo è un essere complesso e unico, ma non vedo un ambito migliore su cui investire per l’interesse dell’intera società.
Da profano se uno mi chiede cosa sia l’Intelligenza Artificiale rispondo che è la capacità del computer di correlare tra di loro una miriade di dati che aumentano e cambiano in continuazione, trasformarli in modelli di comportamento, utilizzare questi modelli per svolgere dei compiti specifici al posto delle persone. E così?
Non così facile e non sempre così. Nel tuo elenco, in realtà, c’è un problema: la maggior parte dei modelli di AI non gradiscono uno scenario di “dati che cambiano in continuazione”. In realtà, questi sono proprio gli scenari dove l’AI funziona meno bene. I modelli ottengono risultati anche migliori dell’uomo nei contesti più stabili perché devono apprendere, poi decidere, scegliere e agire. Se la base di apprendimento cambia continuamente, ci sono ancora molti problemi aperti.
Come accadde per la Cybersecurity ora la AI è diventata di moda. Molto politici e anche tanti giornalisti ne parlano senza sapere bene di cosa parlano. È anche una bolla politico-mediatica come alcuni osservatori sostengono?
Come detto prima, è innanzitutto una bolla finanziaria che stimola i media e di conseguenza la politica, ma anche la ricerca scientifica dove oramai non puoi non interessarti al tema dell’AI. Sull’argomento delle competenze, preferisco non risponderti. Come ogni bolla dell’IT, a partire da quella delle dot.com di fine millennio, qualcuno si arricchirà molto e qualcuno si farà male. Però, questa è una bolla che è destinata a sgonfiarsi, non a scoppiare, quindi qualcosa di buono rimarrà, anzi sta già producendo effetti.
I giornalisti e gli accademici sono molto spaventati dalla AI cosiddetta “generativa” . Personalmente per ora non la uso perché non è in grado di rispondere alle domande che pongo su argomenti di incerta comprensione. Perché quando c’è di mezzo l’incertezza l’AI non funziona?
L’AI generativa è molto diversa dagli altri approcci di AI, quindi è meglio non arrivare a conclusioni generali. L’AI generativa si basa su dati di apprendimento e su modelli statistici, quindi è inevitabile che si ottengano risultati indefiniti. Il vero problema è assumere l’AI generativa come affidabile, tantomeno in contesti incerti. L’aspetto interessante è che con adeguate interazioni, le risposte si possono raffinare. L’aspetto preoccupante è che gli errori non si definiscono tali, ma “hallucination”: il marketing sta prevalendo sulla scienza…
Come accademico non sono per nulla spaventato dall’AI generativa: la stiamo utilizzando in tanti contesti anche con risultati soddisfacenti. Se fossi un giornalista, un analista o un artista sarei molto preoccupato e cercherei di capire come poterla sfruttare a mio vantaggio. Chi riuscirà a comprenderlo prima avrà molti benefici come già evidenziato da qualche artista visivo.
Si potrebbe ipotizzare che l’aggettivo generativo é stato utilizzato perché creativo ma estraneo alla AI almeno per ora. Intendo dire che quando la AI scrive un testo, scrive una pagina formalmente nuova, ma non inventa niente. Insomma é corretto affermare che i giornalisti non dovrebbero preoccuparsi perché il computer funziona solo se alimentato da dati, informazioni, notizie e ipotesi già conosciute?
Al contrario, si dovrebbero preoccupare perché si sta riducendo la platea di lettori in grado di apprezzare articoli originali e dirompenti da veri giornalisti creativi. Non saprei come contrastare questa tendenza, ma penso che il gap tra articoli generati dall’AI e quelli originali aumenterà; il problema è chi saprà apprezzarli. Tuttavia, si possono generare articoli nello stile di qualche autore. La sfida è aperta e noi tifiamo per gli autori, vero?
Agli studenti chiedo di avvalersi della AI generativa come informazione di base e successivamente creare loro qualcosa che abbia un valore aggiunto. Ti sembra un approccio didattico accettabile?
È quello che uso anch’io, ma pretendo di conoscere la base generata e la parte aggiunta dallo studenti. Ho la netta percezione che non tutti siano onesti, ma non ho alcun vero modo di provarlo. Questo sarà un problema per tutti i docenti e, detto fra noi, non sappiamo bene come risolverlo se non ricorrere agli orali.
Sino agli anni 2010/12 la Cina ha collaborato gomito a gomito con le università e le imprese della Silicon Valley e non solo della California. Ciò ha permesso la nascita del polo tecnologico di Shenzen e della Grand Bay. Perché l’Europa non ha fatto altrettanto ed è rimasta indietro?
La risposta diretta e brutale è che l’Europa su certi temi non esiste. Esistono i singoli Paesi in competizione tra loro e lo si sta vedendo anche per i finanziamenti all’AI: tutti dichiarano di voler essere protagonisti a scapito degli altri; c’è collaborazione a livello di progetti di ricerca europei, non di aziende né di governi. Di fronte ai colossi americani e cinesi, i singoli Paesi europei o si coalizzeranno oppure verrano schiacciati. L’alternativa è di essere assorbiti da una delle due parti.
L’Europa rincorre sempre la ricerca scientifica e l’innovazione tecnologica con l’illusione di regolamentare. È corretto affermare che mentre tutti parlavamo da sinistra di migrazione al Cloud, l’Ue ha ideato il Gdpr che di fatto è applicato solo sulla carta perché nasce dall’ignoranza sul declino dei server?
Problema antico, ma inevitabile quando la stragrande maggioranza di chi redige policy europee ha competenze giuridiche e non tecnologiche. Ne ho conosciuti tanti e sono molto onesti intellettualmente. Di più, sono intimamente convinti che il loro lavoro potrà essere efficace nel regolamentare le attività delle grandi aziende americane e cinesi. Purtroppo, tali velleità non si sono mai concretizzate con i ventennali tentativi di regolamentazione di alcuna tecnologia digitale: Web, social network, cloud, privacy e adesso AI. Tante regole, tanti oneri per le aziende europee, qualche sanzione esorbiatante, ma nessuna efficacia. Se lo storia è magistra vitae perché dovremmo credere che l’AI Act sarà realmente efficace? Se non si portano le Big Tech ai tavoli decisionali non si potrà arrivare da nessuna parte. Questa tensione normativa non sta aiutando né i cittadini né le aziende europee.
L’India da molti anni è riuscita a convincere i Big tech americani a costruire sul proprio territorio data center e veri centri di ricerca. Numerosi paesi europei invece (dall’Ungheria alla Spagna) sono diventati importatori di tecnologie, device, torri, centraline, cavi, router ecc cinesi. Perché?
Perché funzionano e costano meno, ma ci dovrebbe essere un aspetto etico superiore oltre ai rischi di altra natura. I cittadini e i politici di un Paese veramente democratico come la Spagna non dovrebbero mai dimenticare le conseguenze di vivere in dittatura. Per i rischi ne riparliamo in un altro contesto.
Senza AI Iron Dome non potrebbe funzionare. Molte applicazioni di AI passano da comunicazioni satellitari. Elon Musk è stato in grado bloccare una controffensiva Ucraina contro le navi russe nel Mar Nero. Gruppi di miliziani filo russi e filo iraniani dispongono di droni EW. In Italia c’è qualcosa su questo fronte e sulla Cybersecurity in generale? O il gap con i principali attori politici internazionali è aumentato nell’ultimo decennio?
No comment.
*****
BIOGRAFIA DI MICHELE COLAJANNI
Michele Colajanni, professore ordinario di ingegneria informatica dal 2000, è all’Università di Bologna dal 2021. Svolge le sue attività di ricerca nell’ambito della cybersecurity in ambito sia tecnologico sia manageriale. Gli interessi di ricerca si estendono alla progettazione e testing di sistemi scalabili e resilienti anche mediante l’utilizzo di strumenti di big data analytics e machine learning. Fondatore della Cyber Academy per la formazione di hacker etici e del Centro di Ricerca Interdipartimentale sulla Sicurezza e Prevenzione dei Rischi (CRIS) presso l’Università di Modena e Reggio Emilia, collabora da anni con la Bologna Business School dove dirige il corso di perfezionamento in Cybersecurity Management. Coordina varie iniziative di formazione, di divulgazione e di superamento del digital divide anche di genere. È coinvolto in molteplici progetti di ricerca e di trasferimento tecnologico a livello nazionale e internazionale.