Innovazione

A cosa sta lavorando la Darpa per rendere l’Intelligenza artificiale sempre più “umana”

di

Un sistema di “machine learning” avanzato per rendere l’Intelligenza Artificiale sempre più autonoma nel prendere le proprie decisioni. E un progetto di cybersecurity per blindarlo da minacce esterne

L’obiettivo è quello di creare un sistema di “machine learning” talmente avanzato e rivoluzionario all’interno dell’Intelligenza artificiale, da essere in grado di fornire risposte adeguate anche in caso di situazione nuove o complicate. Questo per rendere l’IA sempre più autonoma nel prendere le proprie decisioni. Ci sta lavorando la Darpa, acronimo di Defense Advanced Research Projects Agency, l’agenzia americana della Difesa per i progetti avanzati di ricerca, nell’ambito del programma “Lifelong Learning Machines” (L2M).

L’INTELLIGENZA ARTIFICIALE IMPARA DALL’ESPERIENZA

Il sistema si basa sulla premessa fondamentale che alcuni sistemi di machine learning potrebbero avere difficoltà a identificare, integrare e organizzare alcuni tipi di informazioni nuove o complicate che non sono ancora visibili. “Se qualcosa di nuovo è abbastanza diverso, il sistema può fallire. Questo è il motivo per cui ho voluto avere un tipo di apprendimento automatico che impara dall’esperienza. I sistemi non sanno cosa fare in alcune situazioni”, ha sottolineato al sito Defensemaven, Hava Siegelmann, program manager della DARPA all’Information Innovation Office e professore di informatica all’Università del Massachusetts. In sostanza, l’obiettivo del programma high-tech potrebbe essere spiegato in termini di “formazione immediata in tempo reale”. Se le macchine imparano anche le cose più difficili o ambigue mentre eseguono le analisi in tempo reale, allora, come spiega Siegelmann, “non siamo legati al set di formazione (cioè alle informazioni precedentemente compilate o memorizzate). Mettiamo insieme dati vecchi e nuovi dati per riqualificare la rete su tutti i dati del training”.

RAPIDA CRESCITA DELLA CAPACITÀ DI COMPRENDERE IL CONTESTO MA A VOLTE SI RISCONTRANO DIFFICOLTÀ

Attualmente le applicazioni più all’avanguardia nell’ambito dell’Intelligenza artificiale stanno mostrando una rapida crescita della capacità di comprendere il contesto, le sfumature complesse e persino alcune variabili altamente soggettive. Malgrado ciò, molte macchine possono avere difficoltà in alcuni casi ad integrare correttamente i dati che non hanno ancora aggiunto al loro database. Il machine learning può riconoscere anomalie e modelli che non fanno parte dei volumi storici di informazioni raccolte, ma ci sono alcuni tipi di sviluppi inaspettati che possono presentare grandi difficoltà per alcuni sistemi di apprendimento automatico. In molti casi, se le nuove informazioni vengono introdotte in un programma di machine learning, è stato riscontrato che a volte il sistema “non è in grado di riconoscere una nuova immagine. Se si impara gradualmente nel tempo, invece, non arrivano sorprese”, ha detto Siegelmann.

SI LAVORA PER RENDERE POSSIBILE ALL’AI DI RISPONDERE ANCHE IN SITUZIONI PIÙ SFUMATE

In generale, l’intelligenza artificiale funziona confrontando i nuovi input con un database di informazioni note per discernere i margini di differenza, fare calcoli e determinare le risposte a problemi apparentemente irrisolvibili o estremamente complessi. Grazie alla velocità di elaborazione avanzata, combinata con la capacità di eseguire analisi in tempo reale, è possibile estrarre volumi di dati apparentemente illimitati in modo quasi immediato: ciò fornendo risposte e organizzando le informazioni per i decisori umani. Per esempio, Siegelmann ha spiegato che il pattern recognition avanzato permette all’intelligenza artificiale di conoscere la differenza tra molte parole, immagini e programmi complicati o difficili da riconoscere. E in questo senso il programma L2M è stato progettato per partire da questa base, e portare i vantaggi tecnici ad un livello completamente nuovo. Come ha evidenziato ancora Sigelmann, ci sono alcuni tipi di sfumature di dati mai viste prima che rappresentano un allontanamento da ciò che un apprendimento automatico può tipicamente analizzare. Inoltre, sembrano esserci anche dei limiti all’IA, che potrebbe non avere ancora la capacità di digerire e assimilare completamente alcune variabili molto soggettive come “sentimenti”, “istinti” o certi tipi di sfumature decisionali rese possibili unicamente dalla cognizione umana o qualsiasi cosa che non sia compatibile con algoritmi informatici, formule matematiche o alcuni metodi di analisi puramente scientifici. Al contrario, si può anche dire che, attingendo a database che includono cose come schemi di discorso, comportamenti precedenti e altri tipi di prove catalogate, l’IA è ora all’avanguardia nel poter gestire fenomeni molto più soggettivi.

L’IA È ANALOGA AL SISTEMA DI APPRENDIMENTO DI UN BAMBINO

È interessante notare che LM2 ha alcuni paralleli concettuali con i fenomeni biologici umani, ha spiegato Seigelmann. La sinergia avanzata tra input e output, in tempo reale, è analoga a quella dell’apprendimento di un bambino: “Quando nasce, un bambino impara tutto il tempo ad adattarsi e comprendere ciò che lo circonda. La gente, invece, ha paura delle sorprese: più velocemente una macchina è in grado di assorbire ed elaborare nuove informazioni aggiungendole istantaneamente e sincronizzandole con il suo database esistente, più velocemente si allena per riconoscere e calcolare nuove cose”.

SIEGELMANN STA LAVORANDO ANCHE A UN PROGETTO DI CYBERSECURITY PER L’INTELLIGENZA ARTIFICIALE

Accanto al continuo sforzo sul programma L2M, Siegelmann ha evidenziato un’altra branca che sta esplorando, quella della sicurezza cibernetica. Il progetto di cybersecurity, chiamato Guarantee AI Robustness Against Deception (GARD), è stato pensato per comprendere nuovi tipi attacchi informatici, più sofisticati e, come ha detto Siegelmann, per “rendere l’apprendimento delle macchine più sensibile e rendere l’IA più robusta e resiliente”. Il programma GARD è stato progettato per affrontare i metodi emergenti di tentata intrusione progettati per “confondere” o reindirizzare il sistema orientato all’apprendimento della macchina che sta attaccando. “Questo tipo di attacco potrebbe coinvolgere un particolare algoritmo progettato per inviare qualcosa al sistema di apprendimento automatico e di fatto inviare qualcosa per indurre l’IA a rispondere in un modo che non ci si aspetterebbe. Essenzialmente confondere e ingannare la macchina per costringerla a prendere una decisione”, ha detto Siegelmann. Se un attacco di questo tipo avesse successo, ad esempio, un aggressore potrebbe istruire un sistema abilitato all’IA per “consentire l’accesso” ad una rete protetta e “aprire una porta”. DARPA prevede comunque di lanciare formalmente il programma entro dicembre di quest’anno.

ISCRIVITI ALLA NOSTRA NEWSLETTER

Iscriviti alla nostra mailing list per ricevere la nostra newsletter

Iscrizione avvenuta con successo, ti dovrebbe arrivare una email con la quale devi confermare la tua iscrizione. Grazie, il tuo Team Start Magazine

Errore

Articoli correlati