skip to Main Content

Intelligenza Artificiale Microsoft

Tutto quello che Microsoft pensa dell’intelligenza artificiale

L'intervista di El Pais al presidente di Microsoft, Brad Smith, su quali sono e come affrontare i rischi legati all'intelligenza artificiale

 

Non si può negare – scrive El Pais – che Brad Smith sia un avvocato. Il Ceo di Microsoft naviga con estrema cautela quando parla delle acque turbolente in cui è attualmente immersa l’intelligenza artificiale (IA). È la tecnologia più importante che sia stata creata, dice, dall’invenzione della stampa, ma non nega che ci siano problemi relativi al suo utilizzo e al suo controllo, dagli attacchi informatici da parte di Paesi come la Russia o la Corea del Nord, alla complessa protezione dei diritti d’autore, fino a quella che, confessa, è la sua grande preoccupazione: l’uso di deepfake per alterare l’esito delle elezioni, in un anno in cui praticamente metà del pianeta andrà alle urne.

Smith (65 anni) ha presentato venerdì scorso alla Conferenza sulla sicurezza di Monaco un accordo, insieme ad altre venti aziende, per cercare di migliorare la risposta tecnologica a queste bufale e la trasparenza delle aziende che controllano l’IA. “La differenza tra la promessa e il pericolo di una nuova tecnologia è raramente stata più evidente”, ha affermato.

Ho chiesto a Copilot, l’intelligenza artificiale generativa di Microsoft, di formulare una domanda per voi. Mi ha suggerito questa: “Qual è la tua visione del ruolo dell’intelligenza artificiale nella società di oggi e come pensi che possiamo garantirne uno sviluppo etico e responsabile? Non so cosa ne pensa della domanda: Copilot può prendere il mio posto?

No, no. Ci sono tre domande, le due di Copilot e la sua. Inizio con la sua, perché credo sia importante. Copilot è un copilota. Non è un pilota. Forse l’avete usato per prepararvi a questa intervista, ma è uno strumento. Vi aiuta, vi dà delle idee, ma alla fine dovrete usare il vostro giudizio. E credo che questo sia ciò che dovremmo chiedere a tutte le persone che usano questa tecnologia: usarla per essere più creativi, per sviluppare idee, per aiutare a scrivere, ma delegare o esternalizzare il proprio pensiero a una macchina sarebbe un errore.

La rivoluzione dell’IA ci affascina e ci spaventa allo stesso tempo. Lei lavora in questo settore da molti anni, più di 30. Una tecnologia è davvero così rivoluzionaria?

Credo che l’intelligenza artificiale sia l’invenzione più importante per la mente umana dall’invenzione della stampa. E questo quasi 600 anni fa. Pensiamo alla stampa e ai suoi risultati: ha reso possibile la scrittura, la lettura e la fioritura delle economie di mercato. Con l’intelligenza artificiale è più o meno la stessa cosa, in quanto si tratta di uno strumento che può aiutare a pensare in modo diverso. Può avervi aiutato a pensare a delle domande per una conversazione, e questa è un’iniezione di creatività. È estremamente preziosa per trovare schemi in grandi quantità di dati, per offrire spunti di riflessione che aiutino a progredire in ambiti come la scoperta di farmaci. Se lo usiamo bene, può essere un acceleratore per le persone e il loro lavoro.

Tuttavia, il FMI avverte che l’intelligenza artificiale interesserà il 60% dei posti di lavoro nelle economie avanzate e, per la prima volta, avrà un impatto sulle persone più qualificate…

Si tratta di una questione molto importante che dobbiamo affrontare, ma prima vorrei contestualizzarla. Quale percentuale di posti di lavoro è stata influenzata dall’avvento della tecnologia digitale, del personal computer o del telefono cellulare negli ultimi 40 anni? Probabilmente una percentuale ancora più alta. Eppure, ci siamo adattati a questo cambiamento per quasi tutta la vita lavorativa di tutti noi che lavoriamo oggi. Molti di questi posti di lavoro sono stati modificati e alcuni sono scomparsi. La vera lezione degli ultimi 40 anni è che se le persone riescono a mantenere una conoscenza approfondita dell’uso della tecnologia, è probabile che abbiano successo nella loro carriera. Il loro lavoro può portarli in luoghi che non avevano necessariamente previsto. Ci sarà un impatto reale sul nostro modo di lavorare, e questo dovrebbe ispirarci e anche avvertirci dell’urgenza di imparare a usare questa tecnologia e a migliorare qualsiasi cosa vogliamo fare.

Lei ha parlato di creazione, e questo è uno degli aspetti più colpiti dall’IA. La sua azienda è stata citata in giudizio dal New York Times per violazione del copyright…

Penso che questo sia un aspetto naturale e inevitabile di una nuova tecnologia che ha un impatto sul modo in cui le persone creano e distribuiscono ciò che scrivono. Ci sono due questioni legali che dovremo affrontare. Una è relativamente facile e l’altra è più complessa. Quella più semplice è chiedersi cosa fare se un sistema di intelligenza artificiale genera un risultato che copia qualcosa di protetto. Si tratta di una violazione della legge, non c’è dubbio. Abbiamo fatto due cose per risolvere questo problema. In primo luogo, abbiamo costruito un’intera architettura attorno a Copilot e ad altri strumenti [Copilot cita le fonti nelle sue risposte, a differenza di altre IA generative]. In secondo luogo, abbiamo detto a tutti i nostri clienti che questo è un problema legale nostro, non loro. Se usano il nostro sistema correttamente, siamo noi i responsabili, non loro.

E poi c’è un’altra questione più incerta: si può addestrare l’IA leggendo tutte le opere del mondo? È sempre stato inteso che si può leggere quanto si vuole e ricordare quanto si può. La settimana scorsa ho incontrato un funzionario governativo in Germania che ha detto di aver letto, secondo le sue stime, circa 5.000 libri nella sua vita. Quando tiene un discorso, non deve tornare indietro e chiedersi: “Dove l’ho letto? Devo dare credito a chi mi ha dato questa idea?”.

Tutti noi abbiamo il diritto, in base alla legge sul copyright, di leggere e imparare. La domanda è se possiamo permettere alle macchine di imparare nello stesso modo. E credo che ci sia un imperativo sociale per renderlo possibile. Per far progredire le capacità di questa nuova tecnologia è necessario che essa sia in grado di apprendere ampiamente. E ancora di più: se si vuole davvero aprire questo nuovo settore agli sviluppatori open source e agli accademici, oltre alle grandi aziende, è fondamentale che sia aperto a questo tipo di apprendimento. Allo stesso tempo, nessuno di noi dovrebbe volere che questa nuova tecnologia metta fuori mercato i creatori, compresi i giornali come il New York Times. Credo che dovremo trovare un modo per bilanciare l’apprendimento con la possibilità per i creatori di continuare a guadagnarsi da vivere.

È possibile per lei trovare un accordo, non solo con il New York Times, ma anche con altri creatori e autori?

Ci sono tre obiettivi che dobbiamo tenere a mente. L’obiettivo numero uno è fare in modo che la tecnologia possa progredire e compensare i creatori di oggi e del futuro. L’obiettivo numero due è fare in modo che questo progresso avvenga in modo da rendere questi contenuti ampiamente disponibili e accessibili a tutti. E il terzo è pensare all’impatto sulle aziende che controllano gran parte dei contenuti. Il New York Times può sembrare un grande proprietario ma, in confronto a YouTube, è minuscolo. Dobbiamo pensare ad altri luoghi in cui esistono questi archivi di contenuti e dobbiamo assicurarci che siano aperti, a condizioni accessibili per tutti e non solo per l’unica azienda che li possiede, in modo da sviluppare il proprio modello.

L’Ue è diventata il primo luogo al mondo a regolamentare l’IA. Cosa pensa di questa legge?

Abbiamo bisogno di un livello di regolamentazione che garantisca la sicurezza. A volte mi stupisco quando vedo persone del settore tecnologico dire che non dovremmo avere questa regolamentazione. Quando compriamo un cartone di latte al supermercato non ci preoccupiamo se sia sicuro da bere, perché sappiamo che esiste una base di sicurezza che lo garantisce. Se questa è, come credo, la tecnologia più avanzata del pianeta, non credo sia irragionevole chiedere che abbia almeno le stesse norme di sicurezza che abbiamo per un cartone di latte. Per quanto riguarda la legge [europea] sull’IA, la buona notizia è che crea questa protezione. La legge sull’IA fa questo: esamina gli standard di sicurezza e impone una base per questi modelli. E non è molto diverso da quello che fanno il Regno Unito o gli Stati Uniti.

Penso anche che dobbiamo essere prudenti. Dobbiamo garantire la sicurezza senza creare un livello di amministrazione oneroso che aumenti i costi, soprattutto per le startup. Le aziende che ho sentito esprimere maggiore preoccupazione per la legge sull’IA non sono le più grandi. Noi, francamente, abbiamo l’infrastruttura per adeguarci. Sono le startup che potrebbero non essere in grado di farlo. Non sto dicendo questo per criticare la legge sull’IA, ma è quello che sento dire, soprattutto in Paesi come la Germania o la Francia. Tutto dipenderà dall’attuazione.

Lei ha chiesto al Senato degli Stati Uniti un “freno di sicurezza” per l’IA: in cosa consiste?

Si tratta di affrontare quella che spesso viene descritta come una minaccia esistenziale per l’umanità: quell’IA incontrollata che cercherebbe di estinguere gli esseri umani. È quello che vediamo in Terminator e in una cinquantina di altri film di fantascienza. Una delle cose che mi colpisce, dopo 30 anni in questo settore, è che la vita spesso imita l’arte. È incredibile che ci siano 50 film con la stessa trama: una macchina in grado di pensare da sola decide di schiavizzare o estinguere l’umanità, e l’umanità combatte e vince spegnendo la macchina. Cosa ci dice questo? Che dobbiamo avere un modo per rallentare o spegnere l’IA, soprattutto se controlla un sistema automatizzato di un’infrastruttura critica.

Sono passati nove mesi da quando ho presentato per la prima volta questo concetto e ciò che più mi colpisce è che ovunque vada, la conversazione è più o meno la stessa. Si inizia con questa preoccupazione: “Mio Dio, c’è un rischio esistenziale”. E poi la gente dice: “È un rischio lontano decenni, non dobbiamo concentrarci su di esso ora”. Abbiamo la capacità di risolvere più di un problema alla volta. Risolviamo quelli di oggi e di domani: il momento migliore per affrontare un problema è prima che si verifichi. Sappiamo come farlo: ogni autobus e ogni treno ha un freno di emergenza.

Microsoft e OpenIA hanno appena pubblicato un rapporto su come Cina, Russia, Corea del Nord e Iran stiano utilizzando l’intelligenza artificiale per attacchi informatici sempre più sofisticati. Cosa si può fare per prevenire tutto questo?

Innanzitutto, dobbiamo riconoscere il problema. In questo studio, Microsoft e OpenAI hanno scoperto che questi quattro Stati utilizzano l’IA generativa nelle operazioni di cybersicurezza e di influenza informatica. Non permetteremo agli attori statali di intraprendere questo tipo di condotta dannosa con l’uso delle nostre applicazioni, perché riteniamo che ciò possa danneggiare il mondo. Ma dobbiamo anche usare l’IA per contrastare e rafforzare la protezione della sicurezza informatica.

Venerdì avete annunciato un accordo per combattere i deepfake [file video, immagini o voci manipolate] nei processi elettorali. In cosa consiste?

Questo accordo è molto importante. Prima di tutto perché il problema è che quest’anno ci saranno elezioni in più di 65 Paesi e in tutta l’Unione europea. E stiamo assistendo a un rapido utilizzo di deepfake per cercare di ingannare il pubblico, ad esempio, sulle dichiarazioni di un candidato. Con questo accordo tecnologico ci concentriamo su tre aspetti. Il primo è proteggere meglio l’autenticità dei contenuti con credenziali e filigrane. In secondo luogo, individuare i deepfake e rimuoverli se vogliono ingannare il pubblico. In terzo luogo, dobbiamo concentrarci sull’educazione dei cittadini. E questa è un’enorme priorità per Microsoft. Personalmente, tra la fine dell’anno scorso e venerdì ho probabilmente dedicato più tempo a questa questione che a qualsiasi altra, perché riteniamo che sia fondamentale affrontarla.

Si tratta di una questione molto importante perché riguarda i processi elettorali ma, purtroppo, riguarda anche altri problemi, come le frodi finanziarie e il cyberbullismo, soprattutto nei confronti di bambini e donne. Questi due gruppi sono particolarmente vulnerabili. Dovremo fare le cose per bene, perché altrimenti il mondo sarà un posto peggiore anziché migliore a causa di questa tecnologia.

Ma la stessa industria che firma accordi come questo rende disponibili a tutti le tecnologie che causano questi problemi. OpenIA ha presentato giovedì la sua AI video, Sora, in cui i video generati dall’AI sono quasi indistinguibili dalla realtà…

Più una tecnologia diventa potente, più forti devono essere le protezioni e i controlli che la accompagnano. Penso che dovremo tutti impegnarci di più. E l’industria probabilmente ne trarrà vantaggio se subirà anche le pressioni del governo e della società civile, perché l’entità della responsabilità e l’impatto potenziale sono così elevati. Dopo il Christchurch Pledge [un accordo tra aziende e governi per rimuovere i contenuti violenti ed estremisti da Internet in seguito all’omonimo massacro avvenuto il 15 marzo 2019 in Nuova Zelanda], abbiamo dovuto tutti adattarci. E credo che dovremo adattarci ancora. Spero che ci ricordiamo che ci è voluta una sparatoria di massa trasmessa su Internet per far aprire gli occhi alle persone su ciò che potrebbe andare storto. Sono incoraggiato dall’accordo di venerdì, ma dovremo muoverci ancora più velocemente. E soprattutto, dovremo riunire più persone. L’errore più grande che il settore tecnologico potrebbe commettere è pensare di fare già abbastanza e di poter fare ciò che deve fare se lasciato solo.

(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)

Back To Top