skip to Main Content

Intelligenza Artificiale

Tutti pazzi per l’intelligenza artificiale, che ha un problema: impara da noi

E all’improvviso tutti si accorsero che l’intelligenza artificiale è tra noi. Il post di Mario Marchi

 

E all’improvviso tutti si accorsero che l’intelligenza artificiale è tra noi. Molto ha imparato, ancor più le abbiamo insegnato a nostra stessa insaputa. Moltissimo dovremo insegnarle, magari chiedendoci cosa ci aspettiamo da lei.

IL CASO CHATGPT

Come spesso accade, la grande presa di coscienza è stata seguito della declinazione “pop” della tecnologia, ChatGPT, accompagnata da una campagna social che ha rimbalzato in tutto il mondo nel giro di pochi giorni. Del resto un’intelligenza artificiale che letteralmente parla con l’utente, risponde amichevolmente alle sue domande, fornendo notizie e dati come nessun motore di ricerca è mai stato in grado di fare, oltretutto confezionati in testi già elaborati e complessi, non poteva che avere successo.

Il Chatbot è questo, un sistema di IA che dialoga, rendendo disponibile un patrimonio di dati in continuo aggiornamento, in parte ad opera di chi lo programma, ma soprattutto attraverso un vero e proprio autoapprendimento, proprio sulla scorta delle domande che gli vengono poste.

Il risultato è che milioni di utenti si sono collegati a ChatGPT, mandandolo spesso in tilt e dando luogo già a qualche problema nella vita reale, visto che negli Usa il sistema scolastico sta correndo ai ripari per arginare il ricorso al Chabot da parte degli studenti, per farsi produrre compiti, temi e ricerche.

Insomma una bella rivoluzione, della quale — però — ci accorgiamo decisamente in ritardo.

Sono decine le applicazioni simili a ChatGPT disponibili da tempo: fanno di tutto, dallo scrivere poesie su commissione, al produrre post per i social in modo automatico, fino a comporre musiche su ordinazione. Alcune sono perfino scaricabili sullo smartphone.

L’IMPATTO SOCIALE DELL’INTELLIGENZA ARTIFICIALE

Per quanto riguarda l’impatto sociale, poi, è già accaduto ben altro e ben di più dei compiti commissionati da studenti furbetti.

Nel 2017, il giornale The Washington Post ha lanciato un servizio di notizie automatizzato chiamato Heliograf, che utilizza l’Intelligenza artificiale per generare articoli su eventi sportivi, elezioni e altri argomenti.

Nel 2018, il giornale finanziario Forbes ha utilizzato l’Intelligenza artificiale per generare una serie di articoli sull’andamento del mercato. Gli articoli sono stati scritti dall’IA in pochi minuti, basandosi sui dati del mercato e sugli eventi di notizie rilevanti.

Un anno prima, un’IA sviluppata dall’università di Stanford aveva perfino scritto un libro di fantascienza chiamato “Shelley”, che è stato pubblicato su Amazon.

Restando nella letteratura, nel 2020, un’IDEA sviluppata dalla società Primer Labs ha scritto un libro di poesie chiamato “From Darkness to Light”.

Fin qui gli utilizzi curiosi, ma non son mancati gli inconvenienti decisamente più seri.

Ad esempio, l’azienda di recruiting HireVue è stata accusata di discriminazione nei confronti dei candidati donna, poiché il suo sistema di intelligenza artificiale era stato addestrato su dati storici che mostravano una maggiore probabilità di successo per i candidati uomini e aveva elaborato ricerche e selezioni di conseguenza.

Lo stesso governo degli Stati Uniti, nel 2019, dovette fare un passo indietro nell’utilizzo di efficacissimi i sistemi di intelligenza artificiale per la valutazione dei rischi di recidiva dei detenuti, poiché era stato dimostrato che questi sistemi discriminavano le minoranze etniche, sempre a causa dell’elaborazione di dati storici e di notizie di attualità.

Insomma, oggi ci appassioniamo nel chattare con l’intelligenza artificiale, ma dobbiamo sapere che non sempre ci è amica. Dipende da noi, da cosa e quanto le insegniamo In questo senso l’uso popolare non promette benissimo: nei social non si contano consigli per utilizzare altri Chatbot che non hanno i “ filtri etici” di ChatGPT.

I programmatori di OpenAI, infatti, hanno istruito la loro creatura a non fornire risposte su richieste violente o moralmente censurabili. Ma a quanto pare c’è già chi vorrebbe un’intelligenza artificiale capace di dare il peggio di sé. E di noi.

Back To Top