skip to Main Content

Gruppo Lagrange

Quale uso faranno le grandi aziende dell’Intelligenza artificiale post pandemia?

Come e quanto l'intelligenza artificiale viene utilizzata in questi giorni dalle grandi aziende. L'approfondimento di Axios

 

Durante la pandemia di coronavirus le imprese e le istituzioni hanno dovuto affrontare una serie di richieste senza precedenti – in termini di ordini, domande ecc. – che hanno richiesto l’incremento dell’uso dell’intelligenza artificiale in alcune delle aree più sensibili della società.

Purtroppo, in alcuni casi, scrive Axios, “gli algoritmi e i dati su cui si basano” le risposte automatizzate “possono aver ampliato i pregiudizi preesistenti tanto più quando sono stati realizzati senza un’attenta verifica e revisione”.

COSA È SUCCESSO A TWITTER E FACEBOOK E WALMART

Per capirlo basta prendere come esempi Twitter e Facebook: i due social “si sono affidati molto di più all’Intelligenza artificiale per moderare i contenuti” si legge su Axios. Questo a causa del fatto che “molti degli appaltatori che normalmente si occupano di tali compiti non sono stati in grado di recarsi in ufficio” mentre le aziende “non hanno voluto che il lavoro venisse svolto a distanza in modo da poter tenere sotto controllo i dati sensibili degli utenti”.

Anche i soci di Walmart hanno espresso la preoccupazione per l’uso che è stato fatto dell’Intelligenza artificiale “utilizzata per l’autoverifica” interna che ha segnalato in molti casi “comportamenti appropriati come potenziale illeciti senza casi di furto effettivo”.

DATI SANITARI PIENI DI PREGIUDIZI

La necessità di ottenere risultati rapidi nei primi giorni della pandemia ha spinto, infatti, l’adozione di nuovi usi dell’Intelligenza artificiale anche per rintracciare la diffusione del virus e accelerarne la diagnosi. Ma i dati sanitari lasciano fuori gran parte della popolazione “e storicamente sono pieni di pregiudizi”, ha sottolineato Axios.

VOGEL: LA PROSSIMA PANDEMIA È L’INTELLIGENZA ARTIFICIALE

Al di là di questi esempi, gli esperti temono che l’improvvisa battuta d’arresto dell’economia abbia spinto le aziende e le istituzioni che dispongono di risorse limitate ad affidarsi sempre più ad algoritmi per prendere decisioni in materia di alloggi, credito, occupazione e altri settori. “E’ la prossima pandemia”, ha detto Miriam Vogel, CEO di EqualAI, che ha scritto sull’argomento.

“La tecnologia basata sull’intelligenza artificiale ci consente di rimanere in contatto con le nostre comunità, ordinare forniture essenziali ed eseguire i nostri lavori rispettando gli ordini di casa. Assicura che siamo intrattenuti utilizzando algoritmi per confrontare le nostre visualizzazioni Netflix precedenti per raccomandare il nostro binge watch successivo – ha spiegato la Vogel -. L’intelligenza artificiale consente anche ai robot di rispondere alla richiesta di consegna di alimenti senza contatto alle nostre case e di fornire dispositivi di protezione individuale (DPI) agli ospedali senza esporre i lavoratori delle forniture al virus. Questi sviluppi hanno salvato e migliorato la vita durante la pandemia. Tuttavia, anche nei periodi migliori, le menti più acute delle aziende più sofisticate fanno fatica a garantire che il loro uso dell’IA non sia né discriminatorio né iniquo. Ad esempio – ha proseguito -, i più avanzati programmi di riconoscimento facciale dell’IA spesso non riescono a identificare le persone di colore, come recentemente affrontato dalle grandi aziende tecnologiche, tra cui Amazon, Microsoft e IBM che hanno deciso di rimandare i programmi utilizzati dalle forze dell’ordine ad almeno l’anno successivo. Ulteriori rischi possono essere maggiormente evidenziati nel nostro attuale utilizzo dell’IA per facilitare la revisione dei contenuti dei media online, le decisioni di assunzione e le opportunità di assistenza sanitaria”.

DUBBI IN TUTTI I SETTORI

E infatti, ha sottolineato Axios, le aree chiave in cui si è accelerata l’adozione dell’Intelligenza artificiale hanno tutte sollevato dei dubbi. Nel lavoro ad esempio “sono state sollevate preoccupazioni circa l’uso di algoritmi che vengono utilizzati sia per vagliare i candidati che per decidere chi viene tagliato quando le aziende riducono il personale”. Nel settore della sicurezza il problema del riconoscimento facciale “che accentua i pregiudizi razziali”. Nell’edilizia abitativa dove l’IA “sta giocando un ruolo maggiore nelle decisioni come la scelta degli inquilini da parte dei proprietari e l’approvazione dei prestiti da parte delle banche. L’IA ha il potenziale per aiutare le persone che da tempo si trovano ad affrontare la discriminazione su questi fronti – ma solo se si presta sufficiente attenzione sia agli algoritmi che ai dati di formazione”, ha spiegato Axios. E ancora il Covid-19 dove “l’IA sta giocando un ruolo importante in tutto, dalla sperimentazione dei vaccini alla sensibilizzazione del pubblico, fino alle decisioni su chi può essere curato in sicurezza a casa tramite la telemedicina. Ma i fornitori devono controllare quali gruppi sono sottorappresentati nei dati utilizzati per formare gli algoritmi, insieme ai modelli di disuguaglianza nei sistemi sanitari esistenti”.

GLI ESPERTI RACCOMANDANO LO SVILUPPO DELL’IA CON GRUPPI DI PERSONE DIVERSIFICATE

Insomma, “se si intende utilizzare l’IA per prendere decisioni significative, gli esperti raccomandano di assicurarsi che un gruppo diversificato di persone sia coinvolto nella revisione del tutto, dalla progettazione dell’algoritmo ai dati di formazione fino al modo in cui il sistema sarà implementato e valutato”, si legge sempre su Axios.

PER LA PROFESSORESSA HOLLISTER LA COMPONENTE UMANA NON È LA PANACEA DI TUTTI I MALI

Tuttavia, la professoressa della McGill University Matissa Hollister ha osservato che aggiungere gli esseri umani al mix non è una panacea per tutti i mali, dato che anche gli esseri umani hanno molti pregiudizi.

AMAZON E MICROSOFT HANNO MESSO IN PAUSA I PROGRAMMI DI RICONOSCIMENTO FACCIALE. IBM LI HA CHIUSI

In ogni caso Amazon e Microsoft hanno messo in pausa l’uso del riconoscimento facciale guidato dall’intelligenza artificiale da parte della polizia, mentre IBM sta uscendo completamente dal business proprio per evitare problemi. Quello che invece può attendere il futuro prossimo è un’ondata di cause legali da parte dei consumatori che sostengono di essere stati discriminati dai sistemi di intelligenza artificiale, soprattutto in settori chiave come le assunzioni. “La legge è molto chiara: non si può discriminare nelle decisioni di lavoro”, ha infatti sottolineato la Vogel.

Back To Top