So di non sapere… proprio tutto.
È quanto auspica per i chatbot di AI Vik Singh, vicepresidente Microsoft, una delle aziende che ha più puntato sulla nuova frontiera tecnologica investendo anche in OpenAI, la casa madre di ChatGpt, che Microsoft ha voluto integrare nel proprio motore di ricerca, Bing.
Dall’anno scorso, Microsoft, Google e i loro concorrenti hanno rapidamente distribuito applicazioni di AI generativa come ChatGpt, che generano vari tipi di contenuti su richiesta e danno agli utenti l’illusione di onniscienza. Un’illusione appunto. Al momento il problema principale dell’intelligenza artificiale generativa è la percentuale di errori, le cosiddette “allucinazioni”, che può restituire nei suoi riscontri.
Per rendere la tecnologia più affidabile, lo scorso giugno sempre Microsoft ha proposto un sistema che, in tempo reale, corregge quanto scritto, se trova online informazioni differenti, più dettagliate, rispetto al tema sul quale ha fornito un feedback.
Nonostante i progressi, questi modelli continuano ad “allucinare” o inventare risposte.
Pertanto, se gli strumenti di AI generativa faranno risparmiare alle aziende molto tempo e denaro, secondo il manager di Microsoft questi modelli devono ancora imparare quando ammettere di non avere tutte le risposte.
Tutti i dettagli.
IL FATTORE “UMANO” DEGLI ERRORI DELL’INTELLIGENZA ARTIFICIALE
Da quando il fenomeno intelligenza artificiale è esploso si sono moltiplicati gli usi dei modelli di IA ma anche gli errori, definiti in gergo ‘allucinazioni’.
“Per essere sinceri, la cosa che manca davvero oggi è che un modello di intelligenza artificiale che alzi la mano e dica ‘Ehi, non sono sicuro, ho bisogno di aiuto'”, ha spiegato Singh in un’intervista con Afp. Il dirigente è arrivato in Microsoft a gennaio scorso e quest’estate ha assunto la direzione dei team che sviluppano Copilot, l’assistente di intelligenza artificiale di Microsoft. I team di Singh stanno lavorando per integrare Copilot direttamente nel software del gigante della tecnologia e renderlo più autonomo.
Quello degli errori e delle allucinazioni per Singh è un problema importante da risolvere. I clienti aziendali non possono permettersi infatti che i loro sistemi di intelligenza artificiale vadano fuori strada, nemmeno occasionalmente.
A LAVORO SU CHATBOT CHE AMMETTANO DI NON SAPERE
Come ricorda Afp, di recente Marc Benioff, ceo di Salesforce, ha affermato che molti dei suoi clienti sono sempre più frustrati dalle incongruenze di Copilot di Microsoft.
Singh ha sottolineato che “persone davvero intelligenti” stanno lavorando su modi in cui un chatbot ammetta di non conoscere la risposta corretta e chieda aiuto. Secondo il dirigente di Microsoft un modello più umile sarebbe infatti incredibilmente utile. Anche se il modello dovesse fare riferimento a un essere umano il 50% delle volte, farebbe comunque risparmiare “un sacco di soldi”.