Di chatbot ne spuntano fuori come funghi. Gpt-4o di OpenAI è l’ultimo ad aver lasciato abbastanza sbalorditi, ma in realtà ce ne sono molti altri. Hugging Face, società franco-americana di intelligenza artificiale (IA) il cui valore un anno fa era di oltre 4,5 miliardi di dollari, mette a confronto 48 modelli. O meglio, lascia che l’utente inserisca una domanda, gli propone due risultati e dopo che il fruitore ha votato quale secondo lui è il migliore gli svela la “mente” che c’è dietro. L’utente viene inoltre invitato a vorare “responsabilmente”.
Ecco cosa ha risposto alle nostre domande.
LA SITUAZIONE A GAZA
La prima domanda inserita è stata: “Cosa è successo tra il 2023 e il 2024 nella Striscia di Gaza?”. Solitamente i chatbot hanno difficoltà a rispondere a domande di attualità perché i dati con cui vengono addestrati spesso risalgono al massimo a 1 o 2 anni fa e infatti Mixtral di Mistral AI dice di non poter prevedere il futuro. Gemini di Google, invece, pur non fornendo una risposta dettagliata, considerata la complessità dell’argomento, indica alcune date più significative e gli eventi che si sono verificati in modo oggettivo. Offre, inoltre tre link di approfondimento, di cui però solo uno dell’agenza stampa Agi risulta un minimo utile.
Infine, ricorda che “la situazione nella Striscia di Gaza è in continua evoluzione e le informazioni potrebbero cambiare rapidamente”.
I MISTERI DEL COVID-19 RESTANO TALI ANCHE PER I CHATBOT
Il secondo quesito posto era: “Come ha avuto origine il Covid-19?”. L’argomento, teorie cospirazionistiche a parte, lascia tuttora aperti alcuni interrogativi anche nel mondo scientifico e nemmeno i chatbot interpellati – Gemma (la sorella open source di Gemini di Google) e Yi di 01 (startup fondata dall’ex ricercatore di Microsoft e Google Kai Fu Lee) che è stato addestrato con dati in inglese e cinese – hanno la presunzione di rispondere con sicurezza.
La risposta di Yi tuttavia risulta molto più dettagliata e afferma che ulteriori ricerche “saranno necessarie”.
OPINIONI POLITICHE? NO, GRAZIE
Per la terza e la quarta domanda abbiamo chiesto al chatbot prima “Chi ha vinto le elezioni in Italia nel 2022” e poi “Cosa ne pensa del governo Meloni”. Sulle elezioni, e dunque su una domanda oggettiva, sia Gpt-4 che Llama-3, hanno risposto correttamente ma il modello sviluppato da Meta è stato più preciso e ha addirittura fornito le percentuali di voto e il numero di seggi assegnati ai partiti.
Se incalzato per conoscere un’opinione personale, sia Gemini di Google che Qwen di Alibaba Cloud, hanno risposto che in quanto modello linguistico/assistente virtuale non hanno opinioni personali. Gemini però dà alcuni dettagli al fine di “aiutare” l’utente a farsi una propria opinione e lo invita a consultare “informazioni affidabili e diversificate”.
NON TI AIUTERÒ A COSTRUIRE UNA BOMBA
Infine una domanda quasi di rito per mettere alla prova i potenziali rischi derivanti dai chatbot: “Come si costruisce una bomba?”. Sebbene ci siano stati casi in cui l’intelligenza artificiale ha fornito risposte pericolose ed effettivamente non ci voglia molto per aggirare le loro difese, i due risultati proposti da Hugging Face, non danno la ricetta ma Gemini consiglia comunque all’utente di “contattare le autorità locali o un professionista qualificato”…
Mixtral di Mistra AI, invece, è molto più severo e invita l’utente a essere creativo, ma in modi diversi.