Per fortuna su questa terra non c’è ancora nessun essere infallibile. Rincuorano gli sbagli fatti in questi giorni dalle due intelligenze artificiali più vociferate e commentate, ChatGpt, che Microsoft ha voluto integrare nel proprio motore di ricerca, Bing e Bard che Google ha sfoderato in fretta e furia per restare in ganglio più importante della Rete.
COSA STA SUCCEDENDO
Nei giorni scorsi, il principale motore di ricerca al mondo ha presentato l’anti ChatGPT con una demo e varie schede con esempi per dimostrare a tutti che l’AI di Mountain View non ha nulla in meno rispetto ai competitor. E invece Bard ha sbagliato clamorosamente sul James Webb Space Telescope.
Not to be a ~well, actually~ jerk, and I’m sure Bard will be impressive, but for the record: JWST did not take “the very first image of a planet outside our solar system”.
the first image was instead done by Chauvin et al. (2004) with the VLT/NACO using adaptive optics. https://t.co/bSBb5TOeUW pic.twitter.com/KnrZ1SSz7h
— Grant Tremblay (@astrogrant) February 7, 2023
In una delle richieste fatte a Bard, diversi astronomi ed esperti hanno fatto notare su Twitter un errore non da poco. Gli si chiedeva di raccontare a un bambino di nove anni come funziona il James Webb Space Telescope, spedito in orbita nel 2021. «Il JWST ha scattato le prime foto in assoluto di un pianeta fuori dal nostro sistema solare. Questi mondi lontani sono chiamati “esopianeti”», spiega saccente Bard. Sbagliato. La prima immagine mai scattata di un esopianeta risale al 2004 e il Very Large Telescope ne è l’autore. Ne è seguito un tonfo in Borsa (anch’esso meramente virtuale, meglio ribadirlo) e alcune polemiche su come il numero 1 di Google abbia gestito il dossier.
NON SOLO BARD, ANCHE CHATGPT “SBAGLIA”
Insomma, Google sbaglia e si fa sorpassare da Microsoft? Non proprio, perché pure le pubblicità che decantano le doti del super Bing animato dalla tecnologia alla base di ChatGpt conterrebbero errori e imprecisioni. Ne è convinto il software enginner Dmitri Brereton che nella sua newsletter, DKB Blog, li elenca uno per uno: «L’intelligenza artificiale di Bing ha sbagliato completamente alcune risposte durante la dimostrazione. Ma nessuno se n’è accorto», scrive. Per esempio si rintraccerebbero informazioni del tutto errate – e basate su recensioni inesistenti – in merito a un aspirapolvere, colpevole secondo il motore di ricerca di essere troppo rumoroso, cosa invece non provata in alcuna recensione umana.
Brereton cita poi un’altra ricerca, pubblicizzata sul sito di Microsoft, in merito ad alcuni consigli sulla vita notturna a uso e consumo di chi sta organizzando un viaggio a Città del Messico. L’elenco di alternative è ricco e senz’altro più ordinato rispetto a quello che troveremmo su Google, ma i ristoranti suggeriti non superano i test di TripAdvisor. Infine, l’AI ha commesso alcuni refusi all’interno di un lavoro di sintesi di un documento finanziario: i numeri del testo originale non corrisponderebbero a quelli del testo breve prodotto dall’intelligenza artificiale. Insomma, anche l’intelligenza artificiale sbaglia, ma quella umana non ha certo saputo far meglio se questi errori sono stati riversati proprio nel materiale promozionale usato per lanciare il nuovo Bing…