Skip to content

AI Overview Google

Con AI Overview di Google il pensiero critico adesso è davvero morto

Addio dubbi, approfondimento, copyright, dati personali. AI Overview di Google, la funzionalità basata sull'IA che risponde a (quasi) tutte le domande rubando da altri siti è ora qui. Ecco cosa significa

 

In ritardo rispetto ai competitor, ma alla fine è arrivata anche in Italia. È AI Overview di Google, una nuova funzionalità del motore di ricerca – paragonabile a ChatGPT search – che offre, alle nostre domande, risposte prodotte dalla sua intelligenza artificiale (AI) Gemini, la quale pesca nel web da varie fonti.

Chi sta sperimentando AI Overview da tempo, in altri Paesi dove era già disponibile, mette però in guardia da alcune insidie…

COME FUNZIONA AI OVERVIEW DI GOOGLE

AI Overview di Google non risponde a tutte le domande, ma quasi. La funzionalità infatti si attiva solo per query, ovvero “interrogazioni”, per le quali è possibile trovare informazioni nel web. A quel punto il primo risultato che comparirà non sarà un sito sul quale cliccare ma un riassunto delle informazioni individuate, rielaborate da Gemini e pronte all’uso.

Mallory De Leon, portavoce di Google, lo scorso maggio aveva spiegato che le AI Overview “appaiono per le query complesse […] quando i nostri sistemi ritengono che l’intelligenza artificiale generativa possa essere particolarmente utile, ad esempio quando volete capire rapidamente le informazioni provenienti da una serie di fonti”. Secondo Wired Us, tuttavia, dai test iniziali sembrava che avvenisse perlopiù casualmente.

(QUASI) IMPOSSIBILE DA DISATTIVARE

Problema numero 1: è possibile disattivare AI Overview di Google? “Sfortunatamente no”, rispondeva la testata americana, che spiegava che le AI Overview sono ormai parte integrante della pagina dei risultati di ricerca predefinita.

Tuttavia, suggeriva un paio di modi per evitarle. Il primo, una volta atterrati sulla pagina dei risultati con le AI Overview in cima, consiste nel selezionare l’opzione “Altro” e fare clic su “Web”. A quel punto compare una pagina di risultati che mostra solo i link ai siti web. Il secondo impone, invece, di installare un’estensione del browser che forza automaticamente questa visualizzazione.

IL FAR WEST DIGITALE DEI DATI

Problema numero 2: la protezione dei propri dati. L’intelligenza artificiale di Google utilizza le interazioni degli utenti, comprese le ricerche e i feedback forniti, per “sviluppare e migliorare le esperienze di intelligenza artificiale generativa”. L’informativa sulla privacy di Big G spiega che l’azienda raccoglie diversi tipi di informazioni da tutti gli utenti che utilizzano qualsiasi servizio dell’azienda, non solo l’IA.

Tuttavia, alcuni esperti suggeriscono una maggiore cautela. “Nessuno di noi può permettersi di credere semplicemente che le aziende, il cui unico scopo è la massimizzazione dei profitti, faranno la cosa giusta per noi e con noi”, ha detto Yvette Schmitter, Ceo della società tecnologica Fusion Collective, aggiungendo che al momento “non ci sono regole che disciplinino l’uso responsabile ed etico dell’IA”.

“Siamo nel Far West digitale, senza sceriffo, linee guida, regole o normative in vista – ha proseguito -. Nei prossimi anni ci aspetta una bella cavalcata, quindi è fondamentale impegnarsi subito. Siate proattivi nel controllare i vostri dati, chi li può usare e chi vi ha accesso”.

L’ENNESIMA PROVA PER GLI EDITORI

Problema numero 3: l’incubo di giornalisti ed editori è ancora più concreto. Già l’arrivo di ChatGPT ha iniziato a destabilizzare il panorama editoriale, con l’IA che ruba articoli (fregandosene altamente del copyright) e giornali che si dividono tra chi lotta per sopravvivere e continuare a rendere un servizio utile (si spera) alla comunità – vedi il New York Times – e chi cede e stringe accordi con chi la possiede, sperando di guadagnarci qualcosa nell’immediato ma senza guardare troppo in là. In Italia, per esempio, il Gruppo Gedi (Repubblica e La Stampa) ha siglato una partnership supersegreta con OpenAI, di cui nemmeno i dipendenti sono stati messi al corrente.

Ora, quanto AI Overview di Google cambierà gli equilibri solo il tempo potrà dirlo. Intanto, però, l’azienda ha già fatto capire che è molto probabile che la sua funzionalità sarà più che sufficiente a soddisfare gli utenti e che soprattutto di pagare gli editori per il traffico che portano alla piattaforma di ricerca non ne ha alcuna intenzioni. Anzi, può proprio fare a meno di loro per continuare a campare serenamente.

Un portavoce di Mountain View, infatti, ha dichiarato che grazie alla nuova funzionalità le persone trovano i risultati molto più utili, tanto da tornare a cercare su Google più spesso. E solo qualche giorno fa, commentando i risultati del test in cui ha oscurato per alcuni mesi i contenuti della stampa europea nei servizi Google News, Search e Discover al fine di valutare il valore economico delle news per il suo sistema di advertising delle notizie, l’azienda ha concluso che l’assenza di news non avrebbe alcun impatto sui suoi guadagni di Adv.

ADDIO DUBBI

Infine, una questione più filosofica e meno pratica: la morte del dubbio, potenzialmente in miliardi di persone. ChatGPt Search per ora conta oltre 400 milioni di persone ogni settimana, ma su circa 5,56 miliardi di utenti, circa 4,9 miliardi utilizzano Google.

Un altro aspetto da non sottovalutare, infatti, è il rischio di allucinazioni di cui soffrono le IA perché se il chatbot Gemini avverte che “potrebbe mostrare informazioni imprecise” e invita a ricontrollare le sue risposte, AI Overview non lo fa, eliminando così qualsiasi possibilità di dubbio sulla sua affidabilità. E sebbene sia possibile fare ulteriori ricerche e approfondire, l’economia dell’attenzione ci insegna che appare difficile credere che la maggior parte degli utenti, spesso alla ricerca di risposte rapide, andrà oltre il primo risultato dall’aspetto soddisfacente.

Come osserva l’HuffPost, AI Overview a volte raccoglie informazioni da fonti che potrebbero non essere verificate o accurate, come le discussioni su Reddit, e spinge le fonti affidabili più in basso, dando luogo a un riassunto che può essere sbagliato o addirittura dannoso. “Ad esempio, quando si cercano consigli medici, l’intelligenza artificiale potrebbe generare risultati potenzialmente pericolosi, come il caso tristemente noto in cui AI Overview suggeriva di bere urina per curare i calcoli renali”, ha detto Andrey Meshkov, cofondatore e Cto di AdGuard, un’azienda specializzata in soluzioni per la privacy e il blocco degli annunci.

E nonostante, Google incoraggi gli utenti a “pensare in modo critico alle risposte che si ottengono dagli strumenti di intelligenza artificiale generativa” e a segnalare le cose che non vanno bene, è tristemente legittimo pensare che la pappa pronta potrebbe avere la meglio.

Torna su