Skip to content

IA google

Google regala parte dell’intelligenza artificiale che alimenta i chatbot? Report Nyt

Come Meta, anche Google ha lanciato i suoi modelli di intelligenza artificiale open source, liberi e gratuiti per tutti gli sviluppatori. Ma quali sono i rischi? L'articolo del New York Times

 

Quando l’anno scorso Meta ha condiviso il codice informatico grezzo necessario per costruire un chatbot, le aziende rivali hanno affermato che Meta stava rilasciando al mondo una tecnologia poco comprensibile e forse persino pericolosa. Scrive il New York Times.

Ora, a dimostrazione del fatto che i critici della condivisione della tecnologia IA stanno perdendo terreno rispetto ai loro colleghi del settore, Google sta facendo una mossa simile. Mercoledì scorso Google ha reso pubblico il codice del computer che alimenta il suo chatbot online, dopo aver tenuto nascosto questo tipo di tecnologia per molti mesi.

GOOGLE SI APRE ALL’OPEN SOURCE

Come Meta, Google ha dichiarato che i vantaggi della libera condivisione della tecnologia – chiamata modello linguistico di grandi dimensioni – superano i rischi potenziali.

In un post sul blog, l’azienda ha annunciato il rilascio di due modelli linguistici di IA che potrebbero aiutare le aziende esterne e gli sviluppatori di software indipendenti a creare chatbot online simili a quelli di Google. Chiamati Gemma 2B e Gemma 7B, non sono le tecnologie IA più potenti di Google, ma l’azienda sostiene che sono in grado di competere con molti dei sistemi leader del settore.

“Speriamo di coinvolgere nuovamente la comunità degli sviluppatori di terze parti e di fare in modo che i modelli basati su Google diventino uno standard industriale per la costruzione delle moderne IA”, ha dichiarato in un’intervista Tris Warkentin, direttore della gestione dei prodotti di Google DeepMind.

Google ha dichiarato di non avere in programma di rilasciare gratuitamente il suo modello di IA di punta, Gemini. Essendo più efficace, Gemini potrebbe anche causare più danni.

Questo mese Google ha iniziato a far pagare l’accesso alla versione più potente di Gemini. Offrendo il modello come servizio online, l’azienda può controllare più strettamente la tecnologia.

OPEN SOURCE VS CLOSED SOURCE

Preoccupate che le tecnologie IA vengano utilizzate per diffondere disinformazione, incitamento all’odio e altri contenuti tossici, alcune aziende, come OpenAI, il produttore del chatbot online ChatGPT, sono diventate sempre più segrete sui metodi e sul software alla base dei loro prodotti.

Ma altre, come Meta e la startup francese Mistral, hanno sostenuto che la libera condivisione del codice – chiamata open sourcing – è l’approccio più sicuro, perché consente agli esterni di identificare i problemi della tecnologia e suggerire soluzioni.

Yann LeCun, scienziato capo di Meta, ha sostenuto che i consumatori e i governi si rifiuteranno di abbracciare l’IA se non sarà fuori dal controllo di aziende come Google, Microsoft e Meta.

“Volete che ogni sistema di IA sia sotto il controllo di un paio di potenti aziende americane?”, ha dichiarato l’anno scorso al New York Times.

I RISCHI DELL’OPEN SOURCE

In passato, Google ha reso disponibili molte delle sue principali tecnologie IA, compresa la tecnologia di base per i chatbot. Tuttavia, sotto la pressione concorrenziale di OpenAI, è diventata più riservata su come sono state costruite. Jeanine Banks, vicepresidente di Google per le relazioni con gli sviluppatori, ha dichiarato in un’intervista che l’azienda ha deciso di rendere nuovamente disponibile la sua IA in modo più libero a causa dell’interesse degli sviluppatori.

Nel prepararsi a rilasciare le tecnologie Gemma, l’azienda ha dichiarato di aver lavorato per garantire che fossero sicure e che il loro utilizzo per diffondere disinformazione e altro materiale dannoso violasse la sua licenza software.

“Ci assicuriamo di rilasciare approcci completamente sicuri sia nella sfera proprietaria che in quella aperta, per quanto possibile”, ha dichiarato Warkentin. “Con il rilascio dei modelli 2B e 7B, siamo relativamente sicuri di aver adottato un approccio estremamente sicuro e responsabile per garantire che questi modelli possano essere utilizzati nel settore”.

Ma i malintenzionati potrebbero comunque utilizzare queste tecnologie per causare problemi.

Google permette di scaricare sistemi che sono stati addestrati su enormi quantità di testo digitale raccolto da Internet. I ricercatori chiamano questa operazione “liberare i pesi”, riferendosi ai particolari valori matematici appresi dal sistema durante l’analisi dei dati.

L’analisi di tutti questi dati richiede in genere centinaia di chip per computer specializzati e decine di milioni di dollari. Si tratta di risorse che la maggior parte delle organizzazioni, per non parlare dei singoli individui, non ha.

(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)

Torna su