skip to Main Content

Ai Smartphone

Come rendere i chatbot molto più economici grazie agli smartphone

L'esecuzione dell'intelligenza artificiale generativa, come ChatGPT, sui telefoni cellulari, piuttosto che attraverso il cloud su server gestiti da gruppi di Big Tech, potrebbe rispondere a una delle maggiori questioni economiche sollevate dall'ultima moda tecnologica. L'articolo del Financial Times

 

È iniziata la corsa per portare la tecnologia alla base di ChatGPT sullo smartphone che avete in tasca. E a giudicare dalla sorprendente velocità con cui la tecnologia sta avanzando, le ultime mosse dell’IA potrebbero trasformare le comunicazioni mobili e l’informatica molto più velocemente di quanto sembrasse probabile solo pochi mesi fa. Scrive il Financial Times.

Mentre le aziende tecnologiche si affrettano a incorporare l’IA generativa nei loro software e servizi, devono affrontare costi di calcolo significativamente più elevati. Questa preoccupazione ha pesato in particolare su Google, con gli analisti di Wall Street che hanno avvertito che i margini di profitto dell’azienda potrebbero essere ridotti se gli utenti delle ricerche su Internet si aspettano contenuti generati dall’IA nei risultati di ricerca standard.

L’esecuzione dell’IA generativa sui telefoni cellulari, piuttosto che attraverso il cloud su server gestiti da gruppi di Big Tech, potrebbe rispondere a una delle maggiori questioni economiche sollevate dall’ultima moda tecnologica.

UN’IA IBRIDA PER RIDURRE I COSTI

La scorsa settimana Google ha dichiarato di essere riuscita a far funzionare una versione di PaLM 2, il suo ultimo modello di linguaggio di grandi dimensioni, su un Samsung Galaxy. Anche se non ha mostrato pubblicamente il modello ridotto, chiamato Gecko, la mossa è l’ultimo segno che una forma di IA che ha richiesto risorse di calcolo solo in un centro dati sta rapidamente iniziando a farsi strada in molti altri luoghi.

Questo cambiamento potrebbe rendere servizi come i chatbot molto più economici da gestire per le aziende e aprire la strada ad applicazioni più trasformative che utilizzano l’IA generativa.

“È necessario che l’IA sia ibrida, cioè che funzioni sia nel data center che a livello locale, altrimenti costerà troppo”, ha dichiarato al Financial Times Cristiano Amon, amministratore delegato dell’azienda di chip mobili Qualcomm. Sfruttare la potenza di elaborazione inutilizzata dei telefoni cellulari è il modo migliore per distribuire i costi”, ha dichiarato.

COME SFRUTTARE GLI SMARTPHONE

Quando alla fine dello scorso anno il lancio di ChatGPT ha portato l’IA generativa all’attenzione di tutti, la prospettiva di portarla sui telefoni cellulari sembrava lontana. Oltre all’addestramento dei cosiddetti modelli linguistici di grandi dimensioni che stanno alla base di questi servizi, anche il lavoro di inferenza, ovvero l’esecuzione dei modelli per produrre risultati, è impegnativo dal punto di vista computazionale. I telefoni cellulari non hanno la memoria necessaria per contenere modelli di grandi dimensioni come quello alla base di ChatGPT, né la potenza di elaborazione necessaria per eseguirli.

Generare una risposta a una domanda su un dispositivo, piuttosto che aspettare che un centro dati remoto produca un risultato, potrebbe anche ridurre la latenza, o il ritardo, nell’utilizzo di un’applicazione. Quando i dati personali dell’utente vengono utilizzati per affinare le risposte generative, mantenere tutta l’elaborazione su un dispositivo portatile potrebbe anche migliorare la privacy.

Più che altro, l’intelligenza artificiale generativa potrebbe rendere più facile svolgere attività comuni su uno smartphone, ad esempio quando si tratta di produrre testo. “Si potrebbe incorporare [l’IA] in ogni applicazione da ufficio: Se ricevi un’e-mail, ti suggerisce una risposta”, ha detto Amon. “Dovrete essere in grado di eseguire queste cose sia a livello locale che nel data center”.

MODELLI LINGUISTICI PIÙ PICCOLI (COME QUELLO DI META)

I rapidi progressi di alcuni modelli sottostanti hanno cambiato l’equazione. I più grandi e avanzati, come il PaLM 2 di Google e il GPT-4 di OpenAI, hanno conquistato i titoli dei giornali. Ma un’esplosione di modelli più piccoli ha reso disponibili alcune delle stesse capacità in modi tecnicamente meno impegnativi. Questi hanno beneficiato in parte di nuove tecniche di messa a punto dei modelli linguistici basate su una cura più attenta dei set di dati su cui vengono addestrati, riducendo la quantità di informazioni che devono contenere.

Secondo Arvind Krishna, amministratore delegato di IBM, la maggior parte delle aziende che cercheranno di utilizzare l’IA generativa nei propri servizi otterranno gran parte di ciò di cui hanno bisogno combinando una serie di questi modelli più piccoli. Parlando la scorsa settimana in occasione dell’annuncio di una piattaforma tecnologica per aiutare i clienti a sfruttare l’IA generativa, Krishna ha affermato che molte aziende opteranno per l’utilizzo di modelli open-source, in cui il codice è più trasparente e può essere adattato, in parte perché sarà più facile mettere a punto la tecnologia utilizzando i propri dati.

Alcuni dei modelli più piccoli hanno già dimostrato capacità sorprendenti. Tra questi c’è LLaMa, un modello linguistico open-source rilasciato da Meta, che si dice abbia eguagliato molte delle caratteristiche dei sistemi più grandi.

LLaMa è disponibile in varie dimensioni, la più piccola delle quali ha solo 7 miliardi di parametri, molto meno dei 175 miliardi di GPT-3, il modello linguistico rivoluzionario rilasciato da OpenAI nel 2020 – il numero di parametri di GPT-4, rilasciato quest’anno, non è stato reso noto. Un modello di ricerca basato su LaMa e sviluppato all’Università di Stanford è già stato mostrato in funzione su uno dei telefoni Pixel 6 di Google.

I VANTAGGI

Oltre alle dimensioni molto più ridotte, la natura open-source di modelli come questo ha reso più facile per ricercatori e sviluppatori adattarli a diversi ambienti informatici. All’inizio dell’anno Qualcomm ha mostrato quello che sosteneva essere il primo portatile Android con il modello di generazione di immagini Stable Diffusion, che ha circa 1 miliardo di parametri. Il chipmaker ha “quantizzato”, ovvero ridotto le dimensioni del modello per farlo girare più facilmente su un portatile senza perdere la sua precisione, ha dichiarato Ziad Asghar, vicepresidente senior di Qualcomm.

Poiché la maggior parte del lavoro di adattamento dei modelli ai telefoni è ancora in fase sperimentale, è troppo presto per valutare se gli sforzi porteranno ad applicazioni mobili veramente utili, ha affermato Ben Bajarin, analista di Creative Strategies. Ha previsto applicazioni relativamente rudimentali, come funzioni di editing fotografico a comando vocale e semplici risposte a domande, dalla prima ondata di modelli mobili con un numero di parametri compreso tra 1 e 10 miliardi.

Zoubin Ghahramani, vicepresidente di Google DeepMind, il braccio di ricerca sull’intelligenza artificiale della società internet, ha dichiarato che il suo modello mobile Gecko è in grado di elaborare 16 token al secondo, una misura basata sul numero di brevi unità di testo con cui lavorano i modelli linguistici di grandi dimensioni. La maggior parte dei modelli di grandi dimensioni utilizza 1-2 token per ogni parola generata, il che suggerisce che Gecko potrebbe produrre circa 10-15 parole al secondo su un telefono cellulare, rendendolo potenzialmente adatto a suggerire messaggi di testo o brevi risposte alle e-mail.

Secondo Asghar di Qualcomm, i particolari requisiti dei telefoni cellulari fanno sì che l’attenzione si sposti rapidamente verso i cosiddetti modelli multimodali, in grado di lavorare con una serie di immagini, testi e altri input. È probabile che le applicazioni mobili si basino in larga misura sul parlato e sulle immagini, ha aggiunto, piuttosto che su applicazioni pesanti come il testo, più comuni sui personal computer.

E APPLE COSA FARÀ?

La sorprendente rapidità con cui l’intelligenza artificiale generativa sta iniziando ad arrivare sugli smartphone è destinata ad aumentare l’attenzione su Apple, che finora si è tenuta lontana dalla frenesia speculativa intorno a questa tecnologia.

I difetti ben noti dell’IA generativa, come la tendenza dei modelli di grandi dimensioni ad avere “allucinazioni”, ovvero quando il chatbot risponde con informazioni inventate, hanno reso improbabile che Apple inserisca la tecnologia nel sistema operativo dell’iPhone per un po’ di tempo, ha affermato Bajarin. Ha invece previsto che l’azienda cercherà di rendere più facile per gli sviluppatori di app iniziare a sperimentare la tecnologia nei propri servizi.

“Questa è la posizione che vedrete anche da Microsoft e Google: tutti vorranno dare agli sviluppatori gli strumenti per andare a competere [con le applicazioni di IA generativa]”. ha dichiarato Bajarin.

Con l’inizio della Worldwide Developers Conference di Apple il 5 giugno, preceduta dall’evento per sviluppatori di Microsoft chiamato Build, la lotta per l’attenzione degli sviluppatori sta per diventare intensa. L’intelligenza artificiale generativa è ancora agli albori, ma la corsa per arrivare nelle mani – e nelle tasche – di molti più utenti sta già entrando nel vivo.

(Estratto dalla rassegna stampa estera a cura di eprcomunicazione)

Back To Top