Il test di Turing è un esperimento proposto nel 1950 dal matematico britannico Alan Turing, uno dei padri dell’informatica moderna. È uno dei criteri più famosi proposti per valutare se una macchina ha raggiunto una certa soglia di intelligenza artificiale: se un giudice non è in grado di distinguere con certezza tra un interlocutore umano e una macchina, allora quest’ultima ha superato il test di Turing. Non c’è dubbio che gli strumenti che si avvalgono dei modelli linguistici definiti GPT (Generative Pre-trained Transformer) abbiano brillantemente superato non solo il test di Turing, ma anche le aspettative di chi, dall’avvento di Chat GPT lo scorso novembre, vi si è avvicinato.
Nelle ultime settimane però, un articolo firmato dalle prestigiose Università di Stanford e Berkeley dal titolo “How Is ChatGPT’s Behavior Changing over Time?” ha innescato un certo dibattito e portato alcuni a concludere che Chat GPT stia peggiorando quanto alla qualità delle risposte fornite.
Altri invece, come Sharon Zhou, ceo di Lamini, ritengono che OpenAI, la società che gestisce Chat GPT, si stia più semplicemente avvalendo di un approccio definito “Mixture of Experts” e ricorra quindi, a seconda della domanda digitata, a 16 “mini GPT-4”, ciascuno specializzato in un ambito preciso per via del corpus informativo con cui è stato addestrato. Forse anche per questa ragione, la versione a pagamento di Chat GPT ha introdotto le “Custom Instructions” così da aver chiaro il contesto d’uso preferenziale dell’utente abbonato.
Se è legittimo condurre dei test in una fase come questa in cui l’introduzione dell’Intelligenza Artificiale sta avendo luogo, a molteplici livelli, nel sistema economico e formativo delle nostre società, occorre però ribadire che è semplicemente inutile bollare uno strumento come questo come “stupido” proprio perché la sua intelligenza va considerata solo nel senso gergale del termine: questi modelli infatti non sono matematici, ma statistici. Diversamente dalle calcolatrici, che partono dalle regole con cui sono state programmate, tali modelli sono piuttosto dei “text predictor” e partono dal corpus di informazioni con cui sono stati addestrati per fornire una risposta basata su criteri probabilistici. Questa natura spiega le “allucinazioni” in cui i sistemi possano incorrere e può essere valutata solo in forma aggregata e nel tempo.
Proprio per ovviare a limiti ben noti, la versione a pagamento di Chat GPT, che adotta la versione GPT-4 anziché quella 3.5 presente nella versione gratuita, è stata migliorata grazie all’integrazione con plugin di terze parti. Formulare una domanda avvalendosi del plugin di Wolfram Alpha consente ad esempio di servirsi della precisione di questo formidabile motore di ricerca computazionale per ricevere risposte corrette in campi quali la matematica, la fisica, la chimica, ma anche la storia e l’economia. La sua integrazione con Chat GPT coniuga dunque la precisione dell’informazione con la sintassi del modello linguistico.
Questi plugin non migliorano solo la precisione delle risposte, ma ampliano anche la gamma di domande a cui Chat GPT può rispondere in modo accurato. Grazie alla recente integrazione di Code Interpreter in GPT-4 ad esempio, è divenuto possibile creare prompt multimodali ovvero gli utenti possono fare domande che allegano immagini, fogli di calcolo e documenti ed ottenere output che a loro volta possono essere costituite non solo da immagini o grafici, ma anche dai ragionamenti che hanno portato ad elaborarli.
In sintesi, l’integrazione di plugin come Code Interpreter in GPT-4 sta contribuendo a rendere l’Intelligenza Artificiale più adattabile e capace. Con questi strumenti, GPT-4 è in grado di fornire risposte più precise e pertinenti, ma può anche interagire con l’utente in modi nuovi e innovativi, arricchendo l’esperienza complessiva e offrendo una gamma di possibilità sempre più ampia.
Code Interpreter non è l’unico plugin che amplia le capacità di GPT-4. Esistono altri strumenti che offrono funzionalità aggiuntive e preziose. Alcuni di questi permettono a GPT-4 di navigare online, aggiornando così le sue risposte con informazioni attuali e aggiornate. Altri plugin, invece, aggiungono funzionalità specializzate, consentendo al modello di eseguire attività che vanno oltre la generazione di testo. Negli Stati Uniti, ad esempio, è possibile utilizzare un plugin che integra Instacart con GPT-4 e così non solo ricevere ricette, ma poi utilizzare Instacart per acquistare direttamente tutti gli ingredienti necessari. Se si vuole usare Chat GPT come guida di viaggio, l’integrazione con Kayak permette di prenotare direttamente online. Tra le centinaia di plugin disponibili, l’integrazione con Golden fornisce risposte aggiornate su vari argomenti legati all’economia e alla finanza. Che si tratti di monitorare l’andamento del mercato azionario o di rimanere aggiornati sulle ultime notizie economiche, Golden rende GPT-4 una risorsa preziosa per coloro che vogliono rimanere informati.
L’integrazione di questi plugin in GPT-4 rappresenta un passo avanti significativo nell’evoluzione dell’intelligenza artificiale. Non solo rende GPT-4 più utile e versatile, ma mostra anche il potenziale futuro dell’IA: un futuro in cui l’intelligenza artificiale non è solo uno strumento per rispondere a domande, ma un assistente personale onnipresente che può aiutare in una miriade di attività quotidiane.
Se non si vuole acquistare la versione a pagamento in ogni caso, Bing.com e Perplexity.ai, fra i tanti tool emersi in questi mesi, sono valide alternative per via dalla loro natura ibrida: strumenti di AI che danno risposte, ma anche motori di ricerca che attingono ad informazioni aggiornate e indicano le fonti di cui si sono servite.
In questi mesi il dibattito pubblico sull’Intelligenza Artificiale è oscillato fra il considerarlo un gioco e il primo passo verso l’Apocalisse: comprenderne la natura, i limiti e le opportunità aiuterebbe a valutarne l’impiego e a introdurlo in modo più consapevole nella produttività di tutti i giorni e nello sviluppo di imprese e organizzazioni.