skip to Main Content

Chatgpt

ChatGPT diventerà il nuovo nemico della scienza?

ChatGPT, l’intelligenza artificiale di OpenAI, è riuscita a far credere a dei ricercatori che alcuni lavori scientifici generati sembravano scritti da una persona reale. Ecco come uno studio ha messo alla prova il software (e come l’essere umano c’è cascato con tutte le scarpe)

 

C’è chi lo usa come psicoterapeuta, chi come motore di ricerca e altri gli fanno scrivere compiti per scuola o tesi di laurea. Si tratta di ChatGPT, l’intelligenza artificiale di OpenAI a cui è possibile domandare qualsiasi cosa, tanto da far tremare colossi come Google e Microsoft, che avrebbe addirittura intenzione di investirci 10 miliardi di dollari.

Essendo così scaltro e in grado di scrivere testi che potrebbero essere stati prodotti da una persona in carne e ossa, ChatGPT sta già sollevando diverse preoccupazioni. Alcuni ricercatori, infatti, hanno pubblicato un articolo su bioRxiv in cui osservano che l’intelligenza artificiale (AI) è stata capace di elaborare falsi abstract (sintesi) di documenti di ricerca così convincenti che spesso gli scienziati non se ne sono accorti.

Questa deriva inquieta molti esperti che, infatti, sono divisi sulle implicazioni che potrà avere.

CHATGPT RACCONTATO DA CHATGPT

Il magazine online Outpump ha chiesto a ChatGPT di scrivere un post per presentarsi e mostrare le sue capacità. L’intelligenza artificiale afferma che il suo scopo “è quello di aiutare le persone a rispondere alle loro domande e a risolvere i loro problemi”.

“Posso generare testi, tradurre, rispondere alle domande, creare conversazioni, generare contenuti e molto altro. Le mie capacità sono in continua evoluzione e sviluppo, ma – ammette – ci sono anche alcune limitazioni e criticità nell’utilizzo dell’IA”.

ChatGPT dichiara per esempio di non riuscire sempre a capire toni o implicazioni sottese alle parole ma soprattutto “come per qualsiasi tecnologia – scrive Outpump -, è possibile che ChatGPT venga utilizzato in modo negativo”. Per esempio, creando fake news o generando contenuti dannosi o conversazioni ingannevoli.

LO STUDIO

Per testare le capacità e comprendere se e quanto ChatGPT fosse fallace, un gruppo di ricercatori della Northwestern University di Chicago hanno raccolto 10 abstract di ricerca da 5 riviste mediche (JAMA, The New England Journal of Medicine, The BMJ, The Lancet e Nature Medicine) ad alto fattore di impatto (impact factor) e hanno chiesto all’AI di generarne di nuovi sulla base dei titoli.

I lavori sono stati poi valutati utilizzando sia un rilevatore di output di intelligenza artificiale e uno di plagio che chiedendo ad altri ricercatori di distinguere tra sintesi originali o generate.

I RISULTATI

Il risultato è stato impressionante. Nelle sintesi generate da ChatGPT non è stato evidenziato alcun plagio dal rilevatore, tuttavia, nel 66% di queste è stata rintracciata la presenza di AI, che comunque è solo poco più della metà.

Anche i revisori umani, osserva Nature, non hanno fatto molto meglio. Rispetto al rilevatore, hanno identificato correttamente solo il 68% dei lavori generati e l’86% di quelli autentici. “I revisori – si legge nello studio – hanno indicato che era sorprendentemente difficile distinguere tra i due, ma che gli abstract generati erano più vaghi e avevano un’impronta formulaica nella scrittura”.

Per gli autori della ricerca, dunque, ChatGPT scrive abstract scientifici ‘credibili’ e ‘originali’ ma che possono essere identificati con altre tecnologie come quelle da loro impiegate e per le quali chiedono che vengano incluse nei processi editoriali.

Questo perché, affermano, “i confini dell’uso etico e accettabile di grandi modelli linguistici [come ChatGPT] per aiutare la scrittura scientifica rimangono da determinare”.

LE IMPLICAZIONI

“Sono molto preoccupata”, ha detto a Nature Sandra Wachter, studiosa di tecnologia e regolamentazione presso l’Università di Oxford. “Se ora ci troviamo in una situazione in cui gli esperti non sono in grado di determinare cosa sia vero o meno, perdiamo l’intermediario di cui abbiamo disperatamente bisogno per guidarci attraverso argomenti complicati”.

Per Wachter, se gli scienziati non sono in grado di stabilire se la ricerca è vera, potrebbero esserci “conseguenze disastrose” perché, per esempio, “potrebbe significare che le decisioni politiche basate sulla ricerca non sono corrette”.

Motivo per cui, secondo i ricercatori, se le istituzioni decidono di consentire l’uso della tecnologia in alcuni casi, allora devono stabilire regole chiare sulla divulgazione e un approccio più rigoroso per verificare l’accuratezza delle informazioni.

Back To Top