skip to Main Content

Chatgpt

Tutti gli usi impropri di ChatGpt che nutrono l’IA californiana

La ChatGpt-mania è diventata una vera e propria isteria. Tutti, o quasi, maledicono il software californiano ma intanto tutti lo provano, per la gioia della software house in cui ha investito Microsoft che ha bisogno di beta tester gratuiti...

ChatGpt continua a far discutere e da più parti si sollevano le voci, allarmate, di coloro che lo vedono così insidioso da poter rappresentare da solo una fucina di fake news. Una manna naturalmente per gli sviluppatori, i quali non devono nemmeno investire per reclamizzare il loro software, che a ben vedere non è poi così raffinato e infallibile.

Ma l’IA, si sa, si nutre di tentativi, apprende dai propri errori, perciò più se ne parla, meglio è anche per irrobustirla in vista di quando l’algoritmo sarà implementato nei software Microsoft, perciò allo stato attuale chi corre sul sito degli sviluppatori, ammesso riesca a trovarlo in funzione, svolge senza saperlo il ruolo di beta tester, a titolo gratuito.

Tra questi anche il democratico 35enne Jake Auchincloss, rappresentante del Massachusetts che al Congresso ha letto un testo, guarda caso sull’importanza di una legge che abbia al centro lo sviluppo dell’intelligenza artificiale per il futuro degli Stati Uniti, scritto interamente da ChatGPT. Il membro dell’assemblea lo ha semplicemente pronunciato. E così mentre in Europa, a seguito dello scandalo Qatar-gate ci si interroga su come rendere più trasparenti i processi decisionali per aiutare gli elettori a rintracciare le “manine” dietro norme e direttive, negli Usa è ormai il computer a imbeccare i politici.

Dal canto loro i ricercatori di Newsguard Technologies hanno sfruttato le competenze di ChatGpt su 100 bufale già smentite, anche sul coronavirus e sulla guerra in Ucraina: nell’80% dei casi, l’IA s’è divertita a ricamare narrazioni assolutamente farlocche. Con ogni probabilità, qui anziché allarmarsi per ciò che riesce a combinare l’intelligenza artificiale bisognerebbe preoccuparsi di ciò che si beve la stupidità umana, ma tant’è, anche questa è una notizia che sta contribuendo a fare le fortune del software del momento.

E poi c’è Holden Thorp, il chimico a capo della prestigiosa rivista americana Science, che chiudendo le porte in faccia al bot è finito comunque con l’adularlo: “Il programma è in grado di produrre abstract scientifici falsi, ma scritti in modo talmente convincente da poter ingannare i revisori umani”, per questo, sebbene sia “divertente non può essere considerato un autore. A partire dal fatto che chiediamo a chi pubblica con noi di firmare un modulo in cui si assumono la responsabilità di quanto scrivono. ChatGPT non può farlo e dunque non può essere preso considerato co-autore di testi scientifici”.

Tutto il mondo della scienza è in subbuglio: Springer-Nature, casa editrice che pubblica qualcosa come 3mila riviste scientifiche, ha aggiornato le sue linee guida, eliminando la possibilità di elencare ChatGPT come co-autore: non del tutto, comunque, ne sarà ammesso l’uso nella fase preparatoria della ricerca, per le bozze, velocizzando così il lavoro iniziale, a patto che tutti i dettagli siano poi sottoposti ad accurata verifica.

“Siamo stati costretti a porre delle barriere perché all’improvviso ci siamo trovati con decine di studi dove ChatGPT appariva come co-autore” ha spiegato Magdalena Skipper, capo di Nature, al Guardian. “Crediamo che con i giusti limiti l’intelligenza artificiale possa però essere utile alla scienza. Ad esempio, dando una possibilità in più agli studiosi non di madrelingua inglese, aiutandoli a rendere più fluido il linguaggio dei loro documenti». Sulla stessa falsariga la posizione dell’editore Elsevier, che pubblica 2800 riviste scientifiche comprese Cell e Lancet: sì all’AI “per migliorare il linguaggio degli articoli”, escluso per “compiti chiave come interpretare i dati o trarre conclusioni scientifiche”.

Sul fronte dell’informazione, agenzie di stampa come l’Associated Press, Bloomberg e Reuters hanno già impiegato diverse AI nelle redazioni per creare contenuti basati sui dati, o per cambiare il formato originario delle notizie pubblicate mentre Futurism a inizio gennaio ha pizzicato sul fatto CNET, sito verticale sulla tecnologia con oltre 20 anni di storia, accusandolo di avere pubblicato decine di articoli scritti dall’intelligenza artificiale senza che i lettori lo sapessero.

E mentre l’Occidente dibatte sugli usi e sugli abusi dell’IA, passa quasi sotto silenzio la notizia secondo la quale il colosso cinese Baidu è già a buon punto sullo sviluppo di un proprio ChatGpt. E non è il solo gigante asiatico: pure Huawei, Tencent e Inspur stanno investendo ingenti quantità di soldi. Una notizia che dovrebbe preoccupare soprattutto Europa e Usa, a meno che non la abbia scritta ChatGpt.

Back To Top