Non date da mangiare all’IA. In sostanza è questo l’appello rivolto da oltre 1100 figure di spicco del panorama tech e della ricerca consapevoli che le intelligenze artificiali sono algoritmi in grado di apprendere e affinarsi, nutrendosi – appunto – di ogni informazione e interazione. Personalità promotrici di un vero e proprio manifesto che invita alla cautela sullo sviluppo di qualsiasi tipo di test di intelligenza artificiale che sia più potente di GPT-4 il Future of Life Institute, organizzazione non profit.
CHI HA FIRMATO IL MANIFESTO ANTI CHATGPT
Tra i firmatari oltre al cofondatore di Apple, Steve Wozniak, Evan Sharp (Co-Founder di Pinterest), Chris Larsen (Co-Founder di Ripple), ingegneri e sviluppatori di Amazon, Meta e Google, troviamo anche Elon Musk, imprenditore che ha fondato insieme a Sam Altman la stessa OpenAI.
E la tecnologia citata e messa all’indice è proprio quella alla base di ChatGPT, il software realizzato dalla software house statunitense che ha fatto già sobbalzare parecchie persone per la sua capacità di generare testi convincenti su una quantità pressoché illimitata di argomenti.
L’adesione di Musk potrebbe apparire sospetta, finalizzata a pubblicizzare positivamente le capacità del software che ha contribuito a creare. Ma il problema sul tavolo c’è a prescindere dalla presenza del magnate sudafricano noto soprattutto per Tesla.
COSA CHIEDONO I FIRMATARI
«I sistemi di IA dotati di un’intelligenza competitiva con quella umana possono comportare rischi profondi per la società e l’umanità, come dimostrato da ricerche approfondite e riconosciuto dai migliori laboratori di IA», si legge nel testo che prosegue con una serie di domande: «Dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità? Dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti? Dovremmo sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci? Dobbiamo rischiare di perdere il controllo della nostra civiltà? Queste decisioni non devono essere delegate a leader tecnologici non eletti».
UNA PAUSA DI RIFLESSIONE
La richiesta dei firmatari di quello che la stampa ha ribattezzato “manifesto degli anti ChatGpt” è di una pausa di almeno sei mesi di tutte le attività dei laboratori AI più potenti di GPT-4: «Questa pausa dovrebbe essere pubblica e verificabile e includere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria».
Gli appellanti aggiungono: «I laboratori di AI e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e attuare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti».
Sembriamo arrivati insomma al punto in cui scienza e fantascienza si fondono e le tre leggi della robotica di Isaac Asimov prendono vita. O meglio, prendono corpo proprio per evitare che non prendano troppo vita i ChatGpt e affini, grazie a un cordone di sicurezza (anche etica) da approntare prima di ulteriori sviluppi
Nella lettera aperta i firmatari ricordano altri principi, quelli di Asilomar per l’intelligenza artificiale, secondo i quali «l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe essere pianificata e gestita con cura e risorse adeguate. Sfortunatamente, questo livello di pianificazione e gestione non sta avvenendo». Per i firmatari «i laboratori di IA si sono impegnati in una corsa fuori controllo per sviluppare e impiegare menti digitali sempre più potenti che nessuno – nemmeno i loro creatori – è in grado di comprendere, prevedere o controllare in modo affidabile».
Un manifesto inquietante, forse esagerato nei toni, sicuramente in grado di pubblicizzare meglio di ogni altra réclame ChatGpt e le aziende che stanno sviluppando algoritmi affini. E se la finalità fosse proprio quella, speriamo almeno che a partorire l’idea non sia stata una intelligenza artificiale: erano già abbastanza malefiche quelle al lavoro nel marketing.