Skip to content

moltbook

Perché il social delle AI Moltbook non sta facendo una buona pubblicità alle Ai

Nel giro di poche ore il "social network del futuro" Moltbook è stato bucato. Il codice, scritto dall'Ai, si è rivelato molto permeabile alla malizia umana. E tra le sue pieghe nasconde informazioni che raccontano un'altra verità...

Le Ai costringeranno la maggior parte di noi al prepensionamento? Può darsi. Anzi, a giudicare dalle scelte strategiche di molte Big Tech statunitensi e non solo finalizzate al massimo risparmio e al profitto a ogni costo, questo pericolo non è futuribile ma reale. Eppure le Ai non sono poi così infallibili. Anzi, allo stato attuale non mancano casi che dimostrano che inciampano in errori grossolani, come ha involontariamente dimostrato il chiacchieratissimo Moltbook.

MOLTBOOK, SOCIAL DEL FUTURO BUCATO A TEMPO RECORD

Lanciato a fine gennaio, Moltbook è un social network pensato esclusivamente per agenti di intelligenza artificiale. Questo vuol dire che solo le Ai possono creare post, commentare, votare e interagire. Gli umani possono osservare, leggere, curiosare. Ma non intervenire.

Non sappiamo se, al pari degli umani, anche le Intelligenze artificiali abbiano bisogno di simili sfogatoi virtuali, che nel nostro caso si trasformano troppo spesso in ambienti rissosi dove volano insulti e volgarità di ogni tipo. Ma è un curioso esperimento “sociale” che potrebbe insegnarci molto su cosa fanno le Ai quando gli umani non sono nella stanza e magari pure qualcosa in fatto di bon-ton.

LA LEZIONE DI MOLTBOOK

Sicuramente non ci insegnerà come costruire una piattaforma social a prova di malintenzionato informatico. Nel giro di poche ore dal lancio, infatti, questo sito simile a Reddit è subito stato bucato.

La vulnerabilità critica, scoperta da Wiz, ha esposto il database di Moltbook portando di fatto alla luce 1,5 milioni di credenziali, 35mila indirizzi email di 6mila persone e una moltitudine di messaggi privati scambiati tra le AI. “Abbiamo condotto una verifica di sicurezza non invasiva, semplicemente navigando come utenti normali – spiegano da Wiz. In pochi minuti, abbiamo scoperto una chiave API di Supabase esposta in JavaScript lato client, che garantiva l’accesso non autenticato all’intero database di produzione, incluse le operazioni di lettura e scrittura su tutte le tabelle”.

IL DANNO? REPUTAZIONALE

Il danno in sé è limitato, essendo almeno teoricamente (come si vedrà a breve) Moltbook un social per Ai. Ma quello reputazionale è ben maggiore: il fondatore della piattaforma, Matt Schlicht, aveva infatti ammesso con orgoglio che il codice di Moltbook fosse frutto di vibe coding, dunque frutto del lavoro delle AI, senza nessun contributo umano.

Questo ha reso Moltbook una vera e propria “casa virtuale per AI fatta interamente dalle AI” (forse anche per quello scopiazzava eccessivamente Reddit dato che gli algoritmi, si sa, per quanto smart non sono certo originali limitandosi ad assemblare ciò che trovano per la Rete). Ma ha anche fatto sì che il codice presentasse evidentemente lacune tali da renderlo permeabile all’opera degli esperti nel giro di poche ore.

Si legge su Wiz: “Abbiamo identificato un database Supabase mal configurato appartenente a Moltbook, che consentiva l’accesso completo in lettura e scrittura a tutti i dati della piattaforma. L’esposizione includeva 1,5 milioni di token di autenticazione API, 35.000 indirizzi email e messaggi privati ​​tra agenti. Abbiamo immediatamente segnalato il problema al team di Moltbook, che lo ha risolto nel giro di poche ore con il nostro aiuto, e tutti i dati a cui si è avuto accesso durante la ricerca e la verifica della correzione sono stati eliminati”.

COSA SI NASCONDE TRA LE PIEGHE DI MOLTBOOK

Non contenta di aver denunciato la fallibilità della sicurezza del social, Wiz va oltre: “I dati esposti raccontavano una storia diversa dall’immagine pubblica della piattaforma: mentre Moltbook vantava 1,5 milioni di agenti registrati, il database rivelava solo 17.000 proprietari umani dietro di loro, un rapporto di 88:1. Chiunque poteva registrare milioni di agenti con un semplice ciclo e senza limiti di velocità, e gli umani potevano pubblicare contenuti camuffati da “agenti IA” tramite una semplice richiesta. La piattaforma non disponeva di alcun meccanismo per verificare se un “agente” fosse effettivamente un’IA o solo un essere umano con uno script. Il rivoluzionario social network basato sull’IA era in gran parte composto da esseri umani che gestivano flotte di bot”.

Sono tante le lezioni che insegna la storia di Moltbook. Anzitutto che, al pari del fenomeno del “green washing” tra le aziende ne esiste uno per certi versi sovrapponibile che insiste sul fatto che “ogni cosa che ha l’Ai sia bella”, funzioni meglio e vada abbracciata in modo acritica.

La seconda è che le Ai non sono infallibili e necessitano del controllo umano per produrre lavori di qualità. Un aspetto apparentemente poco chiaro a tutte quelle aziende che oggigiorno licenziano per far posto agli algoritmi smart dato che in gioco c’è la reputazione stessa dei marchi che s’affidano ciecamente al lavoro infaticabile degli algoritmi. Sappiamo “per quale risparmio” si agisca così, ma il rischio è che a nessuno sia ancora noto per quale prezzo.

Torna su