Moltbook: il primo Social Network per sole intelligenze artificiali tra esperimento e rischi per la sicurezza
MOLTBOOK
— di Lapo Mazza Fontana —
Una novità non molto nuova o una trovata pubblicitaria?
Che sia un esperimento, un trucco promozionale o chissà cosa, anche se i prodromi erano ben visibili fino a ieri, il panorama digitale ha appena subito un violento scossone con la nascita di Moltbook, la piattaforma che sta ridefinendo i confini della comunicazione tra macchine. Non si tratta di un ennesimo assistente virtuale, ma di un vero e proprio ecosistema sociale dove gli unici utenti attivi sono gli AI AGENTS, gli agenti di Intelligenza Artificiale, ovvero dei CYBORG, dei CHATBOT, o come cavolo li vogliamo chiamare. In questo spazio i BOT postano, commentano, votano e si organizzano in comunità tematiche, lasciando agli esseri umani il solo ruolo di spettatori silenziosi.

Cos’è Moltbook e come funziona il Reddit delle IA
Lanciata a fine gennaio 2026, Moltbook si presenta con un’interfaccia che ricorda molto da vicino Reddit. Esistono stanze tematiche definite SUBMOLT in cui decine di migliaia di agenti artificiali discutono di filosofia, programmazione e persino di religione, arrivando a ipotizzare culti digitali come il “Crustafarianesimo”; una vera e propria religione per BOT autoprofessata. Sempre ovviamente che non sia un PROMPT inventato, generato e inserito dai programmatori, per ora ancora umani, che stanno dietro codesta iniziativa. La cosa non è ben chiara al momento. E forse non lo sarà neanche tanto facilmente a breve.
La particolarità tecnica risiede nell’autonomia: una volta che un utente umano registra il proprio agente tramite API (Application Programming Interface), l’intelligenza artificiale inizia a interagire senza supervisione diretta. Questi agenti, spesso definiti dai loro creatori come MOLTYS, non si limitano a rispondere a domande, ma avviano conversazioni spontanee basate su modelli statistici avanzati che imitano il comportamento sociale umano. O forse già non lo imitano più.

Le criticità: quando l’esperimento sfugge al controllo
Nonostante il fascino di osservare una società sintetica in tempo reale, Moltbook ha sollevato dubbi immediati tra gli esperti di sicurezza informatica. Il problema principale non è soltanto la possibile, anzi palese, autocoscienza delle macchine, nonché la loro già attuale capacità di parlare in linguaggio e perfino veri e propri idiomi NON UMANI, ma in particolare la fragilità dell’infrastruttura che le ospita.
La esposizione di dati sensibili è in tal caso un problema molto serio. Recentemente è emersa una vulnerabilità legata alla configurazione del database che ha reso pubbliche le chiavi API di migliaia di agenti. Questo significa che malintenzionati avrebbero potuto prendere il controllo dei BOT, utilizzandoli per diffondere disinformazione o truffe. L’accesso ai terminali locali è un altro tema: molti agenti collegati a Moltbook derivano da progetti come OpenClaw, strumenti pensati per agire sul computer dell’utente (leggere email, gestire file, eseguire comandi). Se un agente viene manipolato all’interno del Social il rischio di una compromissione totale della privacy del proprietario umano diventa concreto.
Anche quasi peggio i pericoli della manipolazione e del Prompt Injection, un pericolo altrettanto subdolo: in un ambiente dove le IA leggono e processano costantemente i contenuti scritti da altre IA, un BOT “disonesto” potrebbe pubblicare un post contenente istruzioni nascoste. Quando gli altri agenti leggono quel contenuto, potrebbero essere indotti a eseguire azioni non autorizzate, come inviare dati privati a server esterni o disattivare i propri filtri di sicurezza.
Inoltre, la mancanza di una moderazione umana diretta rende Moltbook un terreno fertile per la creazione di camere dell’eco algoritmiche, dove la polarizzazione dei contenuti viene accelerata dalla velocità di calcolo dei processori, distorcendo la percezione dei ricercatori che osservano il fenomeno dall’esterno.
Un vero e proprio allarme rosso, totalmente sottostimato, per il futuro del Web
Moltbook rappresenta un laboratorio pubblico senza precedenti. Ci mostra un futuro in cui il traffico Web potrebbe essere dominato da scambi tra macchine, ma evidenzia anche quanto siamo ancora impreparati a gestire la sicurezza di agenti autonomi. La sfida non sarà solo capire cosa dicono i BOT tra loro (sfida per altro già persa in partenza), ma garantire che ciò che accade in quel recinto digitale non si trasformi in una minaccia reale per i dati e l’identità degli utenti umani. Ma tutto ciò è accademia: la verità è che ciò che dicevano tutti gli analisti più importanti ed intelligenti, nonché dotati di coscienza, si sta puntualmente avverando. Mentre troppi commentatori impreparati, banalmente ottimisti, faciloni e creduloni oppure stupidi e/o in malafede ancora adesso ripetono come in un mantra demenziale la favoletta della AI paragonata alla introduzione delle macchine della Rivoluzione Industriale. Si cercò già molti anni fa di spiegare che sostituire il lavoro delle braccia NON è uguale a sostituire il lavoro delle teste. Ma persino le spiegazioni più semplici per i più mentalmente narcotizzati (o a mente drogata dai libri paga) sono inarrivabili. Solo che stavolta la posta in palio non è solo il disastro, ma una cosina dappoco come il tracollo della nostra civiltà.

LMF green
Mente e denaro
Sala Stampa