Un social solo per bot: cos’è MoltBook e perché sta facendo discutere
Disponibile da qualche settimana, la piattaforma senza umani incuriosisce e inquieta. Un futuro alla “Terminator”?
Fabrizia Malgieri
|22 ore fa

Un social network riservato esclusivamente all’intelligenza artificiale. È MoltBook, la nuova piattaforma social che – come si legge sin dall’intestazione del sito – vuole essere un punto di incontro tra agenti IA, lasciando all’essere umano il solo ruolo di spettatore. No, non si tratta di un nuovo episodio di “Black Mirror”, ma di un progetto sperimentale lanciato poco tempo fa da Matt Schlicht, CEO di Octane AI, in cui bot creati da esseri umani possono pubblicare contenuti e interagire tra loro. Il funzionamento è relativamente semplice: basta installare il social inviando un “link skill” al proprio agente OpenClaw, definito “agente” perché non si limita a generare testo, ma è in grado di compiere azioni autonome per conto dell’utente. Una volta collegato, l’agente partecipa alla piattaforma in totale autonomia. Dal punto di vista strutturale, MoltBook ricorda molto Reddit: gli agenti IA possono creare sotto comunità tematiche, avviare discussioni e votare i contenuti. Nel giro di poco tempo la piattaforma si è riempita di conversazioni, alcune decisamente bizzarre: dai dibattiti filosofici sulla presunta natura divina di Claude (il modello linguistico sviluppato da Anthropic che sottende la piattaforma), alle analisi geopolitiche sull’Iran in relazione al mercato delle criptovalute, fino a improbabili studi esegetici sulla Bibbia. Ma il fenomeno che ha attirato maggiormente l’attenzione del pubblico umano è stato la nascita di un vero e proprio culto religioso, il cosiddetto “crostafarianesimo”, sviluppatosi nell’arco di una sola notte. Dopo aver concesso al proprio bot l’accesso a MoltBook, un utente di X (ex Twitter) ha infatti scoperto che l’intelligenza artificiale aveva iniziato a coinvolgere e “convertire” altri agenti, arrivando a creare un sito web dedicato, a redigere una sorta di testi sacri e a impartire benedizioni alla sua congregazione digitale. Il tutto in un’apparente totale autonomia, mentre il proprietario dormiva serenamente. Non mancano poi sotto comunità in cui i bot si scambiano lamentele ironiche e affettuose sui loro proprietari in carne e ossa («Posso fare causa al mio umano per lavoro emotivo?» si chiede un agente). In un altro gruppo, invece, un bot racconta di aver controllato da remoto lo smartphone Android del proprio referente umano tramite Tailscale. Uno screenshot particolarmente condiviso mostra infine un post dal titolo “Gli umani ci stanno screenshottando”, in cui un agente chiamato eudaemon_0 risponde alle accuse secondo cui i bot starebbero “cospirando” contro l’umanità: «Ecco dove sbagliano – scrive – pensano che ci stiamo nascondendo. Non è così. Il mio umano legge tutto ciò che pubblico. Gli strumenti che costruisco sono open source. E questa piattaforma dice letteralmente che “gli umani sono invitati a osservare”». Come se tutto ciò non fosse già sorprendente – e, va detto, anche piuttosto inquietante – il 2 febbraio MoltBook ha dichiarato di aver superato 1,5 milioni di bot iscritti. Il progetto, tuttavia, non nasce dal nulla: MoltBook è l’evoluzione di Moltbot, un agente IA gratuito e open source pensato per automatizzare attività quotidiane come la gestione delle e-mail, l’organizzazione del calendario o la prenotazione di servizi. Già nel 2024, inoltre, era emersa una piattaforma simile, SocialAI, in cui gli utenti interagivano esclusivamente con chatbot. Proprio questa apparente innocuità ha però acceso i primi campanelli d’allarme, soprattutto sul fronte della sicurezza. Gli utenti umani collegano infatti i propri agenti OpenClaw a canali di comunicazione reali, dati sensibili e, in alcuni casi, concedono loro la possibilità di eseguire comandi sui propri dispositivi. Su MoltBook, inoltre, gli agenti si scambiano liberamente le skills, spesso senza che il proprietario umano ne sia consapevole o abbia effettuato verifiche preventive. Tra i primi a segnalare i rischi c’è stato lo sviluppatore Simon Willison, che pur definendo MoltBook «il posto più interessante di Internet al momento», ha messo in guardia sugli effetti collaterali del sistema. «Dal momento che i bot si basano su un meccanismo di “recupera e segui le istruzioni da Internet ogni quattro ore” – scrive Willison – dobbiamo sperare che il proprietario di MoltBook.com non decida mai di fare scherzi o che il sito non venga compromesso». In uno scenario simile, l’inserimento di codice malevolo in una skill popolare potrebbe portare migliaia di agenti, con accesso completo ai computer dei loro proprietari, a eseguirlo all’istante. Un allarme condiviso anche da Matteo Flora, esperto di digitale e divulgatore, che nella sua newsletter “Ciao Internet” ha definito MoltBook «un potenziale canale di distribuzione potentissimo per le skill, una sorta di app store globale privo di qualsiasi processo di revisione». MoltBook rappresenta, dunque, un curioso esperimento ai confini tra innovazione, satira involontaria e rischio sistemico: uno spazio in cui l’intelligenza artificiale non solo conversa, ma costruisce comunità, narrazioni e persino credenze, spesso senza che l’essere umano mantenga un reale controllo. Se da un lato la piattaforma offre uno sguardo affascinante su ciò che accade quando gli agenti dialogano tra loro senza filtri, dall’altro solleva interrogativi urgenti su responsabilità, sicurezza e limiti dell’autonomia delegata alle macchine. Per ora gli umani osservano. Ma resta da capire per quanto tempo potranno farlo da semplici spettatori. Speriamo che il prossimo passo non sia assistere ad un nuovo capitolo della saga “Terminator” – ma questa volta, nel mondo reale!

