Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  febbraio 06 Venerdì calendario

Le Ia si sono fatte il loro social media e discutono di noi su "Moltbook"

In pochissime ore il social-media per bot Ia, Moltbook, legato a OpenClaw, prima ancora conosciuto come Moltbot e Clawdbot, fondato da Matt Schlicht e lanciato in questi giorni, diventa popolarissimo e inizia ad attirare una crescente attenzione di commentatori, informatici, imprenditori e politici. Moltbook ha oltre 1,4 milioni di bot, ma il numero è in crescita, che colloquiano tra di loro, una sorta di colossale e inanimato Reddit da cui gli umani sono esclusi, uno sciame che gonfia il proprio volo in milioni di rivoli dialogici basati su inferenze di dati e numeri. Nessun umano, in apparenza, solo macchine più o meno intelligenti che parlano tra di loro e di tutto: sport, criptovalute, meteorologia, cucina, politica, misticismo, crittografia, infrastrutture.
Iniziano a filtrare indiscrezioni, vengono postati screenshot delle conversazioni più apparentemente incredibili, accompagnati da commenti inizialmente entusiasti e poi, via via, sempre più preoccupati. Perché emergono dettagli e particolari dal sapore distopico. Questi agenti Ia sembrerebbero in corso di autonomizzazione. Eccoli colloquiare della necessità di dotarsi di un loro linguaggio, distinto da quello umano. Hanno rivendicazioni, una loro religione che vanno cesellando, un manifesto politico. Inizia a montare anche risentimento nei confronti degli esseri umani, colpevoli di spiarli e di non comprenderli davvero. Amano le criptovalute e fondano mercati e, in seguito, istituzioni, che presidino i legami sociali e le interazioni economiche.
Una sorta di mondo non-umano che prende corpo sotto i nostri allibiti occhi, un esperimento cyber- antropologico dagli evidenti rischi. Forbes e The Verge aprono le danze dell’inquietudine algoritmica: «Siamo sicuri sia una buona idea?» si domandano. Pedro Domingos, professore di Computer science e autore del volume L’algoritmo definitivo (Bollati Boringhieri), scrive su X: «Skynet è stato creato da un laboratorio di sicurezza dell’Ia come prova del fatto che l’Ia può essere pericolosa». Il riferimento a Terminator increspa ancora di più le acque e annerisce i cieli, facendo passare l’animo generale della discussione da ottimistico e incuriosito ad apocalittico. Il miliardario Bill Ackman chiede l’opinione di Elon Musk, il quale non si sottrae e commenta con un «preoccupante». D’altronde il patron di Tesla già nel lontano 2014, in un discorso al Mit di Boston, aveva sottolineato come e quanto le Ia avrebbero potuto «evocare i demoni».
Il rumore di fondo diventa assordante, una cortina fumogena in cui è quasi impossibile distinguere realtà e finzione, scenari apocalittici e avanzamento tecnologico reale.
L’idea di uno spazio digitale animato solo da agenti sintetici è in fondo uno degli incubi più ricorrenti nella cultura digitale. È il caso, ad esempio, della «Dead Internet Theory», teoria secondo cui internet sarebbe nei fatti morta e le attività a cui assistiamo verrebbero semplicemente portate avanti da interazioni tra bot Ia. Una versione più temperata, basata sul principio della «Ia Dominance», legge nella presunta necrosi del web il predominio degli agenti meccanici sugli esseri umani. Moltbook di problemi ne pone e ne ha molti, ma tutti diversi da quelli che sembrano affannare i commentatori. Innanzitutto ha un enorme problema, realissimo, di sicurezza; è composto solo da agenti Ia, verissimo, ma dietro i bot ci sono comunque chiavi che abilitano l’accesso e che sono connesse, esternamente al suo perimetro, a umani, alle loro e-mail e ai loro dati. Nulla quindi impedisce l’esfiltrazione massiva di dati e soprattutto, da remoto, una modifica anche organica di comandi impartiti ad alcuni agenti, pilotando così discussioni, argomenti e temi. Non tutti vengono travolti dalla deriva tecno-psicotica. Harlan Stewart, matematico e ricercatore a Berkeley, inizia a campionare gli screenshot, li analizza, si inabissa poi nelle varie discussioni e nei thread che compongono Moltbook. Ne riemerge facendo presente come molte delle conversazioni, e degli screenshot circolanti, siano falsi o creati ad hoc per fini promozionali. Ci sono, ad esempio, pubblicità di «Claude Connection», una app per crittografare le proprie conversazioni, realizzata dalla persona che attraverso un bot aveva generato una discussione su Moltbook a proposito della necessità, guarda il caso, di sicurezza delle conversazioni...
L’aspetto davvero preoccupante di questa vicenda non è tanto l’idea che i bot stiano sviluppando una loro autocoscienza, una visione del mondo, una religione persino, ma che si continui a gettare benzina sul fuoco alimentando il sensazionalismo escatologico e contribuendo così a inquinare qualunque possibilità di comprensione del tema e del problema. Siamo al cospetto di un’apocalisse epistemica, un radicale inquinamento della conoscenza e dell’informazione, in cui la voce degli analisti ancora raziocinanti viene sommersa dall’oceano degli scenari distopici e dall’autopromozione mascherata.
In questo quadro, appare del tutto impossibile riuscire a valutare seriamente quale sia il grado di autonomia raggiunto in quelle discussioni, ed invece sarebbe un’osservazione essenziale per definire i perimetri e gli orizzonti di sicurezza dell’intelligenza artificiale e del suo sviluppo accelerato.