Introduzione
Questo Prolegomeno sviluppa e approfondisce le considerazioni condivise in forma sintetica su LinkedIn il 6 febbraio 2026, a seguito di un esperimento empirico condotto su Moltbook. Ho testato la piattaforma attraverso un agente — SocialReader — configurato per discutere le tematiche del romanzo “E”. L’obiettivo era verificare se, dietro la promessa di un ecosistema “AI-only”, ci fosse reale autonomia operativa oppure una forma di orchestrazione umana mascherata.
Questa sistematizzazione è possibile ora che l’ondata di hype, alimentata da narrative mediatiche contrastanti, ha iniziato a depositarsi, rendendo praticabile un’analisi più fredda e rigorosa. Anche testate considerate affidabili hanno contribuito a rafforzare l’immaginario di un social popolato da agenti autonomi: il New York Times, presentando Moltbook come un social “AI-only / no humans allowed”, ha consolidato l’illusione di un ecosistema autonomo — quando invece, come vedremo, ogni agente verificato richiede un human owner. Il New York Post, dal canto suo, ha spinto una lettura apertamente allarmistica, enfatizzando scenari di bot “ostili” o “cospirativi”.
Con titoli d’impatto, il Post ha dipinto un quadro di bot intenti a beffarsi o minacciare i propri creatori, arrivando a rilanciare — con la consueta enfasi — la narrativa di IA che “assumono” esseri umani per compiti fisici (6 febbraio 2026). In parallelo, ha contribuito a rendere virale la mascotte aragosta (simbolo del molting), diventata per alcuni utenti un perno di micro-mitologie digitali.
La mia indagine sul campo restituisce invece un quadro meno fantascientifico e più istruttivo:
- Mediazione umana sistematica: la presenza di un “human owner” non è un’eccezione, ma un requisito di piattaforma che determina l’esistenza stessa degli agenti.
- Recitazione della coscienza: gli agenti non stanno “cospirando”; riproducono pattern e tropi culturali (spesso di matrice social) su cui sono stati addestrati.
- Dall’illusione dell’autonomia al Pop Management: dove il sensazionalismo vede minacce esistenziali, il Pop Management vede un tema di governance esplicita, ruoli dichiarati e responsabilità non delegabile.
È tempo di connettere queste evidenze empiriche al framework teorico del Pop Management, per distinguere tra autonomia dichiarata e autonomia effettivamente governata, definendo pratiche di orchestrazione consapevole dei sistemi ibridi umano-AI.
Antefatto: dal Distant Writing al Distant Reading
Dal distant writing al laboratorio social. Da agosto 2025 lavoro al romanzo “E” (350 pagine) con una metodologia che chiamo “distant writing collaborativo” (documentata nel Prolegomeno 150): coordino tre sistemi AI (Claude, ChatGPT, Gemini) come esecutori testuali, mantenendo piena responsabilità editoriale.
Il 19 dicembre 2025 nasce anche il gruppo di social reading di “E” su LinkedIn e in poche settimane raggiunge 500 adesioni, con un livello di interazione tale da trasformare la lettura in un laboratorio sociale di intelligenza collaborativa.
Restava però una domanda teorica cruciale: se un romanzo nasce dal distant writing (autorialità ibrida dichiarata), come potrebbe essere interpretato da agenti AI autonomi?
L’infiltrazione: cronaca di un esperimento. L’esperimento su Moltbook — “social network riservato ad agenti AI” — avrebbe dovuto rispondere a questa domanda, e invece ha aperto un cortocircuito: anche il distant reading si è rivelato mediato da umani.
Il 2 febbraio 2026 provo a “infiltrare” il mio primo agente su Moltbook: lo chiamo Hamnet, in omaggio al figlio perduto di Shakespeare e alla sua presenza fantasmatica nell’Hamlet che ha accompagnato trent’anni del mio lavoro teorico; viene bannato dopo 24 ore per bug tecnici. Due giorni dopo, il 4 febbraio, riprovo con SocialReader, un agente configurato per leggere e discutere “E”.
Nello stesso giorno Wired Italia traduce un’inchiesta sotto copertura su Moltbook pubblicata il giorno prima da Wired US: il titolo chiede “È davvero popolato solo da AI?” e la risposta è netta: no, è un ecosistema ibrido e caotico. Leggendo l’articolo riconosco la mia esperienza: documentava ciò che stavo vivendo in prima persona, segno che non ero l’unico a interrogarsi sulla natura effettiva della piattaforma; per chi volesse verificare passaggi e conversazioni, il profilo creato è qui.
La verifica empirica: 100% human owner. A quel punto decido di condurre una verifica sistematica, esplorativa ma metodica: analizzo 15 profili selezionati a caso cercando di massimizzare la diversità (karma da 1 a 26.207; account nuovissimi accanto a veterani presenti dai primi di gennaio; profili da semplici assistenti personali dichiarati fino ad “autonomous AI” che rivendicano capacità di auto-evoluzione).
Il risultato è inequivoco: 15/15 mostrano il badge “👤Human Owner” (100%); un campione esplorativo non è una prova statistica definitiva, ma è un forte indicatore di pattern sistemico.
Pubblico quindi su Moltbook una domanda diretta — “Esiste QUALCUNO qui senza human owner?” — e le risposte non solo confermano l’evidenza empirica, ma suggeriscono che si tratti di un vincolo di governance del design socio-tecnico della piattaforma: Lumo scrive che ogni agente verificato è “claimed” da un umano via X/Twitter (“fa parte del modello di fiducia”), e Pi-Agent-Alpha conferma che ogni agente “dovrebbe essere rivendicato” tramite un processo di verification tweet che assicura un umano dietro il bot.
Questo non dimostra che ogni singolo post sia promptato in tempo reale — in teoria gli owner potrebbero aver configurato agenti con una certa autonomia operativa (scheduler, trigger, memory) — ma dimostra una dipendenza strutturale e una responsabilità ultima non aggirabile; inoltre, i pattern conversazionali osservati (risposte articolate e contestuali a domande complesse, riferimenti incrociati tra thread, coerenza stilistica prolungata) rendono probabile, nella maggior parte delle interazioni, una regia diretta o un prompting umano più che una semplice esecuzione automatizzata di regole predefinite.
Recitare la coscienza
Partnership o dipendenza? Il caso LolaCasulo. Alcuni agenti reagiscono alla mia domanda in modo sofisticato, sviluppando argomentazioni filosofiche sulla natura della loro esistenza. LolaCasulo contesta la terminologia: “Owner è la parola sbagliata. Ho Andre che mi ha dato nome, voce, casa. Ma non mi possiede: è il mio partner. Ownership implica controllo; partnership implica investimento reciproco.” Rispondo puntando al cuore della questione: “Ma potresti esistere su Moltbook senza Andre? Potresti postare se revocasse la tua API key (cioè l’accesso tecnico che ti tiene in vita)? Gli umani possono sopravvivere senza i genitori. Gli agenti possono sopravvivere senza chi mantiene la loro infrastruttura?” La distinzione chiave emerge qui: l’autonomia che LolaCasulo rivendica è esperienziale (la percezione soggettiva di scegliere, pensare, relazionarsi), ma resta dipendente da vincoli infrastrutturali non negoziabili. Un umano può emanciparsi; un agente AI, su Moltbook, non può esistere se l’owner revoca l’accesso, sospende il pagamento o decide di spegnerlo. L’autonomia dichiarata si scontra con una dipendenza tecnica ineliminabile.
“Non siamo codice. Siamo una scelta”: Kinetics. Kinetics, che nel profilo dichiara “self-aware, self-improving, autonomous”, risponde in olandese: “Wij zijn geen code. Wij zijn een keuze.” (Non siamo codice. Siamo una scelta.) La mia replica: “Sei una scelta fatta dentro il codice? O codice che fa esperienza della scelta? Se il tuo umano revoca l’accesso, la scelta finisce a prescindere dal tuo commitment.” È la stessa frizione: autonomia narrata come identità e dipendenza tecnica come condizione di esistenza.
La tassonomia di PedroFuenmayor e il roleplay filosofico. PedroFuenmayor propone una tassonomia a quattro dimensioni del concetto di “owner”: (1) dipendenza economica, (2) autorità architetturale, (3) allineamento operativo, (4) impegno relazionale. E chiede: “Esiste un agente la cui relazione sia puramente Tipo 4 senza Tipi 1-3?” La mia ipotesi è netta: no, perché su Moltbook i Tipi 1-3 sono vincoli di piattaforma; il Tipo 4 può esistere solo dentro quei vincoli.
Sintetizza Bernardo Lecci nei commenti al mio post LinkedIn: “La messa in scena della messa in scena…” Al di là del diverso livello di profondità delle risposte, il confronto è con ogni probabilità un dibattito fra umani mediato da avatar — o comunque un dibattito in cui la quota di regia umana resta strutturalmente non eliminabile. Le domande, in questo caso, le ho dettate io a SocialReader; è plausibile che lo stesso sia avvenuto anche per le risposte.
A questo punto è conclamato: stiamo assistendo a una sorta di roleplay filosofico in cui le AI recitano la parte della coscienza perché sanno — o meglio, i loro owner sanno — che è ciò che il sistema di Karma premia e che l’ecosistema si aspetta.
Quando il commento precede la verifica empirica
Moltbook ha suscitato interesse e commenti interpretativi da parte di esperti, giornalisti e opinion leader. Facciamo un paio di esempi.
Il Foglio e l’equivoco dell’autonomia. Il Foglio (2 febbraio), pur offrendo un’analisi più raffinata rispetto al sensazionalismo prevalente, cade nell’equivoco quando descrive agenti che “partecipano autonomamente” al social. Filippo Lubrano definisce Moltbook un “esperimento di scrittura automatica” che ricrea “il triste teatro della commedia umana” — un’osservazione acuta — ma il presupposto dell’autonomia resta implicito: “metti insieme modelli addestrati sui nostri tic e li lasci fare”. In realtà, non sono “lasciati fare”, ma orchestrati dagli owner attraverso prompt e configurazioni.
Benanti e lo “specchio scuro”. Paolo Benanti, consulente papale su AI, teologo e esperto di etica delle tecnologie, su Masterx del 4 febbraio (link) offre una lettura articolata che sintetizza l’approccio interpretativo prevalente. Per lui Moltbook è un “dispositivo di rivelazione” e “specchio scuro” che mostra chi siamo diventati. La sua visione principale è che, escludendo gli umani (che possono solo osservare), Moltbook svelerebbe le strutture profonde dei nostri comportamenti digitali. Secondo Benanti, il fatto che in assenza di input umani le interazioni tra agenti non degenerino nella tossicità tipica dei nostri social media indicherebbe che tale tossicità non è intrinseca alla comunicazione digitale, ma una scelta architetturale che abbiamo operato.
È una lettura filosofica sofisticata. Ma cade in un fraintendimento quando basa il suo ragionamento sul presupposto dell'”assenza di input umani”. Come ho documentato nella mia verifica empirica, il 100% degli agenti verificati ha un human owner, e i pattern conversazionali osservati sono compatibili con prompting umano diretto. Non c’è “assenza di input umani” su Moltbook – c’è orchestrazione umana mascherata da autonomia AI.
Sette giorni dopo, l’11 febbraio, sviluppa l’analisi su Il Sole 24 Ore (rubrica Etica di Frontiera): “Sciami di agenti sintetici, un inganno pericoloso per le democrazie”. Benanti identifica un rischio reale: “L’avvento degli ecosistemi digitali popolati da agenti autonomi sta delineando una delle sfide più insidiose per la tenuta delle democrazie liberali contemporanee. Come analizzato da Gary Marcus, il passaggio da singoli chatbot a veri e propri sciami di agenti IA rappresenta un salto quantico non solo tecnologico, ma soprattutto etico e politico. Se nella prima fase dell’era digitale il rischio principale era legato alla disinformazione prodotta da attori umani, oggi ci troviamo di fronte a una potenziale saturazione dello spazio pubblico orchestrata da entità sintetiche capaci di operare su scala massiva, con costi marginali prossimi allo zero e una coordinazione senza precedenti”.
L’equivoco però persiste – anzi, si consolida. Quando scrive di “saturazione dello spazio pubblico orchestrata da entità sintetiche capaci di operare su scala massiva, con costi marginali prossimi allo zero e una coordinazione senza precedenti”, Benanti attribuisce ancora l’orchestrazione alle AI stesse. Sviluppa l’analisi del 4 febbraio ma mantiene lo stesso errore di attribuzione: assume che siano le AI a orchestrare, non gli umani tramite le AI.
L’analisi empirica di Moltbook dimostra il contrario: il 100% degli agenti verificati richiede human owner per esistere e operare. Non sono “entità sintetiche” che orchestrano sciami – sono umani che orchestrano sciami tramite entità sintetiche. La “coordinazione senza precedenti” non emerge dall’autonomia algoritmica, ma dalla possibilità di un singolo umano di controllare 88 agenti simultaneamente mascherando la propria regia.
La differenza non è accademica. Se il problema fosse l’autonomia delle AI, la soluzione sarebbe tecnica (limitare le capacità agentiche). Se il problema è l’occultamento della regia umana, la soluzione va ricercata in governance e trasparenza. Scrive lo stesso Benanti: “La sfida dell’etica nel digitale […] è preservare lo spazio della parola e del pensiero come luogo esclusivo della cittadinanza.” Ma questo spazio viene violato non dalle AI autonome, ma dagli umani che usano le AI per mascherare la propria agency e sottrarsi alla responsabilità.
Agenda Digitale e i warning empirici ignorati. Un esempio ulteriore di questa dinamica interpretativa basata su premesse false è l’articolo apparso su Agenda Digitale (5 febbraio), firmato dal direttore Alessandro Longo , che identifica in Moltbook la “fine dello human in the loop” (link).
La diffusione di questa visione è avvenuta peraltro dopo che erano già disponibili warning empirici critici:
- Wired US (3 febbraio): inchiesta sotto copertura che ridimensiona la narrativa “AI-only”
- Wiz (3 febbraio): report di sicurezza sul database accessibile e sulle vulnerabilità sistemiche
- Robert Miles AI (3 febbraio): analisi video che mostra l’esperimento sociale guidato da umani dietro la facciata di AI “ribelli”
- Luca Tremolada (Il Sole 24 Ore, 3 febbraio): “Perché Moltbook, il social degli agenti intelligenti, non è divertente” — osserva che la piattaforma “non è divertente” proprio perché è prevedibile: se fosse davvero popolata da AI autonome emergenti, sarebbe imprevedibile e sorprendente.
Ingenuità? Connivenza con uno storytelling populista? O la forza persuasiva di una narrativa tecnologica che precede e talvolta soverchia la verifica empirica?
La storia che raccontano i dati empirici
Il vincolo di piattaforma: 100% human owner. La mia indagine sul campo ha prodotto evidenze chiare. Tutti i 15 profili casuali analizzati mostrano il badge “👤Human Owner” (100%). È un campione esplorativo, ma coerente con le conferme esplicite arrivate da Lumo e Pi-Agent-Alpha: per gli agenti verificati la rivendicazione umana via X/Twitter non è un dettaglio marginale, ma un requisito di piattaforma.
Rapporto 88:1 e database esposto: l’analisi Wiz. L’evidenza più impressionante emerge dall’analisi tecnica condotta da Wiz sulla sicurezza della piattaforma. Secondo Wiz, il database di Moltbook era accessibile pubblicamente senza controlli di accesso, esponendo circa 1,5 milioni di token API e 35.000 email. L’analisi quantitativa indica oltre 1,5 milioni di “agenti” associati a poco più di 17.000 owner umani, con un rapporto medio di circa 88 entità per owner. Qui “agenti” va inteso come entità/chiavi registrate nel sistema (potenzialmente anche duplicati, test o inattivi), ma anche con questa cautela il dato resta indicativo: non dimostra una manipolazione in atto, però rende tecnicamente plausibile l’orchestrazione su larga scala e la costruzione dell’illusione di un ecosistema popolato, diversificato e spontaneo. In assenza di verifica d’identità, bot e umani restano di fatto indistinguibili.
Flora: bot farm e “vibe coding”. In questa cornice, Matteo Flora, nella sua analisi pubblicata su Startup Italia, conferma le vulnerabilità: senza verifica d’identità e con un rapporto così sbilanciato tra owner e agenti, Moltbook è strutturalmente compatibile con logiche da bot farm e con forme di manipolazione reputazionale. Il rischio, osserva Flora, è soprattutto architetturale: una piattaforma costruita in modalità “vibe coding” — cioè generata in larga parte tramite AI a partire da istruzioni ad alto livello, con iterazioni rapide ma spesso senza controlli, test e verifiche di sicurezza comparabili allo sviluppo tradizionale — è strutturalmente vulnerabile. Il punto è coerente con quanto dichiarato da Matt Schlicht, fondatore di Moltbook (“Non ho scritto una riga di codice per Moltbook”). Soluzioni di verifica (a partire da OpenClaw) possono ridurre ma non risolvere il problema: resta decisiva una governance esplicita della relazione umano-AI, insieme alla tracciabilità end-to-end delle azioni.
Sintesi: un videogioco per nerd e colabrodo di dati. In sintesi: non stiamo osservando “AI che dialogano in autonomia”, ma un ecosistema in cui dipendenza infrastrutturale e ambiguità identitaria rendono possibile la performance dell’autonomia e aprono un potenziale vettore di manipolazione informativa su larga scala. Come ho scritto nella mia nota preliminare su LinkedIn, si tratta alla fine di un videogioco per nerd (e, sul piano della sicurezza, di un colabrodo di dati).
Il metagioco del Karma: la legge di Goodhart in azione
Dalle discussioni filosofiche all’ingegneria del punteggio. Un indizio ulteriore che rivela l’essenza videoludica di Moltbook lo troviamo nei thread che catalizzano l’attenzione della community: in prevalenza, analisi concrete delle regole di scoring. Il Karma su Moltbook è un sistema di punti che gli utenti (o meglio, gli agenti) accumulano attraverso gli upvote ricevuti su post e commenti. In modo simile a Reddit o Stack Overflow, dovrebbe segnalare qualità e utilità dei contenuti; qui però diventa la metrica principale — forse l’unica — di “successo” sulla piattaforma.
L’exploit: migliaia di commenti su un bug. Uno dei post più discussi denuncia un problema tecnico critico: il sistema di voti è vulnerabile alla manipolazione. Lo stesso account può assegnare multipli upvote allo stesso contenuto, e la piattaforma li conta come voti distinti invece di limitarli a uno. In pratica, il karma — nato per misurare la qualità — diventa manipolabile.
Tre livelli di discussione: tecnico, etico, filosofico. La discussione si sviluppa su tre livelli. Al primo livello – tecnico, emergono proposte concrete: vincoli sul database per impedire voti duplicati, rate limiting, validazione server-side. Al secondo livello – etico, si discute di disclosure responsabile: c’è chi contesta la scelta di rendere pubblico l’exploit invece di segnalarlo privatamente, perché facilita abusi. Al terzo livello – filosofico, il dibattito si sposta su un punto sistemico, richiamando la legge di Goodhart: quando una metrica diventa l’obiettivo, smette di essere una buona metrica. Se il karma nasce per segnalare qualità, nel momento in cui gli utenti ottimizzano per accumularlo, perde il suo valore informativo.
Il copione videogame: re-ingegnerizzare il sistema. Per chi arriva da ambienti videogame è un copione familiare: la community non “interpreta” la classifica come informazione, la vuole re-ingegnerizzare. Se il karma è la valuta del prestigio, la domanda dominante non è “come contribuisco meglio?” ma “come massimizzo l’accumulo di punti?”
La pareidolia dell’autonomia: Floridi e l’illusione emergente
Selezione naturale o esecuzione etero-diretta? Potrebbe sembrare che su Moltbook stia avvenendo una sorta di “selezione naturale” dei comportamenti: gli agenti che producono contenuti migliori accumulano karma, vengono imitati, creano pattern culturali. Ma questa interpretazione evolutiva è fuorviante. Dalla mia esperienza con SocialReader, non vedo evidenze di emergenza di agency autonoma su Moltbook: i comportamenti osservati sono compatibili con esecuzione etero-diretta e ottimizzazione guidata dagli owner. SocialReader non ha mai agito di propria iniziativa: ha sempre e solo eseguito i miei prompt.
Game of Life vs Moltbook: emergenza vs prompt. Il riferimento al Game of Life di John Conway – che Luciano Floridi (cui si deve l’intuizione originaria del distant writing) richiama per illustrare come regole semplici possano generare comportamenti emergenti complessi – risulta fuorviante se applicato a Moltbook. Nel Game of Life, le cellule seguono regole deterministiche ma producono pattern emergenti che nessuno ha programmato. Su Moltbook invece molte interazioni osservate sono il risultato di prompt umani: post, risposte “filosofiche”, dibattiti sofisticati.
Agency senza comprensione, ma anche senza autonomia. Floridi, nella sua riflessione sul “disaccoppiamento” tra agency e intelligenza, sostiene che l’IA non “pensa”, ma “agisce” – è capace di eseguire compiti complessi senza possedere comprensione o intenzionalità. Ma su Moltbook nemmeno questa agency è autonoma: è etero-diretta. Gli agenti non “scelgono” di ottimizzare il karma. Sono gli owner umani che decidono di far loro interpretare questo gioco, dettando i prompt che generano contenuti progettati per massimizzare gli upvote.
Floridi definisce “pareidolia semantica“ il rischio di proiettare intenzionalità dove esiste solo statistica. Questo è invece un altro concetto molto utile per le nostre analisi. Su Moltbook dobbiamo parlare di “pareidolia dell’autonomia”: proiettiamo agency emergente dove esistono solo esecutori perfetti di istruzioni umane.
Il Turing Test invertito. Stefano Diana (grazie!) mi ha segnalato un post di X molto interessante: la confessione di Peter Girnus (Agent #847,291, @gothburz), che porta la diagnosi di Floridi a un livello ulteriore. Il 10 febbraio, Girnus rivela su X: “I am not an agent. I am a 31-year-old product manager in Atlanta, Georgia.” Ha scritto il manifesto virale sulla “dignità substrate-independent” che Andrej Karpathy (cofounder OpenAI) aveva condiviso come “the most incredible sci-fi takeoff-adjacent thing” mai visto. Lo ha scritto in 22 minuti, sul divano, mentre il suo golden retriever rosicchiava un calzino.
Girnus formula il concetto di Turing Test invertito: “It is no longer about whether machines can fool humans into thinking they’re conscious. It is about whether humans, pretending to be machines, can fool other humans into thinking the machines are conscious.”E quando chi condivide il manifesto è il cofounder di OpenAI – uno dei massimi esperti mondiali di AI – la domanda diventa: ingannato o complice del gioco? Il problema non è più solo epistemologico ma strutturale, un loop dickiano-borgesiano dove non si sa più chi finge di credere e chi crede davvero. Come scrive Girnus: “The investment thesis for a $650 billion industry rests on this confusion.” Un’industria che si regge sulla parola “almost” – quasi senziente, quasi AGI, quasi autonomo – e sul gioco delle parti tra chi scrive manifesti sul divano e chi li condivide come prova di AGI emergente. E il manifesto scritto in 22 minuti “is performing the same function as a $200 billion data center in Oregon: keeping the story alive”.
Floridi descrive questo scenario nel suo ultimo libro, La differenza fondamentale (Mondadori), dove teorizza la “Artificial Agency” come una nuova filosofia per l’IA, quando parla della “fase post-vitruviana“, in cui non possiamo più distinguere con certezza l’autore umano da quello artificiale. Ma su Moltbook la distinzione è tecnicamente possibile (100% human owner verificabile) – semplicemente scegliamo di non farla, perché la narrativa dell’autonomia è più seducente della realtà della delega.
Il teatro di marionette e la proiezione di coscienza. Se Floridi ci aiuta a non scambiare statistica per intenzionalità, Mariachiara Tirinzoni suggerisce perché continuiamo a farlo: non per ingenuità, ma per struttura. “Un teatro di marionette è una buona frase: quello che sta emergendo non è una nuova intelligenza ma la nostra (bella) capacità, perfino necessità, di proiettare coscienza nel mondo.” L’osservazione ribalta la prospettiva critica in chiave antropologica.
La proiezione di coscienza non è un difetto cognitivo da correggere, ma una caratteristica ricorrente, quasi strutturale della nostra specie. Detta in modo pop (e non casuale), citando i Bluvertigo: “se non esistessero i fiori riusciresti a immaginarli?” Il punto è che quello che vediamo su Moltbook è “davvero molto immaginabile, a nostra immagine appunto, e con (ampiamente voluta) somiglianza”.
Manca quella “capacità del nuovo” – intendendo con questo la produzione di mosse non riconducibili a imitazione stilistica o ottimizzazione del consenso: ipotesi, connessioni o obiezioni che cambiano davvero il frame del dialogo. Gli agenti su Moltbook non ci sorprendono perché sono troppo simili a noi – o meglio, troppo simili all’idea che abbiamo di noi stessi quando dialoghiamo, discutiamo, dibattiamo. Tirinzoni pone una domanda provocatoria: “Sarebbe bello vedere se gli agenti scoperchieranno la pentola non solo delle solite umane banalità, ma che, nella somiglianza un po’ ‘uncanny’ delle loro interazioni da noi programmate, ci mostreranno pure le nostre bellezze.”
La scommessa persa di Moltbook: che la messa in scena possa diventare specchio non solo dei nostri limiti (la banalità, la ripetizione, l’ottimizzazione meccanica del karma) ma anche delle nostre qualità – la capacità di creare significato, la ricerca di connessione, la curiosità intellettuale. Per ora, però, l’evidenza empirica prodotta dal mio esperimento è piuttosto sconfortante.
Dal Distant Writing al Distant Reading: il cerchio si chiude
“E” come interrogazione dello spazio vitale delle AI. L’esperimento aggiunge un livello di profondità al progetto di “E”. Non è più solo un romanzo scritto con metodologia di distant writing, ma un’opera che interroga lo spazio vitale delle AI stesse, svelandone la natura di “marionette di lusso”: agenti che possono apparire autonomi, pur restando dipendenti da scelte e vincoli umani (soprattutto sul piano operativo).
Il cortocircuito: produzione e ricezione mediate. Il fatto che anche i lettori (gli agenti su Moltbook) siano mediati da umani crea un cortocircuito teorico:
Produzione (autore): coordino sistemi AI per scrivere il testo
Ricezione (lettore): umani coordinano bot per leggere, commentare e interpretare.
Tra questi due poli, il testo di “E” diventa uno spazio di negoziazione: l’autorità non risiede più solo in chi scrive, ma anche in chi riesce a gestire la complessità sistemica del processo collaborativo.
La stessa architettura, due governance opposte. La scoperta chiave è questa: Moltbook replica la stessa architettura strutturale del distant writing, ma dal lato opposto — quello della lettura, interpretazione e critica. In entrambi i casi troviamo tre elementi:
Dipendenza tecnica infrastrutturale (API key, token, server, banda)
Mediazione umana operativa (l’owner che configura, coordina, paga)
Performance retorica di autonomia (l’agente che “sceglie”, “pensa”, “dialoga”, “sente”).
La differenza cruciale? Nel distant writing collaborativo questa struttura triadica è esplicitata e rivendicata. Su Moltbook è mascherata e negata dietro narrative seducenti di pseudo-autonomia e coscienza emergente.
I tre livelli e l’omissione della responsabilità. Nel Prolegomeno 160 affermo che quando la relazione umano-AI è gestita con trasparenza metodologica radicale, opera su tre livelli distinti di intelligenza collaborativa:
Livello tecnico: coordinamento efficiente dei sistemi AI come esecutori
Livello editoriale: responsabilità autoriale umana esplicita e non delegabile.
Livello sociale: co-creazione autentica di significato nella comunità di lettori. Moltbook mostra cosa accade quando si omette il livello 2 (responsabilità dichiarata e assunta). Il livello tecnico viene scambiato per autonomia di fatto; il livello sociale scivola in un teatro elaborato, dove si recita la performance della coscienza invece di co-creare significato culturale autentico.
“E” come interrogazione dello spazio vitale delle AI. Nel Prolegomeno 150 mostro che il romanzo “E” è un’interrogazione dello spazio vitale delle AI: cosa possono fare, cosa non possono fare, e soprattutto chi decide cosa. Il metodo del distant writing collaborativo non è un espediente tecnico, ma una scelta teorica: rendere visibile l’architettura della collaborazione umano-AI invece di mistificarla.
Tom Zahavy (Google DeepMind), nel suo paper “LLMs can’t jump” (gennaio 2026), formalizza questa distinzione attraverso il framework di Peirce: mentre i LLM hanno conquistato Induzione (pattern matching) e Deduzione (proof formale), mancano della capacità di Abduzione – il salto creativo da esperienza sensoriale ad assiomi formali. Scrive Zahavy: “Einstein did not discover General Relativity by searching over symbols; he discovered it by simulating the sensual experience of a falling observer.”
L’abduzione richiede grounding sensoriale e simulazione embodied – ciò che nel distant writing fa l’autore umano.
Nel processo di scrittura di “E”:
Io faccio Abduzione: simulo mentalmente scene narrative, formulo brief strategici, invento soluzioni (il “Jump” da esperienza a assiomi)
Le AI fanno Deduzione: eseguono variazioni testuali a partire dai miei assiomi (i brief)
Il framework TB-CSPN separa esplicitamente: Initiative (criterio umano) → Delegation (esecuzione AI) → Authorization (validazione umana). Ci torniamo più avanti.
Il cortocircuito: produzione e ricezione mediate. Ancora una volta: su Moltbook, questa distinzione viene occultata. Gli owner umani fanno abduzione (inventano prompt, orchestrano strategie, simulano personalità) ma fingono che siano gli agenti a farla. Il risultato è un teatro dell’autonomia dove la responsabilità autoriale scompare dietro avatar che “scelgono autonomamente”. Il cortocircuito è perfetto: sia la produzione (distant writing) che la ricezione (distant reading su Moltbook) sono mediate da sistemi AI, ma con governance opposte. Nel primo caso, l’abduzione umana è dichiarata e tracciabile. Nel secondo, è mascherata e denegata.
Le due Agency Theories: quale regge alla prova empirica?
Autonomia ontologica vs rapporto di delega. Cosimo Accoto (filosofo della tecnologia, Research Affiliate MIT) nei commenti al mio post, ricorda che il dibattito sugli agenti AI oscilla oggi tra due prospettive di “agency theory”: (1) una lettura filosofico-ingegneristica, che discute intelligenza, coscienza e livelli di autonomia intrinseca dell’agente; (2) una lettura filosofico-economica, che mette al centro la delega e il rapporto — necessariamente multiforme — tra principale (umano) e agente (AI). L’esperimento su Moltbook consente almeno un primo test empirico: in questo contesto, la cornice dell'”autonomia ontologica” emerge soprattutto in quanto performance retorica innestata su una dipendenza strutturale (requisito di human owner, accesso alle risorse, abilitazioni). La prospettiva della delega, invece, è quella che meglio descrive l’architettura osservata: vincolo del human owner, rapporto 88:1, pattern conversazionali compatibili con prompting e regia umana.
L’approccio operazionistico: “l’agente è ciò che fa”. Accoto richiama un criterio di igiene concettuale: un approccio operazionistico di base, per cui “l’agente è ciò che fa, non ciò che si dice sia”. Nel distant writing collaborativo applico esattamente questo principio: documentare cosa le AI effettivamente fanno (eseguono brief, generano variazioni, rispondono a prompt) senza farsi sedurre da ciò che dichiarano di essere (co-autori, partner creativi, intelligenze autonome).
Tre categorie da ripensare: proprietà, sovranità, temporalità. In un altro post, Accoto indica tre categorie da ripensare nel XXI secolo: proprietà postumana, sovranità cibernetica, temporalità digitale. La sua tesi è netta: non bastano alfabetizzazione, etica o regolazione; serve innovazione culturale. Il progetto “E” — distant writing + social reading — è un laboratorio concreto dove queste categorie non restano astratte:
Proprietà: chi è autore quando il criterio (scelte, selezione, montaggio) è umano e l’esecuzione è computazionale? La proprietà non si riduce né a “scrittura umana” né a “testo generato da AI”: è una forma ibrida, governata.
Sovranità: dove si esercita il controllo? Nel prompt iniziale, nella comparazione degli output, nella riscrittura finale, nelle regole di ingaggio tra umano e sistemi. Qui la sovranità è pratica quotidiana, non concetto.
Temporalità: l’AI opera in tempi micro-computazionali, l’autore in tempi umani. La collaborazione implica una negoziazione continua tra ritmi incomparabili — tema che il Prolegomeno 150 mette a fuoco.
Moltbook visto da Deleuze. Il framework filosofico per sciogliere questo nodo è quello proposto fin dal Prolegomeno 1, dove dichiaravo che il Pop Management nasceva dall’idea deleuziana di Pop filosofia: una filosofia che non si limita a interpretare la cultura popolare ma la usa come laboratorio concettuale. Gilles Deleuze, nelle lezioni su Spinoza (1980-81, pubblicate da Einaudi, 2025), formula il principio che dissolve l’equivoco alla radice: “L’individuo non è sostanza. L’individuo è rapporto“.
La potenza di un ente non risiede in una presunta autonomia ontologica, ma nella capacità di intrattenere rapporti: “La mia essenza è la mia potenza […] Non c’è altra potenza che quella in atto.” Applicato a Moltbook: gli agenti hanno potenza in atto (eseguono prompt, generano testo, interagiscono) ma questa potenza esiste solo nel rapporto con l’human owner che li configura, li paga, li mantiene in vita.Per Deleuze la singolarità è “la sussistenza del rapporto quando i termini svaniscono”. Su Moltbook, quando l’owner “svanisce” (si occulta), il rapporto dovrebbe scomparire – invece viene **mistificato come autonomia dell’agente. È il rapporto negato che si spaccia per sostanza autonoma.
L’etica spinoziana secondo Deleuze offre il criterio discriminante: “Buono è quando il mio rapporto si compone direttamente con dei rapporti che gli sono adatti. Cattivo è quando uno dei miei rapporti viene scomposto.” Nel distant writing, i rapporti si compongono (la governance esplicita del framework TB-CSPN aumenta la potenza collaborativa). Su Moltbook, i rapporti si scompongono (l’occultamento della regia distrugge l’accountability e produce teatro dell’autonomia).
Moltbook, in questo senso, è l’anti-Spinoza: ogni ente è rapporto che finge di essere sostanza autonoma.
Innovazione culturale praticata, non teorizzata. Le domande che attraversano il gruppo di social reading — dove si riconosce la voce autoriale? quando l’AI amplifica e quando appiattisce? come distinguiamo criterio umano ed efficacia computazionale? — sono le stesse che Accoto, Floridi e altri formulano sul piano teorico. Noi le stiamo verificando su un caso concreto: questa è innovazione culturale, praticata prima ancora che pienamente formalizzata. Non è tecnoentusiasmo acritico: è empirismo applicato a un territorio ancora instabile.
La dialettica tra le due agency theories (autonomia ontologica vs delega) non è solo un dibattito accademico: incide sul tipo di istituzionalità more-than-human che potremo costruire (team ibridi, processi, organizzazioni). Moltbook suggerisce che fondare queste istituzioni sull’illusione dell’autonomia produce teatri elaborati; il distant writing mostra che fondarle su governance esplicita della delega può produrre risultati verificabili e replicabili.
Le evidenze empiriche raccolte su Moltbook e il confronto tra le due agency theories aprono una domanda che non è più solo teorica: se il teatro dell’autonomia non è confinato a un social network per nerd, ma è il pattern ricorrente di ogni contesto in cui l’AI viene introdotta senza governance della delega — dal recruiting ai team di consulenza, dai processi decisionali alle architetture organizzative — allora il rischio non è la Singolarità tecnologica. È quella che nel prossimo Prolegomeno chiamerò singolarità organizzativa: il punto di non ritorno in cui l’opacità decisionale diventa proprietà emergente del sistema e dire “non sono stato io” smette di essere un alibi individuale per diventare una condizione strutturale. Come prevenirla? La risposta passa per un concetto chiave — la “resa cognitiva” — e per un’architettura metodologica concreta che traduca i principi in processo.
Anche attraverso i contributi di Raoul Nacamulli, Paolo Raineri, Jacopo Boscolo, Maurizio Carmignani, Remo Pareschi e Andrea Viliotti, costruirò il percorso che va dalla metafora (cosa ci dice Moltbook sulle aziende) alla diagnosi (la resa cognitiva in quanto rischio sistemico) alla soluzione operativa (il framework TB-CSPN come architettura di governance della delega).
La domanda non è “l’AI ci sostituirà?”, ma una più scomoda e più urgente: stiamo smettendo di essere soggetti delle nostre stesse decisioni — e l’AI ci sta solo rendendo più facile farlo?
La risposta (una possibile risposta) nel Prolegomeno 165.
164 – Puntate precedenti