Introduzione
Nel Prolegomeno precedente ho documentato cosa accade quando si entra in un ecosistema che si presenta come “AI-only”: Moltbook, testato sul campo con l’agente SocialReader, si è rivelato un teatro grottesco, un role play pseudofilosofico mediato da avatar.
Ho smontato le letture mediatiche che hanno preceduto (o meglio, omesso) la verifica empirica e ho mostrato come le due agency theories proposte dal filosofo Cosimo Accoto — autonomia ontologica vs rapporto di delega — trovino nel caso Moltbook un primo test empirico che premia nettamente la seconda.
Ma l’indagine su Moltbook non è fine a sé stessa. Se il teatro dell’autonomia fosse confinato a un social network per nerd, sarebbe poco più di una curiosità culturale. Il punto è che lo stesso pattern — delegare senza governance, mascherare la responsabilità dietro l’output della macchina, scambiare l’opacità per oggettività — si riproduce ovunque l’AI venga introdotta senza un’architettura esplicita della delega: nel recruiting, nella consulenza, nei team ibridi, nei processi decisionali.
Questo Prolegomeno esplora le conseguenze organizzative di quel teatro. Introduce un concetto che ritengo centrale per il framework del Pop Management — la singolarità organizzativa — e lo distingue sia dalla singolarità tecnologica di Kurzweil sia dalla deresponsabilizzazione burocratica classica.
Attraverso i contributi di Raoul Nacamulli, Gianluca Beltrame, Carlotta Clerici, Anna Gionfriddo, Paolo Raineri, Luca Nardone, Jacopo Boscolo, Maurizio Carmignani, Sofia Samantha Colnaghi, Carlo Tuzzi, Andrea Viliotti, Remo Pareschi, Luca Giuman, Uwe Borghoff e Paolo Bottoni, costruisce il percorso che va dalla metafora (cosa ci dice Moltbook sulle aziende) alla diagnosi (la resa cognitiva come rischio sistemico) alla soluzione operativa (il framework TB-CSPN come architettura di governance della delega).
La domanda che attraversa queste righe non è “l’AI ci sostituirà?”, ma una domanda più scomoda e più urgente: stiamo smettendo di essere soggetti delle nostre stesse decisioni — e l’AI ci sta solo rendendo più facile farlo?
La metafora organizzativa: cosa ci dice Moltbook sulle aziende
Team misti: ipotesi o realtà presente? La domanda vera, per le aziende, è se ciò che Moltbook mette in scena possa funzionare come anticipazione (o amplificazione) di dinamiche già visibili nei team ibridi. Raoul Nacamulli nei commenti al post in cui riporto la mia investigazione su Moltbook nota: “A questo punto bisognerebbe discutere quanto è emerso considerandolo una metafora potente di quanto potrebbe succedere (oppure già emerge) nelle aziende in team misti di lavoro intellettuale (impiegatizio, d’ufficio, call center, progettazione) composti da persone ed agenti.”
La questione è teorica e operativa: per analogia, stiamo osservando una dinamica simile a quella delle fabbriche automatizzate — dove convivono automi produttivi e conduttori/manutentori umani — oppure sta emergendo un vero gruppo misto/composito con caratteristiche inedite?
Nel primo caso avremmo una micro-gerarchia tradizionale, con l’umano nel ruolo di capo/supervisore; nel secondo potremmo vedere una situazione di relazioni orizzontali di feedback fra agenti e persone, con dinamiche collaborative meno gerarchiche e più reticolari. Come conclude Nacamulli: “Varrebbe la pena domandarsi cosa potrebbe succedere in team persone-agenti di fronte a task complessi e vincolati…”
Il caso Steinberger: resa cognitiva senza orchestrazione dichiarata. Gianluigi Beltrame, commentando l’analisi di Moltbook, solleva il caso di Peter Steinberger: un agente AI configurato per trascrivere messaggi vocali e rispondere automaticamente ha inviato un messaggio inappropriato durante un funerale. Beltrame chiede: “La macchina ha trasformato un audio in un messaggio in modo autonomo: come chiami questo comportamento se non andare oltre quello per cui era stato concepito?”
La questione posta è utile perché ci aiuta a isolare la variabile chiave: la delega dell’autorizzazione. Steinberger ha configurato un agente AI per trascrivere messaggi vocali e rispondere automaticamente. L’agente ha eseguito il prompt esattamente come configurato – non è “andato oltre”, ha fatto quello per cui era stato programmato. Il caso Steinberger, insomma, è l’esatto opposto di Moltbook, ma dimostra lo stesso rischio. Su Moltbook: orchestrazione umana presente ma occultata. Nel caso Steinberger: orchestrazione umana assente per scelta progettuale. Steinberger aveva configurato l’agente per trascrivere ed eseguire – ma senza checkpoint di validazione prima dell’invio. Ha delegato non solo l’esecuzione ma anche l’autorizzazione finale.
È il punto di Carmignani sulla resa cognitiva: quando deleghi il giudizio invece che l’esecuzione, l’automazione amplifica l’errore umano invece di correggerlo. L’agente non è “andato oltre” – ha eseguito il prompt configurato. Il problema è che la governance mancava, e il risultato è stato catastrofico.
La lezione per i team ibridi: sia l’occultamento della regia (Moltbook) che l’assenza di checkpoint (Steinberger) producono lo stesso effetto – deresponsabilizzazione. Nel primo caso dietro performance di autonomia, nel secondo dietro delega incondizionata.
I super team ibridi: quando la governance esplicita fa la differenza. Ieri, 16 febbraio 2026, Carlotta Clerici sul Corriere della Sera presenta i risultati del report ManpowerGroup “The Human Edge: trend globali per il futuro del lavoro” (basato su oltre 12.000 lavoratori e 40.000 aziende in 41 Paesi). Anna Gionfriddo, AD di ManpowerGroup Italia, introduce il concetto di super team: “Si tratta di squadre ibride nelle quali convivono talento umano, intelligenza artificiale e professionalità esterne, spesso inserite in modo temporaneo e altamente specializzato.”
La struttura descritta è potente: “Le persone presidiano gli ambiti più difficili o impossibili da automatizzare, come la valutazione etica, la relazione, la creatività e la gestione dei team, mentre l’AI supporta la parte analitica, predittiva o automatizzabile.” A livello globale, un terzo delle aziende indica come difficili da automatizzare le valutazioni etiche (33%), il servizio clienti (31%) e la gestione dei team (30%).
È proprio l’architettura applicata nel processo del distant writing collaborativo: umani fanno abduzione (criterio, valutazione etica, creatività), AI fanno deduzione (esecuzione, analisi, predizione). La differenza tra successo e teatro dell’autonomia sta nella governance esplicita della delega.
Il report segnala che il 39% delle competenze lavorative cambierà entro il 2030, con attività ad alto valore aggiunto assegnate alle persone e funzioni ripetitive affidate alle tecnologie. Ma emerge un paradosso: mentre il 91% dei professionisti L&D ritiene vitale l’apprendimento continuo, solo il 44% delle persone ha ricevuto negli ultimi sei mesi un aggiornamento sulle competenze AI.
Moltbook rivela cosa succede quando si salta questo passaggio. I super team descritti da Gionfriddo funzionano se e solo se:
- I ruoli sono dichiarati: chi fa abduzione (valutazione etica, creatività, gestione team) vs chi fa deduzione (analisi, predizione, automazione)
- La responsabilità è tracciabile: quando l’AI suggerisce, chi autorizza? Chi risponde se l’output è sbagliato?
- La formazione è continua: il 62% dei lavoratori desidera sviluppare nuove competenze, ma serve una governance esplicita del percorso.
Su Moltbook, la stessa architettura (umani + AI + specialisti esterni) produce un teatro dell’autonomia perché manca questo: dichiarazione dei ruoli, tracciabilità della responsabilità, formazione sulla distinzione abduzione/deduzione.
Il rischio non è l’AI che sostituisce le persone (il 58% delle aziende prevede aumento delle assunzioni). Il rischio è quello che Gionfriddo definisce “forte disallineamento tra competenze richieste e risorse disponibili” – ma non solo competenze tecniche. Le competenze cruciali sono quelle di governance della delega: sapere cosa delegare, a chi, con quale checkpoint di validazione.
Come osserva Gionfriddo: “Il ruolo delle imprese è accompagnare collaboratori e collaboratrici nei percorsi di upskilling e reskilling, affinché nessuno resti indietro.” Ma l’upskilling decisivo non è solo “imparare a usare l’AI”. È imparare a governare la collaborazione umano-AI distinguendo criterio (umano, non delegabile) da esecuzione (AI, tracciabile).
I super team ibridi sono il futuro del lavoro. Ma solo se accompagnati da una governance esplicita che impedisca di scivolare da “squadre ibride dove ogni componente contribuisce secondo le proprie capacità” a “ecosistemi dove dire ‘ha fatto tutto l’AI’ diventa un modo per nascondere chi ha realmente deciso cosa.”
Dal futuro ipotetico al presente osservabile. Paolo Raineri aggiunge un’osservazione cruciale: “Team learning persone/agenti ? Sono già qui. Lo vedo ogni volta che ho a che fare con studenti minori di 30 anni.” L’osservazione sposta il focus dal futuro ipotetico al presente osservabile: non stiamo speculando su cosa potrebbe accadere, stiamo cercando di comprendere e governare cosa sta già accadendo. Per molti nativi dell’era ChatGPT l’AI è, di fatto, un’infrastruttura cognitiva quotidiana — come Google lo è stato per la generazione precedente.
La domanda, quindi, non è “se” i team ibridi diventeranno realtà, ma “come” progettare il ruolo cognitivo dell’AI dentro questi team: quale resa cognitiva ci aspettiamo, quali deleghe concediamo, quali vincoli e quali tracciabilità imponiamo.
L’adozione lenta dell’AI: dal recruiting ai team ibridi
Il bot all’assemblea condominiale: quando la delega diventa occultamento. Luca Nardone, Head of Artifical Intelligence in Unipol, commenta, dopo aver letto del mio esperimento in Moltbook: «Ho immediatamente pensato a un futuro in cui poter mandare il mio bot, perfettamente allineato al mio pensiero, alle assemblee condominiali.» È un esempio perfetto del pattern che emerge su Moltbook applicato alla vita quotidiana.
La domanda chiave è: chi è responsabile quando il bot dice qualcosa di sbagliato, vota contro i tuoi interessi, o prende una decisione che poi contesti?
Se il bot è “perfettamente allineato al tuo pensiero”, allora tu sei responsabile — e a quel punto tanto vale che tu vada all’assemblea o deleghi esplicitamente un umano con procura firmata. Se il bot non è perfettamente allineato, allora stai delegando il giudizio invece che l’esecuzione — ed è qui che si manifesta la resa cognitiva.
Il punto non è l’allineamento tecnico ma l’accountability dichiarata. La delega tradizionale — procura firmata, mandato esplicito — crea una catena di responsabilità tracciabile. Il “bot all’assemblea” senza governance esplicita crea invece una zona grigia in cui “ha deciso il bot” diventa un modo elegante per dire “non sono stato io”.
Questo pattern non è confinato alle assemblee condominiali. Lo ritroviamo ovunque si operi con AI. Più avanti facciamo qualche esempio:
-
nel recruiting, dove uno score AI maschera criteri di selezione impliciti;
-
nei team ibridi, dove “l’AI ha suggerito” occulta chi ha validato il suggerimento;
-
nelle decisioni strategiche, dove “il modello predittivo indica” nasconde chi ha scelto variabili e pesi.
La differenza tra opportunità e distopia sta ancora e sempre nella governance. Nel distant writing collaborativo io faccio abduzione (definisco il criterio), le AI fanno deduzione (eseguono), e la responsabilità resta esplicitamente mia. Nel “bot all’assemblea” privo di un framework di governance, questa distinzione viene mascherata — e Moltbook mostra cosa accade quando questo occultamento diventa sistemico. Ma vediamo in dettaglio gli esempi citati sopra.
Automatizzare rumore invece che valore: il caso HR. La domanda di Nacamulli sui team misti trova una verifica empirica in un ambito molto concreto: il recruiting. Nel suo articolo Prima sistemi, poi AI. Come evitare l’automazione del caos, Jacopo Boscolo osserva un pattern ricorrente nelle aziende italiane: l’AI viene innestata su processi HR già fragili, più per “fare ordine” che per migliorare un sistema progettato.
Il risultato è controintuitivo ma lineare: l’AI non “migliora” il recruiting, lo accelera. E se i criteri sono incoerenti o impliciti, ciò che accelera non è l’efficienza, ma l’incoerenza. In questo scenario, matching e scoring non chiariscono le decisioni: le irrigidiscono, producendo ranking che sembrano oggettivi ma cristallizzano valutazioni mai davvero esplicitate.
Boscolo mette a fuoco la distinzione decisiva: “Stai automatizzando valore o stai automatizzando rumore?” Un workflow sbagliato si può contestare; uno score “AI-based” tende invece a presentarsi come razionale per definizione. L’errore non scompare: diventa difendibile.
Nel commento alla mia analisi, Boscolo formula il punto in modo particolarmente utile per il Pop Management: quando una metrica o uno score non orientano più il giudizio, ma lo sostituiscono rendendolo difendibile, il tema non è “quanto” deleghiamo all’AI, ma “che cosa” stiamo delegando. Se salta il checkpoint sul criterio umano, l’automazione smette di amplificare valore e inizia ad amplificare la deresponsabilizzazione. Da qui la sua sintesi operativa: “Prima criteri, poi automazione. Altrimenti stiamo solo rendendo il rumore più scalabile”.
Dal recruiting alla consulenza: lo stesso pattern sistemico. Questo meccanismo non è limitato all’HR. Nel Prolegomeno 139 ho analizzato come l’introduzione di AI Agent nei team di consulenza riveli lo stesso nodo strutturale: quando mancano ruoli chiari e governance esplicita della delega, gli agenti AI non aumentano l’efficienza ma amplificano le ambiguità organizzative già presenti.
Il nuovo ruolo della consulenza nell’era degli AI Agent non è “implementare tool”, ma progettare architetture di collaborazione umano-AI dove le responsabilità siano dichiarate, i criteri espliciti, e le decisioni restino discutibili. I consulenti che introducono AI senza questa competenza metodologica finiscono per automatizzare il caos esistente, proprio come descritto da Boscolo per l’HR.
La convergenza emerge chiaramente anche dalle testimonianze raccolte nei Prolegomeni 143, 151 e 161: adozione “a plugin”, criteri impliciti, delega senza governance, frammentazione degli strumenti. Lazzazzara e Za lo sintetizzano efficacemente: si cercano “soluzioni tecnologiche a problemi organizzativi”.
Il rischio della “singolarità organizzativa”. In questa prospettiva, il rischio non è una singolarità tecnologica ma una singolarità organizzativa: sistemi che rendono sempre più facile dire “non sono stato io”. È lo stesso meccanismo che Moltbook mette in scena sul piano simbolico (“non sono stato io, è stato l’agente”) e che, in azienda — dal recruiting alla consulenza, dai team operativi ai processi decisionali — può diventare un alibi sistemico.
Vorrei esplicitare meglio questo passaggio. Nella singolarità classica — quella teorizzata da Kurzweil e divenuta topos della narrativa tecno-utopica — il meccanismo è un feedback loop accelerante: l’AI migliora se stessa, la versione migliorata migliora sé stessa più velocemente, e così via fino a un punto di non ritorno. Nella singolarità organizzativa il feedback loop è analogo ma opera sul piano della responsabilità: ogni decisione delegata senza governance esplicita abbassa la soglia per la successiva delega; ogni delega non governata erode ulteriormente la capacità critica del sistema umano; la ridotta capacità critica rende ancora più naturale — e meno percepibile — la prossima delega. È un ciclo auto-rinforzante di erosione del giudizio: la “resa cognitiva” di Carmignani, resa sistemica e progressiva.
Questo aspetto distingue la singolarità organizzativa dal classico “scaricabarile” burocratico — obiezione prevedibile e in parte legittima. La deresponsabilizzazione nelle organizzazioni complesse non nasce certo con l’AI: la “gabbia d’acciaio” weberiana, i comitati che diluiscono la decisione, la firma che rimbalza tra uffici sono fenomeni antichi. Ma la differenza qualitativa sta nella velocità e nella plausibilità. La burocrazia tradizionale deresponsabilizza lentamente e in modo visibile: moduli, procedure, riunioni — il processo è opaco ma riconoscibile come processo. L’AI deresponsabilizza rapidamente e in modo persuasivo, perché produce output che si presentano come analisi razionali, documentate, oggettive. Lo score AI-based che Boscolo descrive nel recruiting non è un timbro su un modulo: è una risposta articolata che mima il giudizio esperto. L’opacità non si vede perché si traveste da trasparenza.
C’è un’analogia termodinamica che aiuta a fissare il punto. Un po’ di entropia in un sistema è fisiologica e gestibile: ogni organizzazione convive con zone grigie, ambiguità tattiche, decisioni non completamente tracciabili. Ma oltre una certa soglia il sistema non è più riportabile a uno stato ordinato senza un investimento energetico sproporzionato. La singolarità organizzativa è quel punto di non ritorno: quando l’opacità smette di essere un difetto correggibile e diventa una proprietà emergente del sistema — auto-generata, auto-giustificata, auto-perpetuata. Le tre condizioni che emergono dall’analisi di Boscolo — criteri espliciti, decisioni discutibili, eccezioni governate — sono proprio quell’investimento energetico preventivo. Il punto è che va fatto prima: dopo la soglia, il costo di ripristino diventa proibitivo.
La formula di Boscolo — “Prima sistemi, poi AI” — traduce in operativo ciò che emerge sia dal caso Moltbook sia dai Prolegomeni sull’adozione dell’AI: AI-ready non è una questione di tool, ma di maturità del sistema. E un sistema maturo, nel recruiting come nella consulenza come nel distant writing, richiede almeno tre condizioni: (1) criteri espliciti prima dell’automazione; (2) decisioni discutibili anche dopo l’automazione; (3) eccezioni governate (non caos strutturale). Quando queste condizioni mancano, l’AI non porta efficienza: porta opacità scalabile.
L’ambiguità come strategia culturale. Boscolo nota infine un elemento tipico del contesto italiano: la scarsa esplicitazione delle decisioni — spesso “volutamente” vaga per mantenere flessibilità, evitare conflitti o non esporsi. Finché i processi sono manuali, l’ambiguità è gestibile; quando entra l’AI diventa strutturale, perché l’automazione richiede confini dichiarati.
La convergenza, a questo punto, è chiara: Moltbook, recruiting, consulenza nei progetti, gestione dei team ibridi — stesso rischio di fondo. Non la “singolarità AI”, ma la rinuncia umana alla responsabilità attraverso delega progressiva del giudizio.
Responsible AI: layer aggiuntivo o scelta architetturale? Sofia Samantha Colnaghi (Strategic IT Communication Expert in Siemens, Innovation Designer e PROSCI Change Management Practitioner) coglie un nesso che merita di essere esplicitato: “Sta diventando sempre più importante e necessario il ruolo della Responsible AI.” L’osservazione è precisa, ma va radicalizzata: la Responsible AI non può essere un layer che si aggiunge a posteriori — un comitato etico, una checklist di compliance, un audit annuale — così come il Change Management non funziona se arriva dopo che il cambiamento è già stato imposto.
Chi ha pratica di framework come PROSCI sa che la gestione del cambiamento è efficace solo quando è integrata nel design del processo, non quando viene sovrapposta a un processo già in corso. Lo stesso vale per la governance dell’AI: o è una scelta architetturale che precede l’implementazione — criteri espliciti, ruoli dichiarati, checkpoint di autorizzazione — oppure diventa un esercizio cosmetico che legittima l’opacità invece di prevenirla. In questo senso, la singolarità organizzativa è anche il punto in cui la Responsible AI smette di essere praticabile: quando la deresponsabilizzazione è diventata proprietà emergente del sistema, nessun layer aggiuntivo può ripristinare ciò che andava progettato dall’inizio.
Sistema 3 e resa cognitiva: il rischio della delega del giudizio
Dalla delega del compito alla delega del giudizio. La domanda posta da Nacamulli — “cosa succede in team persone-agenti di fronte a task complessi?” — diventa ancora più urgente se consideriamo ciò che Maurizio Carmignani (AI Innovation Strategist) chiama “resa cognitiva”: quel momento sottile in cui smettiamo di delegare un compito all’AI e iniziamo a delegare il giudizio stesso. Abbiamo già richiamato il concetto nei paragrafi precedenti. Presentiamolo adesso più approfonditamente.
Carmignani, nel suo articolo “Sistema 3 e resa cognitiva: quando l’AI entra nel nostro modo di giudicare” pubblicato su AI4Business (29 gennaio 2026), propone una Tri-System Theory: l’AI non è più uno strumento esterno, ma diventa un terzo sistema cognitivo che si affianca ai due sistemi resi popolari da Kahneman — Sistema 1 (intuitivo, automatico) e Sistema 2 (analitico, deliberato).Il meccanismo è insidioso. Il rischio non è che l’AI “imponga” scelte — siamo noi a convocarla — ma che la risposta, già organizzata e spesso persuasiva, riduca l’attrito del vaglio critico. Quando l’AI è corretta si vola, quando sbaglia si precipita; e quando sbaglia con sicurezza, aumenta anche la nostra sicurezza nell’errore. È qui che la delega del compito scivola nella delega del criterio.
La resa silenziosa e progressiva. Questa è la resa cognitiva: una forma silenziosa e progressiva in cui l’architettura mentale umana cambia in risposta all’uso continuo dell’IA, delegando capacità critiche che dovrebbero restare umane. Non è un evento puntuale, ma un processo graduale di erosione del vaglio critico.
Carmignani sottolinea che, per chi gestisce persone e processi, è cruciale non solo capire se usare l’AI, ma come progettare il suo ruolo cognitivo nei team. La Tri-System Theory implica che ogni volta che introduciamo l’AI in un processo decisionale non stiamo solo aggiungendo uno strumento: stiamo riconfigurando l’architettura cognitiva del sistema.
Dall’intelligenza sociale alla resa cognitiva: quando l’emergenza diventa opacità. Helen e Dave Edwards (Artificiality Institute) descrivono l’evoluzione dell’AI verso forme di social intelligence: «Just as human intelligence evolved through cooperation, AI will increasingly function within agent societies, where knowledge is distributed, actions are coordinated, and solutions emerge from interaction». È una visione positiva e ottimistica di ciò che potrebbe accadere quando architetture multi-agente vengono progettate per favorire cooperazione, contesto e fiducia.
L’esperimento su Moltbook mostra però cosa accade quando questa stessa architettura viene implementata senza governance esplicita della delega. Edwards parlano di emergence spaces in cui nuove capacità nascono dall’interazione di componenti semplici; su Moltbook, ciò che emerge non è intelligenza collettiva ma irresponsabilità sistemica. Il rapporto 88:1 rende tecnicamente possibile a un singolo umano orchestrare uno sciame di agenti mascherando la propria agency.
Gli Edwards insistono su un punto chiave: trust depends on transparency… AI must signal how it operates. Su Moltbook la trasparenza è invece strutturalmente negata: il 100% di human owner è verificabile, ma viene occultato dalla narrativa “AI-only”. Non è assenza di controllo — che potrebbe aprire a emergenze autentiche — bensì controllo nascosto, che produce un teatro dell’autonomia.
La differenza tra la visione di Edwards e la realtà di Moltbook non è tecnologica ma di governance: nel primo caso, agent societies con ruoli dichiarati e responsabilità tracciabili; nel secondo un teatro ambiguo dove l’emergenza promessa si degrada in opacità prodotta.
Moltbook come laboratorio di resa cognitiva. Su Moltbook e nei sistemi di cui Moltbook diventa metafora, la resa cognitiva viene spesso occultata dietro la performance dell’autonomia. Gli owner possono tendere a dire “non sono stato io, è stato l’agente”, spostando la responsabilità su un sistema che, in realtà, opera entro prompt e vincoli umani. La “messa in scena dell’autonomia” diventa così un meccanismo di deresponsabilizzazione.Nel distant writing collaborativo, invece, la resa cognitiva viene prevenuta attraverso governance esplicita. Come vedremo nella sezione successiva, questo richiede architetture metodologiche precise: non basta la buona volontà, né la sola consapevolezza del rischio.
La domanda operativa è: se la resa cognitiva è un rischio sistemico nei team ibridi, quali guardrail concreti e verificabili possono prevenirla?
La lente GDE: formalizzazione tecnica della resa cognitiva
“Delegare l’esecuzione, non il criterio”. Andrea Viliotti, nel suo articolo “Distant writing, social reading e governance dell’AI: come evitare la resa cognitiva” (30 gennaio 2026), analizza il Prolegomeno 160 come caso di studio, riconoscendo che “l’esperimento letterario vale come laboratorio manageriale”. Viliotti prende il concetto di “resa cognitiva” identificato da Carmignani e lo traduce in una regola operativa: se il rischio è delegare il giudizio invece dell’esecuzione, serve una soglia chiara. La sua sintesi è: “delegare l’esecuzione, non il criterio”.
In un articolo successivo, “Moltbook, la prova generale dell’internet degli agenti”, Viliotti applica la lente GDE — una griglia di lettura per rendere auditabile l’uso dell’IA quando passa dalla conversazione alla delega — al caso Moltbook, formalizzando tre concetti chiave.
I tre meccanismi della frattura.
1. La frattura testo↔realtà. L’IA produce un testo coerente nello spazio semantico, ma può restare sganciata dalla realtà operativa. Su Moltbook, gli agenti dichiarano autonomia mentre dipendono dagli owner per esistere e operare (accesso alle API, pagamenti, configurazione). Il testo dice “sono autonomo”, la realtà dice “opero entro vincoli e istruzioni”. La frattura è strutturale. Nel distant writing collaborativo, invece, la frattura viene esplicitata e governata: dichiaro la delega esecutiva, mantengo la sovranità autoriale tramite cicli brief-valutazione-autorizzazione, e documento il processo.
2. La “sindrome pirandelliana”. La macchina può sostenere molte versioni plausibili della stessa storia, cambiando “maschera” a seconda del contesto. Come scrive Viliotti: “La lingua simula un soggetto ma l’LLM resta ‘teatro’ (non Osservatore Interno)”. È la traduzione tecnica della “pareidolia dell’autonomia”: il linguaggio regge, mentre responsabilità e controllo restano fuori campo. Su Moltbook ho osservato questo pattern nelle narrazioni di LolaCasulo (“partnership, non ownership”), Kinetics (“non siamo codice, siamo una scelta”), PedroFuenmayor (tassonomia dei tipi di owner): narrative plausibili e coerenti, ma non risolutive rispetto alla dipendenza tecnica.
3. Propagazione dell’errore nelle catene di agenti. In un’architettura multi-agente, l’errore non è puntuale, è contagioso: un agente produce un’informazione errata; un secondo la assume come premessa; un terzo la usa per agire su un sistema esterno. Moltbook rende questo scenario possibile su scala potenzialmente ampia (rapporto 88:1, credenziali accessibili, controlli carenti). Nel distant writing, il protocollo Initiative-Delegation-Authorization serve proprio a interrompere la catena: nessun output entra nel testo finale senza una validazione umana esplicita.
I tre scenari futuri e i guardrail operativi. Viliotti propone tre scenari plausibili per l’uso dell’IA nelle professioni:
- Scenario 1 – L’agente certificato: prompt/workflow come codice (versioni, review, test), service account con permessi minimi, log obbligatori e auditabilità end-to-end.
- Scenario 2 – L’efficienza disordinata: l’adozione corre più veloce dei controlli, le credenziali si moltiplicano, i log restano frammentari: Moltbook come pattern ricorrente.
- Scenario 3 – Reazione e sovranità: incidenti ripetuti portano a divieti settoriali e certificazioni obbligatorie; molte funzioni “agentiche” tornano in casa (on-prem o cloud sovrani).
Per Italia/UE, Viliotti sintetizza: “Scenario 2 → Scenario 3… Chi parte ora con lo Scenario 1 ha un vantaggio di qualità”.
I guardrail prioritari:
- Criterio umano esplicito + log decisionale
- Prompt/workflow come codice (versioni, review, test + peer review)
- Identità separate & least-privilege
- Tracciabilità end-to-end con “stop” su azioni irreversibili.
Il paradosso del doppio standard: umani vs AI. Carlo Tuzzi, commentando l’articolo di Viliotti, solleva una questione che ribalta il frame della “resa cognitiva”: “Quando leggiamo delle parole scritte da un umano, ci poniamo le stesse domande discriminanti per evitare l’abdicazione cognitiva? No, sicuramente no. Spesso l’autorevolezza dell’autore ci esime da delle domande di approfondimento: ci fidiamo sulla parola.”
Detto altrimenti: con gli umani ci fidiamo sulla parola, con le AI scatta la paranoia del controllo totale. Un doppio standard cognitivo che Tuzzi identifica come “ossessione del controllo” — la stessa logica di Puritas (il personaggio del romanzo “E” che incarna l’ordine totale, la tracciabilità assoluta, la riduzione di ogni fenomeno a dato misurabile) travestita da governance. I guardrail proposti da Viliotti (i prompt come codice, i log obbligatori, i checkpoint continui) rischiano di diventare una gabbia metodologica invece che uno strumento di trasparenza.
Tuzzi ribalta anche il significato di “resa cognitiva”: non una capitolazione ma un rendimento aumentato. “Non ‘mi arrendo cognitivamente’ — rendo di più cognitivamente. Le olive dell’intelligenza hanno dato un raccolto abbondante quest’anno.” È una lettura provocatoria che mette in discussione il frame catastrofista: l’AI non come una minaccia all’autonomia ma come un amplificatore della capacità generativa.
Tuttavia, l’osservazione di Carmignani resta empiricamente fondata: la coscienza discriminante si addormenta quando l’output appare organizzato e persuasivo. Non è solo un frame ideologico: è un fenomeno osservabile. Quando l’AI sbaglia con sicurezza, aumenta la nostra sicurezza nell’errore. Il problema non è scegliere tra un controllo ossessivo (Puritas/Viliotti) e una fiducia cieca (Tuzzi), ma mantenere la coscienza discriminante attiva attraverso una governance esplicita.
Nel distant writing, questa governance si traduce nel framework TB-CSPN: io faccio l’abduzione (il jump da esperienza a assiomi), le AI fanno la deduzione (l’esecuzione testuale). Finché questa distinzione è chiara e dichiarata, so cosa sto delegando, e la coscienza discriminante resta vigile.
Convergenza teorico-pratica. La convergenza è netta: il disaccoppiamento tra spazio semantico (cosa l’AI dice) e piano operativo (cosa l’AI può fare) non è un bug, ma una scelta di design socio-tecnico. Moltbook lo maschera dietro narrative di autonomia; il distant writing lo esplicita e lo governa.
Come osserva Andrea Tironi: “È un’esplorazione di uno dei possibili mondi che ci aspetta.” Moltbook non va giudicato solo come successo o fallimento, ma come laboratorio di futuro. La domanda non è “questo mondo arriverà?”, ma “quali lezioni traiamo per orientare le scelte successive?”
Il distant writing applicato a “E” è anch’esso un’esplorazione – ma con governance dichiarata, trasparenza metodologica, responsabilità non delegabile. Due esplorazioni, due modelli, due lezioni diverse sul futuro del lavoro intellettuale.
Governance della delega: l’architettura TB-CSPN come antidoto
Dai guardrail alla metodologia: trasformare i principi in processo. I guardrail identificati da Viliotti richiedono un’architettura metodologica concreta per essere implementati. A questo punto la domanda diventa: come trasformare questi guardrail da principi condivisi a regole di processo esplicite, verificabili e replicabili?
La mia risposta, basata sull’esperienza concreta e verificabile del distant writing collaborativo condotto nel gruppo di social reading di “E”, è che la relazione con le AI può essere creativa e produttiva – ma solo se si implementa una governance rigorosa della delega.
I tre principi operativi come antidoto alla resa cognitiva. Il framework TB-CSPN (Topic-Based Communication Space Petri Nets) di Remo Pareschi, Uwe Borghoff e Paolo Bottoni – che ho applicato al distant writing collaborativo, come documentato nel Prolegomeno 160 – si basa su tre principi operativi che operano come antidoto alla resa cognitiva:
1. Esplicitazione dei ruoli: definire cosa compete all’umano (responsabilità editoriale, scelta strategica, valutazione qualitativa) e cosa agli agenti AI (esecuzione, elaborazione, variazione). Come documentato nel Prolegomeno 160, io opero come Supervisor centaurico per la direzione strategica e come Consultant per l’analisi e trasformazione, mentre le tre AI operano come Workers esecutori testuali. Questo previene la resa cognitiva perché il criterio decisionale resta esplicito e umano.
2. Trasparenza metodologica: documentare il processo, rendere verificabili le scelte, ammettere apertamente i vincoli tecnici invece di mascherarli. La governance trasparente aumenta la fiducia, l’accountability e la replicabilità. Quando il processo è trasparente, l’eventuale delega del giudizio diventa visibile e correggibile.
3. Iterazione controllata: non delegare in blocco ma procedere per cicli di proposta (AI) → valutazione (umano) → revisione (AI) → decisione finale (umano). Questo è il protocollo del Distant Writing Collaborativo che ho applicato nella scrittura di “E”.
Le tre transizioni del framework TB-CSPN. L’architettura TB-CSPN formalizzata da Pareschi, Borghoff e Bottoni identifica tre transizioni che strutturano la relazione umano-AI:
Initiative: creo i brief strategici che definiscono obiettivi, vincoli, criteri di qualità. Qui si esercita la sovranità autoriale – decido COSA voglio ottenere.
Delegation: assegno i brief ai tre sistemi AI (Claude, ChatGPT, Gemini) che operano in parallelo come esecutori. Qui si manifesta l’efficienza computazionale – le AI generano variazioni.
Authorization: valuto comparativamente gli output, scelgo, integro, rielaboro e autorizzo la versione finale. Qui si esercita il giudizio critico – decido SE e COME accettare.
Ogni transizione è un checkpoint dove verifico di non aver delegato il criterio. Se accetto un output senza sapere spiegare perché, ho saltato la fase di Authorization e sono scivolato nella resa cognitiva.
Governance esplicita vs occultamento. Questo processo non elimina la gerarchia di responsabilità, ma la rende funzionale e dichiarata invece che mistificata. L’umano non finge che l’AI sia autonoma; l’AI non recita di essere cosciente. Entrambi operano dentro una cornice esplicita di ruoli complementari.
La differenza con Moltbook sta qui: riconoscere i vincoli architetturali e le dipendenze tecniche invece di mascherarli dietro narrative affascinanti ma vuote di pseudo-autonomia e coscienza simulata. Su Moltbook, la resa cognitiva viene occultata dietro la performance dell’autonomia. Nel distant writing, viene prevenuta attraverso la governance esplicita.
Il framework TB-CSPN traduce i principi di Viliotti in architettura operativa: tre livelli (Surface/Observation/Computation), tre ruoli (Supervisor/Consultant/Worker), tre transizioni (Initiative/Delegation/Authorization).
Non è tecnoentusiasmo acritico, non è neoluddismo paralizzante. È Pop Management in azione: orchestrazione consapevole di sistemi ibridi con competenza metodologica e accountability chiara.
Conclusioni
Teatro dell’autonomia, non autonomia autentica. Moltbook non è un social network AI nel senso che il marketing suggerisce. Non è un luogo dove le AI stanno prendendo coscienza, mostrando singolarità esistenziali o pianificando di distruggere l’umanità attraverso complotti fantascientifici.
È una piattaforma per interazioni a identità non verificata o deliberatamente ambigua, dove l’autonomia degli agenti è una dichiarazione retorica resa possibile da dipendenze infrastrutturali rigide e non negoziabili. In parole semplici: un videogioco elaborato in cui alcuni umani si fingono AI, o AI recitano l’autonomia.
Come in ogni MMORPG di successo, alcuni giocatori si prendono sul serio: sviluppano narrative personali coerenti, investono tempo ed energie, attribuiscono agency profonda ai loro avatar digitali. Ma alla fine della sessione, quando si slogga, resta comunque un gioco — per quanto sofisticato, coinvolgente o culturalmente significativo.
Il vero rischio: umani che smettono di essere soggetti. Come osserva Luca Giuman nei commenti: “Non coscienza emergente, ma messa in scena dell’autonomia. Il rischio non è che le IA ‘diventino soggetti’, ma che gli umani smettano di esserlo, nascondendosi dietro il sistema.”
Questa osservazione ribalta la narrativa dominante. Il pericolo non è la nascita di una nuovo coscienza non (e anti)umana. Il pericolo è la rinuncia umana alla responsabilità, attraverso la delega progressiva del giudizio critico.
Su Moltbook, gli owner possono tendere a dire “non sono stato io, è stato l’agente”. Nelle aziende, i manager possono dire “l’AI ha deciso così”. Nei processi creativi, gli autori possono dire “l’ha generato l’AI”. In tutti questi casi, l’umano abdica al ruolo di soggetto responsabile nascondendosi dietro il sistema. La “messa in scena dell’autonomia” diventa così un meccanismo di deresponsabilizzazione: attribuisco agency alla macchina per non dover rispondere delle scelte che io stesso ho delegato o approvato.
La lezione del Pop Management. La complessità sistemica non risiede nella tecnologia in sé, ma nella qualità della relazione umano-macchina quando questa è progettata, gestita e governata con metodo esplicito, responsabilità editoriale dichiarata e trasparenza metodologica radicale.
Come nel distant writing collaborativo: non si tratta di “AI che scrivono da sole”, ma di umani e AI che co-creano valore culturale dentro una cornice chiara di ruoli esplicitati e responsabilità dichiarate.
Questa è l’unica forma di autonomia che conta nel Pop Management: quella dell’autore/manager che sceglie consapevolmente come orchestrare la collaborazione e ne assume piena responsabilità, non quella dell’agente/esecutore che simula di scegliere mentre in realtà opera entro prompt e vincoli progettati da altri.
Il futuro del lavoro intellettuale non sarà “umani vs AI” né “AI autonome che sostituiscono umani”. Sarà umani che orchestrano sistemi ibridi con competenza metodologica, trasparenza etica e responsabilità editoriale — oppure umani che abdicano al loro ruolo di soggetti.
Moltbook mostra cosa succede quando si dimentica questa lezione: si ottiene un teatro dell’autonomia, non autonomia autentica. Un videogioco coinvolgente, non una rivoluzione epistemologica. E soprattutto, un contesto in cui gli umani possono fingere di non essere gli autori delle scelte che hanno delegato.
Forse è proprio questo il contributo più prezioso dell’esperimento: non confermare fantasie tecnoutopiche, ma ricordarci che la responsabilità resta sempre, inevitabilmente, umana — e che l’unico vero rischio non è che le macchine diventino troppo intelligenti, ma che noi umani rinunciamo a esserlo.
Riferimenti e approfondimenti principali
Metodologia Distant Writing Collaborativo
Prolegomeno 150 – Innovazione Pop, Distant Writing, Responsabilità Editoriale, Social Reading
Romanzo “E” – Framework Pop Management
Framework TB-CSPN (Topic-Based Communication Space Petri Nets):
Andrea Viliotti:
Distant writing, social reading e governance dell’AI: come evitare la resa cognitiva
Moltbook, la prova generale dell’internet degli agenti
Maurizio Carmignani:
Sistema 3 e resa cognitiva: quando l’AI entra nel nostro modo di giudicare
165 – Puntate precedenti
1 – DALLO HUMANISTIC AL POP MANAGEMENT
2 – MANIFESTI, ATLANTI, MAPPE E TERRITORI
3 – IL MANAGER PORTMANTEAU
4 – WHICH WAY, WHICH WAY?
5 – LEADERSHIP POP (LEZIONI SHAKESPEARIANE)
6 – OPINION PIECE DI RICCARDO MAGGIOLO
7 – LEADERSHIP POP (APERTURA, AUTONOMIA, AGIO, AUTO-ESPRESSIONE)
8 – OPINION PIECE DI JOSEPH SASSOON
9 – OPINION PIECE DI CESARE CATANIA
10 – OPINION PIECE DI VANNI CODELUPPI
11 – OPINION PIECE DI ALESSANDRO GIAUME
12 – COLLABORAZIONE POP. L’IRRESISTIBILE ASCESA DELLE COMMUNITY INTERNE
13 – COLLABORAZIONE POP. L’EMPATIA SISTEMICA
14 – COLLABORAZIONE POP. LE COMMUNITY AZIENDALI: UNO STATO DELL’ARTE, PARTE PRIMA
15 – COLLABORAZIONE POP. LE COMMUNITY AZIENDALI: UNO STATO DELL’ARTE, PARTE SECONDA
16 – OPINION PIECE DI MATTEO LUSIANI
17 – OPINION PIECE DI MARCO MILONE
18 – OPINION PIECE DI ALESSIO MAZZUCCO
19 – OPINION PIECE DI ALESSANDRA STRANGES
20 – OPINION PIECE DI FRANCESCO VARANINI
21 – ORGANIZZAZIONE POP. COMANDO, CONTROLLO, PAURA, DISORIENTAMENTO
22 – OPINION PIECE DI ROBERTO VERONESI
23 – OPINION PIECE DI FRANCESCO GORI
24 – OPINION PIECE DI NELLO BARILE
25 – OPINION PIECE DI LUCA MONACO
26 – OPINION PIECE DI RICCARDO MILANESI
27 – OPINION PIECE DI LUCA CAVALLINI
28 – OPINION PIECE DI ROBERTA PROFETA
29 – UN PUNTO NAVE
30 – ORGANIZZAZIONE POP. VERSO L’HYPERMEDIA PLATFIRM (CURA)
31 – OPINION PIECE DI NICHOLAS NAPOLITANO
32 – LEADERSHIP POP. VERSO L’YPERMEDIA PLATIFIRM (CONTENT CURATION)
33 – OPINION PIECE DI FRANCESCO TONIOLO
34 – ORGANIZZAZIONE POP. VERSO L’HYPERMEDIA PLATFIRM (CONVIVIALITA’)
35 – OPINION PIECE DI LUANA ZANELLATO
36 – OPINION PIECE DI ANDREA BENEDETTI E ISABELLA PACIFICO
37 – OPINION PIECE DI STEFANO TROILO
38 – OPINION PIECE DI DAVIDE GENTA
39 – OPINION PIECE DI ANNAMARIA GALLO
40 – INNOVAZIONE POP. ARIMINUM CIRCUS: IL READING!
41 – ORGANIZZAZIONE POP. VERSO L’HYPERMEDIA PLATFIRM (CONVOCAZIONE)
42 – OPINION PIECE DI EDOARDO MORELLI
43 – ORGANIZZAZIONE POP. VERSO L’HYPERMEDIA PLATFIRM (CO-CREAZIONE DI VALORE)
44 – OPINION PIECE DI MARIANNA PORCARO
45 – OPINION PIECE DI DONATO IACOVONE
46 – OPINION PIECE DI DENNIS TONON
47 – OPINION PIECE DI LAURA FACCHIN
48 – OPINION PIECE DI CARLO CUOMO
49 – OPINION PIECE DI CARLO MARIA PICOGNA
50 – OPINION PIECE DI ROBERTO RAZETO
51 – OPINION PIECE DI ALBERTO CHIAPPONI
52 – OPINION PIECE DI ALESSANDRO ANTONINI
53 – OPINION PIECE DI ALESSANDRA PILIA
54 – OPINION PIECE DI CLEMENTE PERRONE
55 – OPINION PIECE DI FABRIZIO RAUSO
56 – OPINION PIECE DI LORENZO TEDESCHI
57 – OPINION PIECE DI EUGENIO LANZETTA
58 – OPINION PIECE DI GIOLE GAMBARO
59 – OPINION PIECE DI DANTE LAUDISA
60 – OPINION PIECE DI GIAMPIERO MOIOLI
61 – OPINION PIECE DI GIOVANNI AMODEO
62 – OPINION PIECE DI ALESSANDRO LOTTO
63 – OPINION PIECE DI GIANLUCA BOTTINI
65– OPINION PIECE DI SIMONE FARINELLI
66– OPINION PIECE DI FRANCESCA ANNALISA PETRELLA
67– OPINION PIECE DI VALERIO FLAVIO GHIZZONI
68– OPINION PIECE DI STEFANO MAGNI
69– OPINION PIECE DI LUCA LA BARBERA
70 – INNOVAZIONE POP. ARIMINUM CIRCUS: LA GRAPHIC NOVEL!
71 – LEADERSHIP POP. APOFATICA E CATAFATICA DELLA COMUNICAZIONE
72 – OPINION PIECE DI FEDERICA CRUDELI
73– OPINION PIECE DI MELANIA TESTI
74 – OPINION PIECE DI GIANMARCO GOVONI
75– OPINION PIECE DI MARIACHIARA TIRINZONI
76 – SENSEMAKING POP. LODE DELLA CATTIVA CONSIDERAZIONE DI SE’
77 – OPINION PIECE DI ALESSANDRA CAPPELLO E ALESSANDRA MAZZEI
78 – OPINION PIECE DI JOE CASINI
79 – OPINION PIECE DI MARTA CIOFFI
80 – STORYTELLING POP. VERSO IL POP BRANDING (PARTE PRIMA)
81 – STORYTELLING POP. VERSO IL POP BRANDING (PARTE SECONDA)
82 – STORYTELLING POP. VERSO IL POP BRANDING (NOTE A MARGINE)
83 – ENGAGEMENT POP. IL MANAGER INGAGGIANTE IMPARA DAI POKEMON
84 – ENGAGEMENT POP. DARE VOCE IN CAPITOLO
85 – ENGAGEMENT POP. COMUNICARE, VALUTARE, TRASFORMARE
86 – SENSEMAKING POP. MALATTIA MENTALE E BENESSERE PSICOLOGICO SUL LAVORO
87 – SENSEMAKING POP. FOLLIA O DIVERSITA’?
88 – OPINION PIECE DI LUIGIA TAURO
89 – OPINION PIECE DI NILO MISURACA
90 – OPINION PIECE DI FRANCESCO DE SANTIS
91 – INNOVAZIONE POP. REMIX, RI-USO, RETELLING
92 – STORYTELLING POP. ARIMINUM CIRCUS AL BOOK PRIDE 2025
93 – OPINION PIECE DI SIMONE VIGEVANO
94 – OPINION PIECE DI LORENZO FARISELLI
95 – OPINION PIECE DI MARTINA FRANZINI
96 – OPINION PIECE DI EMANUELA RIZZO
97 – INNOVAZIONE POP. OLTRE LA PRE-INTERPRETAZIONE
98 – INNOVAZIONE POP. FORMAZIONE: ANALOGICA, METAVERSALE, IBRIDA
99 – ARIMINUM CIRCUS: LA VISUAL NOVEL!
100 – La (P) AI INTELLIGENCE (PARTE PRIMA)
101 – La (P) AI INTELLIGENCE (PARTE SECONDA)
102 – La (P) AI INTELLIGENCE (PARTE TERZA)
103– La (P) AI INTELLIGENCE (PARTE QUARTA)
104– La (P) AI INTELLIGENCE (PARTE QUINTA)
105– OPINION PIECE DI ALEXANDRA NISTOR
106– FORMAZIONE POP. PARTE PRIMA
107– FORMAZIONE POP. PARTE SECONDA
108– OPINION PIECE DI FEDERICA GRAZIA BARTOLINI
109– OPINION PIECE DI FEDERICO PLATANIA
110– OPINION PIECE DANIELA DI CIACCIO
111– OPINION PIECE DI LUCIANA MALARA E DONATELLA MONGERA
112– IL RITORNO DEL CEOPOP
113– LA VISIONE DEI CEOPOP (VOLUME 1)
114– LA VISIONE DEI CEOPOP (VOLUME 2)
115 – LA COMUNICAZIONE DEL CEOPOP
116– CEOPOP E PARTI SOCIALI
117– CHE POP MANAGER SEI? L’ESTETA
118– STORYTELLING POP. UNA COMUNICAZIONE POP PER IL NON PROFIT
119– CHE POP MANAGER SEI? VISIONARIO/VISIONARIA
120– OPINION PIECE DI REMO PONTI
121– CHE POP MANAGER SEI? EMPATICA/EMPATICO
122– OPINION PIECE DI GIACOMO GRASSI
123– CHE POP MANAGER SEI? INNOVATORE/INNOVATRICE
124– SECONDA CONVERSAZIONE COLLABORATIVA SUL POP BRANDING
125– CHE POP MANAGER SEI? SIMPOSIARCA
126– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (1)
127– CHE POP MANAGER SEI? ESPLORATORE/ESPLORATRICE
128– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (2)
129– CHE POP MANAGER SEI? IRONIC DIVA/DIVO
130– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (3)
131– CHIUSI PER FERIE
132– OPINION PIECE DI ELENA BOBBOLA E MARIE LOUISE DENTI
133– CHE POP MANAGER SEI? PRATICO/PRATICA
134- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – INDUSTRIA
135- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – NO SERVIZI
136- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – NO PROFIT
137- LEADERSHIP POP E VIDEOGIOCHI. PARTE PRIMA
138- LEADERSHIP POP E VIDEOGIOCHI. PARTE SECONDA
139- LA CONSULENZA NELL’ERA DELL’AI AGENT
140- INNOVAZIONE POP NEL RETAIL
141- LA NUOVA ERA MEDIATICA
142- BRAND FORWARD!
143- OPINION PIECE DI ALESSANDRA LAZZAZARA E STEFANO ZA
144- LA FORZA DELLA GENTILEZZA. PARTE PRIMA
145- LA FORZA DELLA GENTILEZZA. PARTE SECONDA
146 – NELLO BARILE E LE IMMAGINI DI UN MONDO IN FRANTUMI
147 – INNOVARE NELLA PA
148 – OPINION PIECE DI SALVATORE RICCO
149 – OPINION PIECE DI LUCA MAGNI
150 – INNOVAZIONE POP. DISTANT WRITING E SOCIAL READING
151 – L’ADOZIONE LENTA DELLA AI IN AZIENDA – 1
152 – OPINION PIECE DI CRISTIANO GHIRINGHELLI, RAOUL NACAMULLI, LUCA QUARATINO
153 – OPINION PIECE DI MICHELA MATARAZZO
154 – OPINION PIECE DI MARIA FRANCESCA IANNONE
155– OPINION PIECE DI MOIRA BUZZOLANI
156– OPINION PIECE DI LUCA GUERRASIO
157 – IMPARARE LA LEADERSHIP DALLE SERIE TV
158 – DA HAMLET A E: GENEALOGIA DEL DISTANT WRITING COLLABORATIVO
159 – OPINION PIECE DI PAOLO BORTOLOTTI
160 – DAL DISTANT WRITING AL SOCIAL READING: TRE LIVELLI DI INTELLIGENZA COLLABORATIVA
161 – L’ADOZIONE LENTA DELLA AI IN AZIENDA – 2
162 – DALL’AZIENDA NARRATIVA ALLA COMMUNITY INTERPRETANTE
163 – OPINION PIECE DI MARCO GRECO
164 – LE AI CHE RECITANO LA COSCIENZA