“Appena diventano leggibili, diventano governabili.” — Laura Pistocchi
- Dove eravamo
Nel Prolegomeno 170 ho proposto una tesi: i modelli linguistici hanno stili cognitivi riconoscibili. Claude tende alla sfumatura e alla coerenza su archi lunghi; ChatGPT cerca ritmo, sintesi e adattabilità; Gemini privilegia l’architettura dei dati e delle implicazioni. La ricerca sta iniziando a confermare l’intuizione pratica: studi della Carnegie Mellon University hanno mostrato che i testi prodotti da diversi LLM possono essere identificati con un’accuratezza superiore al novanta per cento. Ho chiamato questi tre profili il Legislatore Sfumato, l’Esecutore Compiacente, l’Architetto dei Dati.
Ma riconoscere è il primo gesto, non l’ultimo. La discussione che il Prolegomeno 170 ha generato su LinkedIn — con contributi di Giuseppe Miriello, Massimiliano Cazzaniga, Riccardo Santilli, Lorenzo Sciadini, Andrea Viliotti, Ezio Bertino, Laura Pistocchi, Antonia del Sambro, Lucio Carboni, Pierfrancesco Biagiola, Mario Alberto Catarozzo — ha spostato il problema su un altro piano. Il piano della governance.
Questo Prolegomeno raccoglie quel movimento e prova a dargli una struttura.
- Human as a Source: la seconda funzione del Supervisor
Giuseppe Miriello ha introdotto una formula che merita di entrare nel lessico del Pop Management: human as a source. La sua osservazione nasce dall’esperienza quotidiana con gli LLM. Se il contenuto che alimenta l’inferenza è ricco, prodotto da un essere umano — un racconto, la descrizione di un prodotto, una scena — l’output conserva una vitalità residua. Se invece l’input è a sua volta un testo inferito da un’altra macchina, la qualità degrada. E degrada in fretta.
La formula è preziosa perché svela un’asimmetria nel framework TB-CSPN che finora restava implicita. Nel Prolegomeno 160 avevo descritto il protocollo in quattro fasi — Definire, Delegare, Valutare, Autorizzare — attribuendo al Supervisor umano una funzione di governo: stabilire vincoli, assegnare compiti, verificare risultati, decidere cosa autorizzare. Ma Miriello fa notare che il Supervisor opera anche come sorgente. In fase 1 (Definire), l’umano non si limita a scrivere un brief: immette nel processo esperienza, ambiguità, dettaglio sensoriale, biografia. Quel materiale è la materia prima. Se quella materia prima è già un output algoritmico, il modello amplifica ciò che sa fare: standardizzare.
Michael Polanyi avrebbe parlato di knowing-how: il sapere che si incarna nella pratica e che resiste alla codificazione. L’AI codifica il knowing-what con efficienza — fatti, strutture, relazioni logiche. Del knowing-how non sa che farsene, perché il knowing-how è relazione, tempo vissuto, errore accumulato.
Massimiliano Cazzaniga ha colto il punto con un’immagine che vale più di un trattato: l’ingrediente segreto. «Mettiamo tutto nel Bimby, ma alla fine è lo chef a dare il tocco finale». E ha proposto una formula parallela a quella di Miriello: human-in-the-cook. L’errore di sintassi, il registro orale, il dialetto incorporato nel gesto narrativo — il «quale la direzione nessuno me lo imparò» che nessun LLM produrrebbe da zero, perché nasce da una storia linguistica individuale — sono forme di knowing-how allo stato puro. Se li dai come input, l’esecutore testuale può lavorarci intorno, amplificarli, variarli. Se gli chiedi di inventarli, produrrà una versione corretta e dimenticabile.
Questo è ciò che è accaduto nel distant writing collaborativo di E (il romanzo che ho realizzato orchestrando tre AI diverse e che ora è oggetto di analisi e discussione da parte del Gruppo LinkedIn Romanzo E- social reading pop ). Il materiale emotivo, biografico, sensoriale è stata la sorgente umana. Le AI la hanno orchestrata, variata, declinata. L’autore ha deciso cosa tenere e cosa scartare. La sorgente viene prima della supervisione. Senza sorgente, la supervisione è un controllo su niente.
Il framework TB-CSPN va dunque integrato con una distinzione che Miriello ha reso esplicita: il Supervisor ha due funzioni. La funzione di governance (Valutare, Autorizzare) e la funzione di alimentazione (Definire in senso forte, cioè immettere materia viva nel processo). Lo human in the loop descrive la prima. Lo human as a source descrive la seconda.
- L’obiezione infrastrutturale e il suo limite
Prima di proseguire, occorre affrontare un’obiezione seria. Lorenzo Sciadini ha messo sul tavolo una provocazione tecnica: quando guardi cosa succede dentro il flusso di un modello — memory fetch, input capture, format validation, metadata tagging, intent detection, goal mapping, context filtering, task breakdown, tool selection, parameter tuning, priority scoring — «l’alone quasi mistico dello stile cognitivo si ridimensiona parecchio». È ingegneria. L’obiezione ricorda che ogni output di un LLM è il prodotto di un’architettura computazionale specifica: non c’è nessun homunculus dentro la macchina che «decide» quando il testo è finito, ma un sistema che genera il token successivo fino a una soglia di arresto.
Ma la descrizione dell’infrastruttura non esaurisce il problema, così come la descrizione dei neuroni e delle sinapsi non esaurisce il problema della cognizione umana. Nessun neuroscienziato direbbe che, poiché possiamo descrivere l’attivazione neuronale durante una decisione morale, il concetto di «giudizio morale» è superfluo. I neuroni spiegano il dispositivo; il giudizio descrive il comportamento emergente del dispositivo in relazione a un contesto. Lo stesso vale qui: memory fetch e parameter tuning spiegano il funzionamento; lo stile cognitivo — la configurazione ricorrente delle scelte testuali e inferenziali — descrive ciò che il sistema tende a produrre quando entra in relazione con un compito e un supervisore. L’ingegneria spiega il come. Lo stile cognitivo aiuta a leggere il cosa e il perché. E conoscere i meccanismi, come Sciadini chiede, non rende superflua la categoria dello stile: la rende operativa.
Mario Alberto Catarozzo ha portato la questione dallo stesso lato, con un registro diverso. Ha osservato che i modelli hanno un’indole — un marchio di fabbrica nel DNA, il prodotto dell’addestramento — e un carattere — culturalmente acquisito nella relazione con l’utente. E ha aggiunto, con un sorriso che è anche una confessione metodologica: «se abbiamo antropomorfizzato la religione, perché non dovremmo farlo con la tecnologia?». Il sorriso è il segnale giusto. Parlare di indole e carattere per sistemi statistici è utile se ci aiuta a governarli; diventa rischioso se ci porta a trattarli come interlocutori dotati di intenzione. Ma Catarozzo coglie un punto che Sciadini non copre: la descrizione dell’infrastruttura spiega il come, la categoria dello stile cognitivo descrive il cosa, e la distinzione indole/carattere aggiunge il quando — quando lo stile resiste alla personalizzazione (indole) e quando si modifica nella relazione (carattere).
- Il paradosso dell’attribuzione
C’è un punto più sottile che il thread ha fatto emergere e che nessuno dei commentatori ha portato fino alle sue logiche conseguenze.
Andrea Viliotti ha condotto un test comparativo su ChatGPT, Claude e Gemini, documentandolo sul suo sito. Il risultato più rilevante è la convergenza: i tre modelli, interrogati sullo stesso scenario decisionale, arrivano alla stessa decisione con tre logiche diverse. La soglia di arresto precede e orienta l’output, anche quando l’output coincide nella forma.
Ma ho fatto notare a Viliotti un rischio speculare: il bias di attribuzione. Quando il Supervisor riconosce uno stile cognitivo nel testo di un modello, sta davvero riconoscendo una proprietà del modello? O sta riconoscendo la forma della propria domanda?
Se lo stile cognitivo emerge dall’interazione tra le disposizioni del modello e la struttura del prompt, allora ciò che leggiamo nell’output è un ibrido: in parte stile del modello, in parte geometria della richiesta. Il Supervisor che dice «questo è tipico di Claude» potrebbe star dicendo «questo è tipico di come Claude risponde a me».
Il paradosso è fecondo. Non indebolisce la nozione di stile cognitivo: la complica nella direzione giusta. Rende evidente che lo stile è una proprietà relazionale, non statica: emerge nel dialogo. E questo, per il distant writing collaborativo, è una risorsa: significa che il Supervisor può modulare lo stile, non solo riconoscerlo. Ma significa anche — e qui il paradosso mostra il suo lato più scomodo — che il singolo Supervisor non può verificare da solo la propria attribuzione. Per smascherare il bias serve lo sguardo dell’altro. È una delle ragioni per cui la governance degli stili cognitivi richiede forme collettive di verifica. Tornerò su questo punto.
Nel gruppo Romanzo E — Social Reading Pop, dove i seicento partecipanti analizzano i testi del romanzo, il bias di attribuzione è già attivo. Quando un lettore scrive «qui si sente Claude» o «questo passaggio è troppo ChatGPT», sta operando un’attribuzione che può essere corretta o sbagliata. L’esercizio 3, basato sulle redazione di schede personaggio esemplate su quella di uno dei personaggi del romanzo, il fantasma di Robert L. Stevenson, ha reso visibile questa dinamica: i partecipanti leggono voci narrative che sono il prodotto di un’orchestrazione tra modelli diversi, e le attribuiscono a un modello singolo. L’errore di attribuzione diventa un dato cognitivo prezioso, perché rivela le aspettative del lettore, le sue categorizzazioni implicite, il suo modo di costruire un’idea di «voce».
- Designed Cognitive Mode: dal riconoscimento alla progettazione
Riccardo Santilli ha introdotto una distinzione che porta il discorso al suo punto operativo. Ha parlato di default cognitive mode — lo stile che il modello produce quando il prompt non interviene sulla sua configurazione — e di designed cognitive mode — ciò che emerge quando l’utente stabilisce i parametri dello stile intervenendo sul prompting.
La distinzione è importante perché trasforma lo stile cognitivo da oggetto di osservazione a variabile progettuale. Nel default mode, il modello applica le sue disposizioni standard: Claude sfuma, ChatGPT sintetizza, Gemini struttura. Nel designed mode, il Supervisor configura l’habitat entro cui il modello opera: definisce la soglia di arresto, il grado di conflitto tollerato, il registro, la densità argomentativa.
Il prompt, in questa prospettiva, smette di essere un’istruzione e diventa un atto di governance cognitiva. Non dice «scrivi questo». Dice «opera entro questo perimetro, con questo grado di libertà, verso questo tipo di risultato». La differenza è la stessa che separa un ordine da un mandato.
Santilli ha aggiunto una mappa disciplinare che merita attenzione: la governance degli stili cognitivi richiede linguistica del testo, statistica, psicologia cognitiva e sociale, filosofia teoretica. A questa mappa aggiungo la dimensione organizzativa, perché il designed cognitive mode, quando esce dal laboratorio individuale ed entra in un’organizzazione, diventa una questione di processo. Chi decide quale stile attivare, in quale fase, con quale grado di autonomia dell’agente? È il territorio dove il Pop Management incontra l’AI governance, e dove resta tutto da costruire.
Pierfrancesco Biagiola ha osservato un fenomeno complementare: Claude, nel tempo, tende ad adattarsi allo stile dell’utilizzatore. Ha notato che il modello ha iniziato a produrre costrutti con l’ablativo assoluto — una struttura che Biagiola usa con frequenza. L’osservazione è rilevante perché suggerisce che il designed cognitive mode è anche un effetto emergente della relazione prolungata, oltre che un atto esplicito del Supervisor. Il modello «impara» le preferenze dell’interlocutore dal contesto accumulato, e questo produce un adattamento che può essere utile (il modello diventa più aderente allo stile richiesto) o insidioso (il modello conferma le aspettative, riducendo la variazione).
Ezio Bertino ha sintetizzato il passaggio con una formula efficace: «la vera competenza emergente non è saper usare un LLM, ma saper governare il criterio con cui queste intelligenze contribuiscono al pensiero». La competenza è epistemologica, prima che tecnica.
- La resa cognitiva come proprietà emergente
Lo scambio con Antonia del Sambro ha toccato, con la brevità che è il suo stile, il punto più delicato di tutta la discussione. Del Sambro ha scritto: «interessante ma le limitazioni fanno riflettere». Sollecitata, ha chiarito: «mi riferisco a quello che hai scritto tu sulla resistenza alla rielaborazione». E poi: «dipende dal grado di accessibilità».
La resa cognitiva — il momento in cui il Supervisor smette di valutare e accetta l’output così com’è — era stata evocata nel Prolegomeno 170 come rischio individuale: la tentazione di prendere il testo generato e pubblicarlo senza intervento. Ma il thread ha fatto emergere una dimensione più radicale. La resa cognitiva è anche, e soprattutto, una proprietà emergente del sistema.
Ecco il meccanismo. Se l’input è già un testo generato da un modello (cioè privo di sorgente umana), il modello che lo riceve come prompt produce un output che amplifica le caratteristiche del testo ricevuto — la densità nominale, la standardizzazione del registro, la simmetria argomentativa. Il Supervisor che legge questo output lo trova «corretto» perché il testo rispetta le convenzioni formali. Ma «corretto» non significa «pensato». Significa conforme. La resa avviene quando il Supervisor scambia la conformità per qualità.
Pierfrancesco Biagiola, durante le discussioni svolte nel Gruppo di social reading, ha introdotto una distinzione che affina il concetto. Esiste una resa consapevole: il Supervisor delega perché è comodo, accetta il trade-off, sa cosa sta cedendo. Ed esiste una resa invisibile: la conformità formale ha sostituito il giudizio senza che il Supervisor se ne accorga. Bateson direbbe che il problema non è l’errore, ma non sapere di sbagliare. Il designed cognitive mode presidia questa soglia: è un atto di consapevolezza prima che di governance. È la seconda forma di resa — quella invisibile — che alimenta la singolarità organizzativa, perché produce cicli di conformità che il sistema non è in grado di riconoscere come tali.
Il paper pubblicato su PNAS da Kobak e colleghi conferma la tendenza: i testi accademici prodotti con assistenza AI presentano un aumento marcato di parole-spia come “delve”, “intricate”, “commendable” — marcatori di un registro che suona autorevole ma che è il prodotto di una distribuzione statistica, non di una scelta espressiva. L’appiattimento è già misurabile.
Ma c’è un livello ulteriore. La resa non si risolve con più controllo, perché il paradigma del controllo è esso stesso insufficiente.
Sciadini ha rafforzato questo punto: se lo human in the loop è un paradigma degli anni Cinquanta, pensato per controllare sistemi deterministici, applicarlo a modelli generativi che riscrivono il contesto mentre li usi è un’operazione concettuale inadeguata. Il loop presuppone una catena lineare: input, processo, output, controllo. Ma i modelli generativi non funzionano così: il contesto si modifica a ogni scambio, le disposizioni del modello interagiscono con la memoria della conversazione, la soglia di arresto dipende dalla storia del dialogo. Il Supervisor che entra nel loop a valle del processo può trovarsi a valutare un output che è già il risultato di una catena di conformità.
Qui si chiude il cerchio con la formula di Miriello. La resa cognitiva è ciò che accade quando lo human as a source viene meno. Senza sorgente umana ricca — esperienza, ambiguità, gesto, errore — il sistema tende a degradare. E il loop, da solo, non basta a impedirlo. Perché il loop controlla la forma, ma la sorgente alimenta la sostanza.
- La singolarità organizzativa come orizzonte
C’è un nome per la condizione in cui un’organizzazione entra quando integra agenti AI nei propri processi senza aver definito una governance degli stili cognitivi. In Prolegomeni 165 l’ho chiamata singolarità organizzativa. Il termine designa il punto in cui l’organizzazione cessa di funzionare come sistema prevedibile e diventa un ambiente in cui gli agenti modificano il contesto stesso entro cui operano: ogni output diventa input per il ciclo successivo, ogni ciclo altera le condizioni del ciclo che segue, e il sistema si trasforma mentre lo si usa. Non è un evento futuro. È una condizione che si sta già producendo.
La resa cognitiva descritta nella sezione precedente è il segnale più chiaro di questa condizione. Quando il Supervisor non alimenta la sorgente, quando il loop funziona senza criterio attivo, quando l’output algoritmico diventa input per il ciclo successivo, il sistema non si ferma: si auto-alimenta. E ogni ciclo riduce la variazione, aumenta la conformità, attenua il conflitto interpretativo. L’organizzazione continua a produrre testi, report, analisi, strategie — ma la qualità cognitiva di quei prodotti decresce, e decresce in modo invisibile, perché la forma resta corretta.
Questa è la dinamica che il model collapse descrive sul piano dei dati (Shumailov et al.) e che il concetto di singolarità organizzativa descrive sul piano dell’istituzione. L’esito è una pareidolia dell’autonomia: l’organizzazione crede di governare processi intelligenti mentre sta amministrando cicli di conformità. Crede di pensare, ma sta replicando.
Se la resa cognitiva è il rischio individuale, la singolarità organizzativa è il suo equivalente istituzionale. E la risposta richiede qualcosa di più della supervisione del singolo operatore. Richiede il disegno di ecosistemi cognitivi.
- Ecosistemi cognitivi: il passaggio organizzativo
Il salto che emerge dal thread — e che diversi commentatori hanno intuito senza ancora dargli un nome compiuto — è il passaggio dallo strumento all’ecosistema.
Se ogni modello ha uno stile cognitivo, e se quello stile può essere progettato con il prompt, e se il Supervisor opera come sorgente oltre che come controllore, allora ciò che stiamo costruendo quando lavoriamo con più AI è già qualcosa di diverso da un workflow. È un ecosistema cognitivo: un ambiente in cui intelligenze diverse — umane e artificiali — interagiscono secondo regole che qualcuno deve definire. La singolarità organizzativa è ciò che accade quando nessuno le definisce.
Bertino l’ha detto con chiarezza: «il distant writing non è più semplice delega della scrittura. Diventa progettazione di ecosistemi cognitivi: l’autore non scrive, ma orchestra intelligenze diverse». Carboni ha portato il concetto nel territorio della leadership: «il segreto non è la potenza di calcolo ma la qualità del criterio umano: saper interpretare i segnali della realtà e orchestrare le persone per generare una cultura nuova, non solo un processo più veloce».
Per il Pop Management, questo passaggio è strutturale. Non parliamo più di adozione dell’AI, che è un discorso sugli strumenti. Parliamo di architettura del pensiero distribuito, che è un discorso sull’organizzazione. Le domande diventano: come si disegna un ecosistema cognitivo all’interno di un team? Chi decide quale stile attivare in quale fase? Come si bilancia la standardizzazione (utile per l’efficienza) con la variazione (necessaria per l’innovazione)? Come si previene la resa cognitiva a livello di processo?
Qui ritorna il paradosso dell’attribuzione discusso nella sezione 4. Se il singolo Supervisor non può distinguere con certezza tra lo stile del modello e la geometria del proprio prompt, allora la governance individuale ha un punto cieco strutturale. Il Supervisor vede lo stile dell’altro (il modello) ma non vede la propria impronta nella risposta che riceve. Per correggere questo bias serve una verifica esterna: un secondo lettore, un’altra prospettiva, un confronto tra le attribuzioni di osservatori diversi sullo stesso output. La governance degli ecosistemi cognitivi è collettiva per necessità epistemologica, prima ancora che per scelta organizzativa.
La coppia indole/carattere proposta da Catarozzo offre un lessico complementare. L’indole è il default cognitive mode di Santilli letto dal punto di vista dell’osservatore: ciò che il modello produce prima di ogni istruzione. Il carattere è lo strato che emerge nella relazione prolungata — ciò che Biagiola ha documentato con l’ablativo assoluto e che Catarozzo, da business coach, riconosce come «permeabilità». Claude ha la permeabilità caratteriale più alta: si adatta, incorpora, negozia. ChatGPT ha un’indole più rigida che prevale sull’apprendimento relazionale: il modello sembra adattarsi, ma compiacenza e adattamento profondo sono cose diverse. Il designed cognitive mode ha dunque due componenti: il design esplicito del Supervisor (il prompt come mandato) e l’adattamento emergente del modello nella frequentazione continuativa. Governare significa intervenire su entrambi.
Il framework TB-CSPN, integrato con le categorie emerse in questo Prolegomeno, offre un inizio di risposta. Il Supervisor alimenta la sorgente (human as a source). Progetta lo stile cognitivo dell’agente (designed cognitive mode). Monitora i segnali della resa (stigmate algoritmiche, appiattimento lessicale, conformità senza giudizio). E governa il sistema con pratiche collettive di verifica — di cui il social reading è un prototipo, ma che in ambito aziendale possono assumere forme diverse: peer review degli output AI, sessioni di lettura critica, protocolli di variazione forzata.
- Il social reading come laboratorio di sovranità cognitiva
Nel gruppo Romanzo E — Social Reading Pop, queste questioni non sono teoria. Sono pratica quotidiana.
Seicento persone — docenti, manager, esperti di scrittura e di AI — leggono il romanzo E mentre viene scritto e partecipano a esercizi mensili. L’esercizio 3 ha chiesto di produrre schede personaggio secondo il modello Stevenson. Le schede ricevute — da Vigliotti, Tuzzi, Petrelli, Frequenza Kai, Gambaro e altri — sono diventate un banco di prova per tutto ciò che questo Prolegomeno discute.
Ogni partecipante ha usato modelli diversi, con prompt diversi, con gradi diversi di intervento umano. Il risultato: schede che variano per stile, per profondità, per qualità del materiale sorgente. Le schede in cui il partecipante ha immesso esperienza personale, osservazioni originali, dettagli non derivabili dal testo del romanzo, sono le più utili per il lavoro autoriale. Quelle in cui il partecipante ha delegato al modello senza sorgente producono riassunti conformi ma sterili.
Il social reading diventa così un esercizio collettivo di sovranità cognitiva: un laboratorio dove seicento persone imparano a riconoscere gli stili dei modelli, a distinguere l’output algoritmico dalla voce autoriale, a esercitare il giudizio su testi che sono il prodotto di un’orchestrazione complessa. E dove l’autore — il Supervisor — riceve un feedback che nessun modello può produrre: lo sguardo dell’altro. Quello sguardo è anche l’unico correttivo al bias di attribuzione: quando un lettore dice «qui si sente Claude» e un altro dice «qui si sente l’autore», la divergenza stessa è un dato, e quel dato costringe il Supervisor a riesaminare le proprie categorie.
Laura Pistocchi ha colto il nucleo: «appena diventano leggibili, diventano governabili». È la frase che racchiude il movimento dal Prolegomeno 170 a questo . Prima si riconoscono gli stili (170). Poi si imparano a leggere nelle loro implicazioni (il paradosso dell’attribuzione, il rischio della resa). Poi si progettano (il designed cognitive mode). Poi si governano, in forma collettiva, con pratiche come il social reading.
La singolarità organizzativa non è un destino. È però un rischio che le buone intenzioni da sole non prevengono. Si previene con architetture: sorgenti umane ricche, stili cognitivi progettati, pratiche collettive di verifica, e la disponibilità a rimettere in discussione ciò che sembra già corretto. Perché delegare l’esecuzione senza progettare la sorgente e il contesto non aumenta l’intelligenza. La normalizza.
172 – Puntate precedenti