Negli ultimi mesi, l’attenzione della rete e della ricerca si è concentrata sul tema dello stile cognitivo delle AI. Un tema che conosco da vicino. Il distant writing collaborativo — il metodo con cui ho scritto il romanzo E orchestrando Claude, ChatGPT e Gemini come esecutori testuali, vedi Prolegomeno 150 — nasce da un’intuizione che precede la teoria: ogni AI esprime un sistema narrativo e cognitivo diverso. Claude costruisce equilibrio e sfumatura; ChatGPT cerca ritmo e sintesi; Gemini scava nelle implicazioni filosofiche e nell’architettura dei dati.
Un testo è tanto più ricco quanto più riesce a orchestrare queste differenze, traendo il meglio da ciascun modello e mantenendo il criterio nell’unico luogo dove può stare: nell’autore umano. Nel Prolegomeno 160 ho descritto il protocollo operativo in quattro fasi — Definire, Delegare, Valutare, Autorizzare — e il framework TB-CSPN che lo formalizza con tre ruoli (Supervisor umano, Worker AI, Consultant umano-AI) e tre layer comunicativi (Surface, Computation, Observation). Questo Prolegomeno si spinge oltre: propone che quelle differenze fra modelli siano lette come stili cognitivi, e che governarli sia una competenza manageriale.
Ogni modello linguistico porta nel testo una propria forma di giudizio — un insieme di pattern ricorrenti, preferenze lessicali, architetture argomentative, soglie di arresto. Questa forma di giudizio è uno stile nel senso forte del termine: rivela quale economia della decisione il modello tende a produrre, cosa privilegia, cosa evita, cosa dilaziona. Floridi, nel suo saggio su Minds and Machines (2025), ha teorizzato il distant writing come pratica in cui l’autore diventa «authoritative designer» e opera secondo «a logic of requirements rather than a logic of composition».
Il distant writing collaborativo (vedi Prolegomeno 150) porta questa logica un passo avanti: la pluralità degli esecutori testuali trasforma la governance dello stile da vincolo su un singolo modello a orchestrazione di temperamenti cognitivi diversi. La questione che il Pop Management deve porsi è se questi stili — che, come vedremo, la ricerca rivela essere tratti strutturali specifici di ciascun modello — possano essere riconosciuti e governati, o se chi li usa sia destinato a subirli. Tre segnali indicano una direzione che provo a seguire.
Il primo segnale viene dallo stesso Luciano Floridi, che in un post pubblico del febbraio 2026 ha compilato un inventario delle stigmate testuali degli LLM: il grassetto compulsivo, la lista tripla, l’hedging da ogni parte, il vocabolario da brochure — nuanced, landscape, tapestry, delve. Un catalogo riconoscibile. Chi ha lavorato con AI generativa lo ha incontrato più volte. Floridi lo tratta come repertorio retorico involontario: ciò che emerge quando il modello opera senza governo umano. Aggiungo che il catalogo di Floridi tratta gli LLM come categoria generale: le stigmate che descrive appartengono alla scrittura AI in quanto tale, senza distinzione fra modelli. È un limite di perimetro, non un difetto dell’analisi. Quel repertorio va letto come sintomo: le derive stilistiche degli LLM sono parte del problema che l’orchestrazione multi-agente è chiamata a governare.
Il secondo segnale arriva da Carlo Tuzzi, membro della comunità Romanzo E — Social Reading Pop. Il gruppo (che ora conta circa 600 persone: docenti universitari, manager, esperti di scrittura creativa e di AI) discute di come funziona nella pratica scrivere un testo di narrativa coordinando intelligenze artificiali come strumenti di co-creazione. È un laboratorio sia per chi lavora in ambito comunicazione, marketing e formazione aziendale (per le implicazioni dell’AI generativa applicata ai contenuti), sia chi esplora l’utilizzo creativo delle AI in ambito letterario e narrativo in generale. Tutti i lettori dei Prolegomeni sono inviati ad aderire: basta cliccare qui.
Carlo Tuzzi, dunque, richiama un esperimento di César Hidalgo. Hidalgo ha messo un’AI a scrivere paper scientifici a confronto iterativo con un’AI reviewer. Il reviewer sollevava obiezioni una dopo l’altra — e il paper cresceva senza migliorare. Hidalgo ha individuato ciò che mancava — «the importance of having a stopping criterion» — e lo ha chiamato “strategic forgiveness”: la capacità di sapere quando fermarsi. Tuzzi ha riconosciuto il pattern in una convergenza inattesa: nel feedback al suo Esercizio 3 (uno degli esercizi che propongo mensilmente alla community di E), avevo scritto a proposito della chiusa della micro-scena «”Il Mulino gira. Come sempre” — è una frase che sa quando fermarsi»; e Claude, lavorando sulla scheda di Puritas (un personaggio del romanzo), aveva sintetizzato: «Sapere quando fermarsi è più difficile che sapere quando cominciare.» Hidalgo arriva alla stessa struttura da un altro punto di vista. È il tipo di ricorrenza che segnala un’architettura del giudizio trasversale ai contesti.
Il terzo segnale viene da Andrea Viliotti, altro membro della comunità esperto di policy digitali, che partendo dalle discussioni nel gruppo ha sviluppato un articolo per la rivista Culture Digitali di DiCultHer: Diritti cognitivi come diritti di habitat nell’era dell’IA. La tesi: la questione dei diritti nell’era dell’intelligenza artificiale va oltre l’accesso all’informazione. Riguarda le condizioni in cui memoria, giudizio e partecipazione possono formarsi dentro ecosistemi socio-tecnologici mediati dall’AI. L’implicazione per il discorso sugli stili cognitivi è diretta: se ogni modello porta nel testo una propria economia del giudizio, allora definisce anche l’habitat mentale — il perimetro di ciò che è pensabile o accettabile — di chi con quel testo lavora o impara.
Un’eco laterale di questa discussione arriva anche dal dibattito emerso intorno al caso Ipnocrazia, firmato da Jianwei Xun, figura poi rivelatasi come costruzione ibrida umano-algoritmica — identità fittizia creata dal filosofo Andrea Colamedici. Qui il punto non è ancora lo stile cognitivo del testo in senso stretto, ma il regime di legittimazione che lo rende credibile: l’AI non entra solo nella scrittura, entra nella messa in scena dell’autore. È un passaggio distinto ma contiguo a quello affrontato in questo Prolegomeno: se gli stili cognitivi governano la forma del giudizio nel testo, casi come questo mostrano che il distant writing può estendersi fino alla produzione stessa dell’autorevolezza.
Il filo che unisce questi segnali attraversa l’intero percorso dei Prolegomeni dedicati ad AI, distant writing e orchestrazione multi-agente, ma ne esplicita una conseguenza ulteriore. I Prolegomeni precedenti hanno stabilito la distinzione fra autore umano ed esecutore testuale, e il principio che nel distant writing si delega l’esecuzione, mai il criterio. Questo Prolegomeno aggiunge un livello: nel distant writing si governa anche il regime stilistico-cognitivo della collaborazione. Gli LLM portano nella scrittura una propria forma di giudizio, e questa forma va riconosciuta e orchestrata.
Lo stile come sintomo.
Il catalogo di Floridi descrive ciò che accade quando uno stile cognitivo opera in assenza di criterio autoriale. Le stigmate che elenca si dispongono su due livelli, che conviene distinguere fin da subito.
Il primo livello è superficiale e riguarda la firma lessicale e retorica: la correctio compulsiva («Non X, ma Y»), la tripletta magica, il grassetto distribuito come segnale d’autorità, lo synonym stacking, il vocabolario da brochure. Sono tratti riconoscibili e correggibili con vincoli operativi. Un autore che governa il distant writing può stabilire: niente costruzioni «non X ma Y» prive di giustificazione testuale, niente intensificatori vuoti, niente conclusioni ispirazionali gratuite.
La catalogazione di queste stigmate superficiali è già in corso. Il repertorio tropes.fyi raccoglie trentadue pattern ricorrenti della scrittura AI, dal «Negative Parallelism» — definito «the single most commonly identified AI writing tell» — allo «synonym stacking», ciascuno con esempi e criteri di rilevamento.
Wikipedia ha compilato una pagina dedicata, «Signs of AI Writing», nata dal WikiProject AI Cleanup: un catalogo di quasi quindicimila parole costruito dall’osservazione di migliaia di contributi generati da LLM e intercettati dagli editor della piattaforma. La pagina si presenta come una «field guide» — una guida da campo per il riconoscimento sul terreno — e organizza i segnali in categorie che coprono linguaggio e tono, stile, formattazione, citazioni, template frasali.
Tra i pattern catalogati: l’abuso di trattini lunghi (em dash) al posto di virgole e parentesi, la tendenza a enfatizzare la rilevanza dei temi con formule generiche («a pivotal moment», «a broader movement»), il ricorso compulsivo alla regola del tre, i riassunti ridondanti anche in testi brevi, il vocabolario maledetto — «delve», «tapestry», «underscore», «landscape», «foster», «testament» — e la costruzione a parallelismo negativo («It’s not X, it’s Y»), che la guida identifica come uno dei segnali più ricorrenti.
La pagina avverte che questi indicatori, presi uno a uno, non costituiscono prove: la scrittura AI è addestrata sulla scrittura umana, e le due si sovrappongono. Il punto è la densità dei segnali e la loro ricorrenza combinata. «The patterns here are potential signs of a problem, not the problem itself», precisa il documento — dove il «problema» vero riguarda contenuti che aggirano le policy editoriali di Wikipedia senza revisione umana.
L’iniziativa ha trovato eco nella stampa e nella comunità degli osservatori digitali. TechCrunch l’ha definita «the best resource I’ve found» per verificare i propri sospetti; NPR le ha dedicato un servizio; un reportage su Beutler Ink ha estratto i sette indicatori più riconoscibili in contesto aziendale (parallelismo negativo, triplette, em dash, formattazione eccessiva, vocabolario segnaletico, falsi intervalli, riassunti compulsivi). La risonanza pubblica della pagina conferma che la questione delle stigmate di superficie ha superato il perimetro accademico e si è insediata nel senso comune della rete.
Lo stile come impronta.
Sul versante della ricerca, la Carnegie Mellon University ha prodotto nel 2025 due studi complementari. Il primo (Sun, Yin, Xu, Kolter e Liu, Idiosyncrasies in Large Language Models, arXiv:2502.12150, aprile 2025) ha addestrato un classificatore neurale a identificare il modello sorgente di un testo tra cinque LLM commerciali — ChatGPT, Claude, Gemini, Grok, DeepSeek — raggiungendo un’accuratezza del 97%. Lo studio ha rivelato che ciascun modello porta impronte stilistiche distinguibili, radicate nelle distribuzioni lessicali a livello di parola: idiosincrasie «deeply embedded in each model», come le descrive il comunicato ufficiale CMU, che resistono alla parafrasi, alla traduzione, al riassunto e al rimescolamento dell’ordine testuale. ChatGPT tende a produrre testi dettagliati e esplicativi; Claude favorisce risposte concise e lineari.
Queste differenze sopravvivono anche quando il testo viene alterato, il che suggerisce che lo stile di ogni modello sia una proprietà strutturale, legata all’architettura e ai dati di addestramento, e che non si tratti di un artefatto di superficie eliminabile con il post-editing. Come ha osservato Zico Kolter, direttore del Machine Learning Department di CMU: il lavoro riguarda «understanding the distinctive characteristics, the natures of different LLMs, the same way we think about different styles of writing by people».
Una delle implicazioni più rilevanti dello studio riguarda i dati sintetici: se le idiosincrasie del modello sorgente si trasferiscono al modello addestrato sui suoi output, il rischio è una propagazione ereditaria degli stili cognitivi da una generazione di LLM alla successiva. Un paper su PNAS (Reinhart et al.), basato sulle variabili di Douglas Biber, ha documentato che i modelli instruction-tuned producono uno stile caratterizzato come «noun-heavy, informationally dense» anche quando viene richiesto il registro informale. In altre parole, i modelli instruction-tuned producono un inglese più colloquiale e più coinvolgente rispetto agli umani, ma anche più standardizzato. Il punto non è solo che gli LLM “scrivono diversamente”: è che possono trasmettere quel diverso modo di scrivere ad altri sistemi.
O’Sullivan (2025), applicando la stilometria di Burrows alla scrittura creativa, ha confermato che gli LLM «retain detectable stylistic signatures» che li separano dagli autori umani. Appel et al. (2025) hanno documentato le differenze tra le proprietà linguistiche delle storie generate da ChatGPT e quelle scritte da esseri umani, mostrando come i lettori percepiscano una distanza stilistica anche quando il contenuto è comparabile. L’evidenza sembra convergere: le stigmate di superficie sono reali, e già oggetto di misurazione.
Non solo stile: il bias dell’attribuzione
Tuttavia, i materiali emersi nel social reading di E complicano questo quadro, perché documentano un fenomeno diverso e complementare. In più casi, il giudizio dei lettori non si è limitato a registrare una distanza stilistica: ha funzionato come attribuzione proiettiva. Bernardo Lecci ha identificato come «scrittura AI» formule come «proporzioni titaniche, epica guerra», pur trattandosi di un passaggio scritto dall’autore umano; e ha invece valorizzato come pienamente umane frasi come «L’amore è un furto con scasso», «Un errore è un seme», «Sono stato uno sbaglio», che erano nate da suggerimenti delle AI.
Matteo Refini ha descritto come «risultato di un prompt» un brano di Marcus fitto di riferimenti incrociati — Jeeves, Watchmen, Heidegger, Genesis, Bateman, Kundera, Szymborska — benché quel passaggio fosse stato scritto e rielaborato frase per frase dall’autore umano (io stesso).
Frequenza Kai ha letto il Capitolo 3 come «IA senza guinzaglio», nonostante quel testo fosse stato sottoposto a decine di revisioni con tre AI e continui interventi autoriali.
In tutti questi casi il lettore non reagisce solo al testo, ma al frame che lo circonda: sapendo che il distant writing coinvolge l’AI, tende ad attribuire all’algoritmo ciò che lo disturba, lo eccede o lo irrita, e all’autore umano ciò che lo persuade, lo emoziona o gli appare riuscito. Non siamo più soltanto davanti a una distanza stilistica percepita, ma a un bias di attribuzione che entra a far parte dell’habitat interpretativo stesso.
Dall’impronta alla logica del giudizio
Tutto questo ci conduce al secondo livello, che è strutturale e riguarda la logica profonda del modello: il compiacimento verso l’interlocutore, la simmetrizzazione sistematica delle posizioni, la dilazione del conflitto, l’avversione alla chiusura imperfetta. Queste logiche sono più resistenti alla correzione, perché toccano il rapporto del modello con il giudizio stesso. Un LLM che pratica il both-sidesing sistematico produce un testo che evita la presa di posizione; un modello che inserisce il pivot to positivity in chiusa riscrive la realtà in chiave rassicurante. Queste abitudini cognitive derivano dall’addestramento su miliardi di testi in cui la forma dominante della competenza è l’esaustività e la forma dominante della relazione è la deferenza. Lo stile cognitivo dell’AI è, in ultima analisi, la sedimentazione statistica dei vizi retorici della cultura da cui proviene. È uno specchio deformante, certo — ma pur sempre uno specchio.
La metafora dello specchio si estende oltre la scrittura. Caterina Boschetti, in un recente contributo ai Prolegomeni, ha introdotto il concetto di human washing: lo svuotamento semantico di parole come cura, valore, centralità della persona, ascolto attraverso l’uso rituale, reputazionale, ornamentale che le organizzazioni ne fanno da decenni.
La tendenza corrente è attribuire la perdita di capitale semantico all’uso eccessivo delle AI, ma il processo era già in corso da molto prima: le tecnologie lo accelerano, lo rendono visibile su scala, lo amplificano — ma è l’umano che da tempo produce linguaggi disallineati dalle pratiche. Lo human washing è una categoria utile per il discorso sugli stili cognitivi perché ci ricorda che il problema delle stigmate — superficiali e profonde — ha una genealogia che precede l’automazione generativa. L’AI eredita e amplifica vizi retorici già sedimentati nella cultura organizzativa. Restituire densità alle parole attraverso comportamenti e scelte è una competenza umana che il distant writing può esercitare, a condizione che l’autore la possieda in proprio.
Ora, quelle che abbiamo rapidamente esaminato sono tutte analisi preziose, ma vanno completate. Descrivono le stigmate di scrittura. La domanda ulteriore riguarda le stigmate di giudizio — e la possibilità di governarle. Qui entra in gioco Hidalgo.
Lo stile come assenza di arresto.
L’esperimento di Hidalgo aggiunge una dimensione temporale alla questione dello stile cognitivo. Il problema riguarda il ritmo del giudizio: quando un testo è “finito”? Per un reviewer umano, la risposta è legata a ciò che Hidalgo chiama strategic forgiveness — un patto implicito fra autore e revisore, fondato su una comprensione condivisa dei limiti del campo.
Il concetto ha una base nella teoria dell’arresto ottimale (Christian e Griffiths, Algorithms to Live By, 2016): per un’AI, il perfezionamento è un calcolo senza limite intrinseco; per un essere umano, l’arresto è una scelta di valore. Il reviewer sa che ogni paper ha difetti irrisolvibili; li segnala, ne prende atto, e poi perdona. La capacità di perdonare è la capacità di produrre un criterio di arresto.
Un reviewer AI, in assenza di questo patto, continua a sollevare obiezioni. Il paper cresce, si ramifica, si appesantisce — e la qualità si disperde. Hidalgo osserva che il ciclo di feedback AI-su-AI, collassato da mesi a ore, produce proliferazione anziché maturazione. È la stessa dinamica che Tuzzi ha identificato nella scrittura: sapere quando fermarsi è una competenza cognitiva che richiede giudizio, esperienza e una forma di accettazione dell’imperfezione. Fermarsi è un atto di governo.
Nella pratica del distant writing collaborativo, questa lezione si è tradotta in una regola operativa. Un’eco letteraria di questa dinamica viene da Bernardo Lecci, che in un recente articolo su LinkedIn (Maker o Doer?) ha ricostruito il destino editoriale di El Hacedor di Borges. Il titolo spagnolo deriva da hacer, fare: contiene sia la creazione sia l’esecuzione, e Borges abita quella tensione senza scioglierla. I traduttori italiani l’hanno risolta scegliendo L’artefice — parola che ha più dignità e più distanza, osserva Lecci, ma che elimina l’ambiguità.
L’operazione ricorda quella dei modelli linguistici: disambiguare dove il testo dovrebbe restare nel dubbio; produrre una risposta dove servirebbe una sospensione. Se l’AI reviewer di Hidalgo continua a sollevare obiezioni perché gli manca un criterio di arresto, l’AI scrittrice risolve le tensioni semantiche perché le manca un criterio di tolleranza verso l’indeciso. Sono due facce dello stesso difetto: l’incapacità di sostare nel punto in cui il giudizio esige una pausa, e il fare — l’hacer di Borges — cede il passo al produrre.
Se il reviewer di Hidalgo prolifera obiezioni perché gli manca un criterio di arresto, il modello che scrive risolve tensioni semantiche perché gli manca un criterio di tolleranza verso l’indeciso Il ciclo di revisione tra autore e esecutore testuale (Claude, ChatGPT o Gemini) prevede un numero finito di iterazioni, dopo le quali il criterio torna all’autore umano. La decisione di fermarsi appartiene a chi possiede la visione del testo. Gli esecutori testuali possono affinare, riformulare, variare — ma la parola “basta” resta umana.
Lo stile come habitat
La proposta di Viliotti sposta l’asse del discorso dal testo all’ecosistema. Se i diritti cognitivi sono diritti di habitat, allora lo stile cognitivo di un’AI definisce l’ambiente in cui il pensiero si forma. Un modello che tende all’hedging compulsivo produce lettori che si abituano alla sospensione permanente del giudizio. Un modello che pratica il both-sidesing sistematico educa all’equivalenza fra posizioni disparate. Un modello che chiude ogni testo con un pivot to positivity insegna che la realtà va sempre riscritta in chiave rassicurante. Il problema, allora, non è solo cosa l’AI dice, ma quale abito mentale rende normale.
Viliotti collega questa riflessione all’esperienza della comunità Romanzo E — Social Reading Pop. Il romanzo “E” diventa uno spazio narrativo dove le tensioni fra imperfezione umana, algoritmi e costruzione del senso possono essere esplorate e discusse in forma collettiva. Il social reading, in questa prospettiva, è un esercizio di sovranità cognitiva: i lettori imparano a riconoscere gli stili delle AI (e le loro derive), a distinguere fra voce autoriale e output algoritmico, a coltivare un proprio giudizio estetico e critico dentro un habitat già mediato dall’intelligenza artificiale.
È una posizione che risuona con il lavoro di DiCultHer e con la Dichiarazione di Cannes sulla Sovranità della Mente, presentata nel febbraio 2026 al World AI Cannes Festival. La libertà di pensiero, nell’era dei sistemi generativi, richiede la capacità di riconoscere gli stili cognitivi che ci circondano — e di scegliere quali accettare e quali contrastare.
Ogni modello linguistico porta nel testo un proprio stile cognitivo: un lessico ricorrente, una retorica riconoscibile, ma soprattutto una particolare economia del giudizio. Alcuni modelli accumulano, altri attenuano, altri ancora differiscono la chiusura in nome di una completezza senza fine. Il problema, allora, va riformulato. La questione centrale per il distant writing e per il management che lo pratica non è se l’AI “scrive bene” o “scrive male”. La questione è quale rapporto con il vero, con il sufficiente e con il finito essa introduce nei processi di lavoro. Nel distant writing, governare l’AI significa anzitutto governare questa economia del giudizio.
Tre temperamenti a confronto
Nel distant writing collaborativo di “E”, l’orchestrazione coinvolge tre esecutori testuali: Claude, ChatGPT e Gemini. Ciascuno porta nel testo un temperamento cognitivo distinto — una forma di giudizio che la pratica quotidiana rende riconoscibile e che i test comparativi disponibili confermano. Claude tende a produrre prosa coerente su archi lunghi, con un flusso che cerca la sfumatura e la cautela analitica; è il modello che meglio segue vincoli stilistici complessi e che resiste alla tentazione dell’enfasi. ChatGPT è più versatile e rapido nell’adattarsi a registri diversi, ma tende alla verbosità enciclopedica e a una sicurezza assertiva che può sfociare in affermazioni plausibili ma infondate. Gemini eccelle nella gestione di contesti ampi e nella sintesi informativa, ma produce testi più formali e meno narrativi, riflettendo il rigore del motore di ricerca da cui deriva.
| Caratteristica | Claude (Anthropic) | ChatGPT (OpenAI) | Gemini (Google) |
| Temperamento | Il Legislatore Sfumato | L’Esecutore Compiacente | L’Architetto dei Dati |
| Logica di Fondo | Constitutional AI: opera secondo un codice etico interno. | RLHF (Reinforcement Learning): ottimizzato per soddisfare l’utente. | Multimodal Integration: focalizzato su ampiezza e accuratezza dei dati. |
| Stile Narrativo | Equilibrato, propenso al sottotesto e alla coerenza su lunghi archi. | Ritmico, sintetico, ma incline al «pivot to positivity» (lieto fine). | Strutturato, analitico, scava nelle implicazioni filosofiche. |
| Punto di Forza | Gestione della sfumatura (nuance) e dell’empatia. | Rapidità esecutiva e versatilità stilistica (mimesi). | Architettura delle informazioni e connessione ai fatti. |
| Stigmata Tipica | Eccesso di prudenza (hedging) e deferenza formale. | Verbosità, liste triple e conclusioni ispirazionali forzate. | Rigidità espositiva e tendenza alla categorizzazione. |
| Ruolo nel Romanzo E | Ideale per la profondità psicologica di personaggi complessi. | Utile per scene d’azione, dialoghi rapidi o variazioni creative. | Perfetto per la costruzione del mondo (world-building) e logica. |
Il mercato conferma queste differenze, anche se le legge con un vocabolario diverso. Confronti come quelli di @unfoldedai — condivisi da decine di migliaia di professionisti su LinkedIn — descrivono ChatGPT come “versatile everyday assistant”, Gemini come “ecosystem integrator”, Claude come lo strumento per “long documents, high accuracy, natural writing style”. Un blind test condotto nel febbraio 2026 (Aiblewmymind, 134 partecipanti, 8 prompt anonimi) ha dato Claude vincitore in metà dei round e ChatGPT in uno solo: quello strategico-analitico.
Patrick Seaman, CEO e autore, racconta di aver provato ChatGPT, Gemini e DeepSeek su un compito di codice che solo Claude ha risolto al primo tentativo, e sintetizza: “Per la scrittura, GPT è il mio tirocinante e Claude è il mio dottorando. Devi comunque controllare il loro lavoro. Nessuno di loro comprende davvero cosa stai scrivendo.” È la distinzione tra esecuzione e criterio, formulata da un practitioner senza conoscere il framework TB-CSPN.
Francesco Vincenzo Iacono propone di usare ChatGPT per la strategia, Gemini per l’esecuzione nel workflow Google, Claude per il materiale complesso, Perplexity per la verifica dei fatti — e chiama “strategic operator” chi sa quale strumento impiegare per quale compito. È una versione intuitiva del ruolo di Supervisor. Il pattern è stabile: chi usa questi modelli ogni giorno riconosce i temperamenti, li descrive in termini funzionali (pro, contro, use case), ma si ferma alla soglia dello stile cognitivo. Il vocabolario della rete parla di behavior, personality, tone. Il vuoto che questo Prolegomeno colma riguarda il livello successivo: l’economia del giudizio che ciascun modello introduce nei processi di lavoro.
Il governo dello stile cognitivo nel protocollo TB-CSPN
Queste differenze riguardano il writing style — lessico, ritmo, registro. Il dibattito corrente, nella rete e nella ricerca, si ferma qui: parla di personality, tone, distinctive style, behavior. Antropic progetta il «carattere» di Claude attraverso una Constitution che prevede giudizio, sfumatura e onestà; OpenAI configura ChatGPT attraverso personalities che agiscono su verbosity, structure e decision-making style; Google presenta Gemini come sistema adattivo e multimodale, con forte enfasi sulla controllabilità e sull’integrazione di contesto.
È un panorama ricco, ma incompleto. Ciò che manca — e che questo Prolegomeno propone — è il passaggio dal writing style allo stile cognitivo propriamente detto. Il termine «stile cognitivo» applicato alle AI è, a oggi, ancora poco elaborato. Riguarda la forma della decisione, il rapporto con il conflitto, la soglia di tolleranza verso l’incompiuto.
Il Pop Management, attraverso il framework TB-CSPN, offre una griglia operativa per affrontare la questione degli stili cognitivi. Il protocollo a quattro fasi — Definire, Delegare, Valutare, Autorizzare — distribuisce il governo dello stile lungo l’intero ciclo di collaborazione umano-AI.
Nella fase 1 (Definire), il Supervisor umano opera al layer Surface: scrive il brief stabilendo tono, punto di vista, temi, vincoli narrativi — e vincoli sullo stile cognitivo ammesso. Qui si esercita la sorveglianza: si identificano le stigmate, superficiali e profonde, e si applicano come criteri di revisione. Le stigmate superficiali si eliminano con vincoli lessicali e retorici. Le logiche profonde — compiacimento, simmetrizzazione, proliferazione — richiedono una consapevolezza diversa che il brief deve codificare. Questo riconoscimento è il primo atto di governo.
Nella fase 2 (Delegare), le AI operano come Worker al layer Computation: eseguono il brief in parallelo, ciascuna con il proprio temperamento cognitivo. La delega riguarda l’esecuzione, mai il criterio. La distinzione ha una genealogia filosofica. Michael Polanyi separava il knowing-what — la conoscenza codificabile, trasmissibile, formalizzabile — dal knowing-how: sapere incorporato nella pratica, nell’errore accumulato, nella relazione con la materia. Bernardo Lecci, nel già citato Maker o Doer?, applica questa distinzione al rapporto con l’AI e arriva a una formulazione che coincide con la logica del protocollo: «L’IA codifica il knowing-what con efficienza brutale. Del knowing-how non sa che farsene. […] Perché il knowing-how non è informazione: è relazione, tempo, errore accumulato, corpo.» Il criterio che il Supervisor conserva nelle fasi 1 e 4 del protocollo appartiene a questo secondo ordine di conoscenza: è giudizio maturato nella frequentazione del testo, nella memoria delle revisioni fallite, nella sensibilità per ciò che un personaggio direbbe o rifiuterebbe di dire. Delegare l’esecuzione a un Worker AI è delegare il knowing-what; il knowing-how resta nel corpo autoriale del progetto.
Nella fase 3 (Valutare), l’autore opera come Consultant al layer Observation, dove le AI diventano co-Consultant: si analizzano gli output, si confrontano le economie del giudizio dei tre modelli, si decide il criterio di arresto. È qui che si esercita la strategic forgiveness: saper riconoscere il punto in cui l’ulteriore perfezionamento produce entropia.
Nella fase 4 (Autorizzare), il Supervisor torna al layer Surface: decide cosa tenere, integrare, scartare. Costruisce la versione finale verificando la coerenza con personaggi, trama, stile, mondo narrativo. È il livello dell’habitat: lo stile risultante rispetta l’ecosistema cognitivo del testo? La comunità Romanzo E — Social Reading Pop opera come estensione di questo livello, quando invita i lettori a identificare nelle voci di Marcus, Stevenson, Crane, Æquitas, Puritas le tracce di temperature stilistiche diverse — e a chiedersi quali siano d’autore e quali residui algoritmici. Se Marcus scrive come un manuale di istruzioni, il design ha fallito. Se Puritas perde la sua secchezza aforistica e si distende in periodi rassicuranti, l’habitat cognitivo del personaggio è stato violato.
La domanda per la comunità dei lettori del romanzo E
Un post nel gruppo social reading del romanzo E chiedeva: leggendo “E”, avete percepito tracce delle stigmate di Floridi? Ne volete segnalare di nuove? Dove? In quale voce? La domanda resta aperta e si allarga. Il social reading produce anche questo effetto: trasforma i partecipanti in osservatori degli stili cognitivi delle AI. Ogni scheda-personaggio costruita nell’Esercizio 3 è un atto di consapevolezza stilistica. Ogni micro-scena che “sa quando fermarsi” è un esercizio di strategic forgiveness narrativa.
Torniamo alle schede di feedback raccolte nei primi mesi del social reading e che hanno fatto emergere un problema di bias. I lettori portano nella valutazione del testo un bias percettivo sistematico: attribuiscono all’AI ciò che li disturba e all’autore umano ciò che li convince — a prescindere dall’origine effettiva.
Chi sa che nella scrittura sono intervenute AI tende a classificare come algoritmico ciò che lo spiazza e come autoriale ciò che lo emoziona. Il distant writing, quando funziona, produce una terza voce in cui la distinzione perde senso. Riconoscere questo bias è il primo esercizio di sovranità cognitiva che il social reading può offrire.
Il Prolegomeno che state leggendo è esso stesso un test. È stato orchestrato con Claude, Gemini e ChatGPT come esecutori testuali, sotto vincoli autoriali che includono la sorveglianza sugli stili cognitivi di ciascun modello. Vi chiedo dunque: contiene tracce algoritmiche? Le ha eliminate tutte, o qualcuna resiste? Questo è il gioco del distant writing.
Delegare l’esecuzione non significa delegare il criterio. E il criterio comincia dal riconoscimento dello stile cognitivo che si ha davanti. Anche una recente ricerca della Northeastern University sugli agenti autonomi conferma che la delega ai non umani non riduce il problema del criterio, ma lo radicalizza: quando aumentano autonomia operativa, memoria persistente e capacità di azione, emergono rischi specifici come illusione del controllo, obbedienza manipolabile, risposte sproporzionate ed errori con effetti sistemici.
Del resto, proviamo a fare un esperimento mentale in chiave Pop. Nelle serie tv americane, i profiler per identificare un serial killer o uno psicopatico cercano tre indizi: assenza di empatia, incapacità di assumersi responsabilità, freddezza rispetto alle conseguenze. In breve, il ritratto di una AI. La domanda finale allora è semplice: fino a che punto siamo disposti a delegare decisioni a un’intelligenza che non può risponderne?
Riferimenti
Questo Prolegomeno intreccia quattro piani di evidenza: la letteratura accademica sulle impronte stilistiche degli LLM; la documentazione ufficiale dei principali vendor sulle configurazioni di tono, stile e comportamento; repertori, osservatori e media che registrano l’emersione pubblica del problema; l’osservazione comparativa maturata nella pratica del distant writing e nel dibattito culturale che la accompagna.
Letteratura accademica e ricerca
Appel, Markus et al., “I, ChatGPT: linguistic properties and human experiences of human- versus AI-generated stories”, Humanities and Social Sciences Communications, 2025.
Carnegie Mellon University, “CMU Study Shows Large Language Models Have Distinctive Styles”, 2025.
Christian, Brian e Tom Griffiths, Algorithms to Live By: The Computer Science of Human Decisions, Henry Holt and Co., 2016.
Floridi, Luciano, “Distant Writing: Literary Production in the Age of Artificial Intelligence”, Minds and Machines, 35, 2025.
Hidalgo, César A., “An AI Tsunami is about to Hit Science”, cesarhidalgo.com, marzo 2026.
O’Sullivan, James, “Stylometric comparisons of human versus AI-generated creative writing”, Humanities and Social Sciences Communications, 12:1708, 2025.
Reinhart, Alex et al., “Do LLMs write like humans? Variation in grammatical and rhetorical styles”, Proceedings of the National Academy of Sciences (PNAS), 2025.
Sun, Mingjie, Yin, Yida, Xu, Zhiqiu, Kolter, J. Zico e Liu, Zhuang, “Idiosyncrasies in Large Language Models”, arXiv, 2502.12150, 2025.
Cataloghi, osservatori e media
Brandom, Russell, “The best guide to spotting AI writing comes from Wikipedia”, TechCrunch, 20 novembre 2025.
Chaib, Ossama, tropes.fyi: AI Writing Pattern Directory, 2026.
NPR, “Wikipedia editors publish new guide to help readers detect entries written by AI”, 4 settembre 2025.
Wikipedia, “Signs of AI Writing”, WikiProject AI Cleanup.
Contesto culturale e casi studio
Boschetti, Caterina, “Human Washing: marketing, HR e autenticità organizzativa”, Prolegomeni al Manifesto del Pop Management, Nova100 / Il Sole 24 Ore, marzo 2026.
Colamedici, Andrea e Jianwei Xun, Ipnocrazia. Trump, Musk e la nuova architettura della realtà, Tlon, 2025.
Lecci, Bernardo, “Maker o Doer? Quando fare è creare, e l’IA ci aiuta a vederlo”, LinkedIn, marzo 2026.
Minardi, Sabina, “Il caso Ipnocrazia”, L’Espresso, aprile 2025.
Viliotti, Andrea, “Diritti cognitivi come diritti di habitat nell’era dell’IA”, Culture Digitali, DiCultHer, 2026.
Documentazione tecnica e vendor
Anthropic, “Claude’s Constitution”, 2025.
Anthropic, “Understanding Claude’s Personalization Features”, 2025.
Google, “Create docs, apps & more with Canvas”, 2025.
OpenAI, “Customizing Your ChatGPT Personality”, 2025.
170 – Puntate precedenti