L’editoria nel labirinto: dal sublime dilettantismo al distant writing
Luca Briasco apre un suo recente articolo su Robinson di La Repubblica con una parola — “manoscritto” — ferma in un tempo che l’editoria continua ad abitare per inerzia. È difficile rinominare ciò che muta forma senza mutare sostanza: il contenitore resta, il contenuto è già altrove.
Briasco mappa con precisione il territorio cresciuto intorno alla scrittura dopo il Covid: scuole di narrativa che proliferano, editor freelance, agenzie strutturate come piccole case editrici. Un ecosistema di mediatori in espansione mentre il mercato si contrae. In fondo all’articolo, la domanda scomoda: cosa accade quando gli aspiranti autori istruiscono ChatGPT perché trasformi le loro idee in opere compiute? La risposta di Briasco — il “sublime dilettantismo” come ancora di salvezza — è un’immagine bella, e forse vera. Resta insufficiente.
Perché il punto più interessante è un passo oltre: da cosa dipende la distanza tra il mondo editoriale — il sistema di legittimazione fatto di selezione, contratti, diritti, filiere — e il processo reale di scrittura e lettura, già aumentato da AI, iterazioni, co-autorialità, comunità di lettura attive?
Una forbice larga
Un dato fotografa la distanza meglio di qualsiasi analisi. La prima ricerca AIE sull’uso di AI nelle case editrici italiane, presentata a Più libri più liberi (dicembre 2025), mostra che tre editori su quattro usano già strumenti AI — per comunicazione, paratesti, metadati, copertine, editing. La percentuale sale al 96% tra i grandi editori. In questo scenario l’AI è un attrezzo interno: il catalogo resta in casa, i contenuti rimangono sotto controllo editoriale.
Eppure, sul versante del licensing ai produttori di LLM, il quadro si inverte. Cedere in licenza il catalogo significa autorizzare chi sviluppa modelli linguistici a usare le opere — romanzi, saggi, traduzioni — come materia prima per addestrare i propri sistemi: sistemi che poi riassumono, rispondono, riformulano. In gioco ci sono diritti (copyright, contratti con autori e traduttori), compenso (quanto vale quell’uso, come si remunera), controllo (cosa può fare il modello con quei testi) e rischio di sostituzione (se l’utente ottiene una risposta “tipo libro” senza comprare il libro). Ebbene: il 27,7% degli editori è stato contattato dai produttori di LLM per accordi di licensing, ma solo il 3,7% ha firmato. Il 37% ha già escluso la possibilità a prescindere.
È una forbice larga. Da una parte, sì all’AI come strumento operativo sotto il proprio tetto. Dall’altra, rifiuto — o forte prudenza — verso l’AI come interlocutore industriale che usa i contenuti per costruire prodotti e servizi propri. Dentro questa forbice si tengono tutte le tensioni che il prolegomeno racconta: il potere degli intermediari contro le pratiche reali, la governance del criterio, la filiera dei diritti, la migrazione dei lettori verso riassunti e answer engine, la negoziazione del futuro contro la difesa dell’ieri.
Tre ipotesi
Prima ipotesi: la tutela di un modello consolidato. Il sistema degli intermediari letterari ha costruito la propria legittimità sull’asimmetria di competenza: io so, tu scrivi, io decido se sei un autore. Quando strumenti AI rendono quelle competenze più accessibili, la cautela è la risposta naturale di qualsiasi sistema sotto pressione. Lo ha scritto con chiarezza Frequenza Kai commentando il post su LinkedIn che ho utilizzato per raccogliere opinioni sul tema: “Il mondo editoriale si è disallineato perché il suo potere si reggeva su un’asimmetria: io so, tu no. L’AI ha rotto quell’equilibrio — chi prova impara, e chi impara smette di chiedere il permesso.”
Nei termini del Pop Management: il ruolo dell’editor è destinato a cambiare forma. Da gatekeeper a Supervisor di criterio — chi valida la qualità del processo, la coerenza della visione, la tenuta del testo. Il valore si sposta dalla selezione in entrata alla governance del percorso.
Seconda ipotesi: la distanza dall’esperienza diretta. Il problema si accentua nel momento in cui chi si occupa di intermediazione editoriale — agenti, editor, direttori di collana — manca di esperienza diretta di scrittura con AI. La diffidenza verso lo strumento è proporzionale all’assenza di pratica. David S. Duncan, coautore di Competing Against Luck, ha identificato su HBR il meccanismo sottostante quando ha introdotto l’AI generativa in una grande società di consulenza: lo strumento aiutava i senior molto più dei colleghi meno esperti. L’AI amplifica il giudizio di chi ne ha già costruito uno attraverso errori, feedback e responsabilità dirette; non lo crea dal niente. Chi manca di esperienza diretta manca anche della capacità di valutare criticamente l’output. La diffidenza degli intermediari editoriali verso l’AI è, in questa luce, il sintomo di un problema più profondo: non hanno ancora accumulato il repertorio esperienziale che renderebbe lo strumento utile invece che minaccioso.
È lo stesso fenomeno che rallenta l’adozione dell’AI nelle organizzazioni aziendali, di cui abbiamo parlato in altri Prolegomeni. Il convegno AIE/FIEG al Ministero della Cultura (febbraio 2026) aggiunge una dimensione quantitativa all’allarme: la pirateria sottrae agli editori circa il 30% del mercato (722 milioni di euro nel 2025). Ma il dato inedito riguarda i riassunti generati dall’AI: li usa il 12% della popolazione sopra i 15 anni per i libri di lettura, il 58% degli studenti universitari, il 22% dei liberi professionisti. Il presidente FIEG Andrea Riffeser Monti parla di “far west”. Il far west, però, è anche il territorio dell’editoria stessa: tre editori su quattro usano l’AI, la quasi totalità degli studenti universitari ci riassume i libri, il 60% delle pubblicazioni — come ricorda Sonia Draga, presidente della Federazione Europea degli Editori, al Seminario di Venezia — deriva dal self-publishing. Il far west è ovunque. Regolarlo significa prima riconoscerlo.
La competenza che manca è chiara: saper costruire un protocollo di verifica. Saper fare un prompt o un brief è il livello base; governare un processo di delega — sapere cosa chiedere, a chi, con quali vincoli, e come valutare l’output — è il livello che separa l’uso dall’uso consapevole.
Novelli, Floridi e altri — in un paper che parla di cognitive linguistics applicata alla regolazione dell’AI (SSRN, 2025) — individuano un’altra zona cieca nella regolazione dell’AI: la metafora della “black box”, che orienta la domanda di trasparenza verso l’interno del modello — il codice, i pesi, i parametri — distogliendo l’attenzione dai fattori che ne determinano il comportamento dall’esterno. Quella metafora, scrivono, «falsely localizes the inner workings of AI systems», mentre «causal factors are distributed across various parts of the process — including training data and processes, parameters, inference settings, prompts, retrieval indexes or external tools, post-processing, and organizational use» (p. 24). Nell’editoria, questa distorsione ha una forma specifica: si discute di allucinazioni e di output inaffidabili come se fossero difetti tecnici da correggere, trascurando che molti errori dei sistemi generativi sono conseguenze prevedibili di scelte di design — la temperatura di generazione, il peso attribuito alla coerenza rispetto alla verità, i meccanismi di reward che premiano la plausibilità piuttosto che l’accuratezza. Se l’editoria chiede trasparenza all’AI senza capire quali scelte di design generano quali rischi, la domanda di trasparenza resta retorica.
Terza ipotesi: il peso delle domande aperte. Ammettere che l’AI è dentro il processo creativo significa riaprire questioni irrisolte su autorialità, diritti, valore del testo. E riaprirle costa: richiede ripensare filiere consolidate, ridefinire contratti, accettare che la legittimazione possa emergere dal basso — dalle comunità che leggono, commentano, riscrivono — oltre che dall’alto. Bernardo Lecci ha colto la questione nel suo intervento su LinkedIn: “L’autorialità è diventata una funzione distribuita. La legittimazione emerge dal lato, nelle comunità, e chi prova a recuperare scopre che la periferia è diventata il nuovo centro.”
Il patto da costruire ha tre elementi: trasparenza (dichiarare il processo), provenienza (certificare la fonte umana del criterio), compensazione (riconoscere il valore del catalogo quando alimenta modelli). Nei resoconti del Seminario veneziano emerge un ribaltamento interessante: invece di etichettare ciò che è AI, certificare ciò che è umano. La responsabilità si sposta dall’esclusione alla garanzia.
Il caso Murray: negoziare il futuro invece di difendere l’ieri
Eppure qualcosa si muove. Il Corriere della Sera ha pubblicato qualche giorno fa l’intervista a Brian Murray, CEO di HarperCollins Publishers e presidente dell’Association of American Publishers, che interviene alla Scuola per Librai Umberto e Elisabetta Mauri a Venezia con un messaggio diverso dalla consueta chiusura: l’editoria deve smettere di temere il cambiamento e iniziare a guidare l’era dell’intelligenza artificiale.
Murray identifica tre impatti dell’AI sul settore: la riduzione della saggistica pratica (sostituita da contenuti AI più accessibili e aggiornati), la crescita della narrativa come rifugio dall’ansia contemporanea, la centralità della creatività umana e del copyright. La sua preoccupazione maggiore riguarda la violazione del diritto d’autore — opere pubblicate usate per addestrare modelli linguistici senza consenso. L’articolo di Il Bo Live dell’Università di Padova riporta il caso emblematico: la class action Bartz vs. Anthropic, conclusa con un accordo transattivo da 1,5 miliardi di dollari — soggetto ad approvazione giudiziaria — sull’uso di libri piratati per l’addestramento di Claude. Murray, però, va oltre la battaglia legale e propone un approccio negoziale. Cita l’accordo Disney-OpenAI come esempio virtuoso: consenso, compenso, barriere d’uso e framework per il futuro. Il messaggio è: serve collaborazione tra settori e Paesi, i contenziosi da soli producono stallo.
Murray ci offre un case study di leadership convocativa nell’era della disruption tecnologica. Invece di arroccarsi su posizioni difensive, propone una “negoziazione del futuro” che ricorda la logica dei grandi accordi sindacali del Novecento: riconoscimento reciproco, bilanciamento degli interessi, costruzione di un framework condiviso.
È Pop Management applicato: Murray usa l’esempio Disney — brand pop per eccellenza — per illustrare una strategia sofisticata. Incornicia la tecnologia in un sistema di regole che protegge il valore umano — la creatività degli autori — e mantiene l’innovazione possibile. La sua osservazione sulla fuga nella narrativa durante tempi turbolenti rivela una comprensione profonda: quando la realtà diventa insostenibile, le persone cercano storie. Storie umane, autentiche, irriducibili all’output generato.
La mente sotto assedio e la responsabilità del criterio
Su La Lettura del Corriere della Sera, Federica Colonna recensisce due saggi convergenti: La mente sotto assedio di Bruno Giussani e Tecnologie emotive di Eva Illouz (con Jonas Ferdinand). Il primo avverte che l’AI potrebbe arrivare a modificare in profondità il modo di pensare. Il secondo rovescia un luogo comune: siamo convinti che la macchina ci sottragga emotività; è vero l’opposto. I social sono “condutture di energia emotiva”. Le app di mindfulness trasformano la solitudine in commodity da 5,7 miliardi di dollari.
La risposta di Giussani: diventare resistenti tecnologici. Mantenere la distanza psichica. Pensare.
Come farlo? L’indicazione è giusta, la traduzione operativa è assente — ed è qui che la questione si connette al distant writing e al social reading.
Kahneman ha descritto il pensiero su due livelli: il Sistema 1 (veloce, intuitivo) e il Sistema 2 (lento, deliberato). Con l’AI entra un Sistema 3 — il terzo attore cognitivo teorizzato da Maurizio Carmignani riprendendo Shaw e Nave, discusso nel Prolegomeno 164 — che produce resa cognitiva ogni volta che si adotta un output senza verificarne il criterio. La risposta è il framework TB-CSPN di Remo Pareschi, Uwe Borghoff e Paolo Bottoni — tre livelli, tre ruoli (Supervisor, Consultant, Worker), tre transizioni (Initiative, Delegation, Authorization) — che il distant writing collaborativo porta dal piano teorico al piano operativo. Il Supervisor fa l’abduzione: definisce gli obiettivi, formula il brief. Le AI fanno la deduzione: eseguono le variazioni. Il giudizio finale resta al Supervisor. Sempre.
Sangeet Paul Choudary sposta l’analisi dal piano individuale a quello sistemico con un argomento che converge con la stessa logica. Il vero guadagno dell’AI — scrive Choudary — è il coordinamente, prima dell’automazione. Le aziende che automatizzano singoli compiti senza ripensare i passaggi tra team e funzioni producono efficienza locale e inefficienza sistemica: il collo di bottiglia si sposta più avanti nel processo, invisibile finché il ritardo diventa cronico. Il valore emergente risiede nell’AI come tessuto connettivo — uno strato di traduzione che prende dati non strutturati da un’unità e li converte in istruzioni strutturate per un’altra, riducendo i costi di transazione che si nascondono negli allineamenti, nelle riunioni convocate per trovare consenso su decisioni già prese altrove, nei silenzi tra funzioni. Choudary chiama questo meccanismo “coordination without consensus”: l’AI vede i dati di due reparti, agisce da arbitro e li coordina senza che le persone debbano negoziare ogni singolo passaggio. Il framework TB-CSPN è, in questa lettura, un’architettura di coordinazione esplicita: definisce chi porta l’iniziativa, chi delega, chi autorizza — e rende visibili i passaggi che la scrittura collaborativa tradizionale lasciava impliciti, e quindi ingovernabili.
Nel testo citato di Novelli e altri si propone un nome per il meccanismo che il TB-CSPN presidia: deferential hazard. Un sistema generativo ottimizzato per allinearsi alle aspettative dell’utente attraverso processi di reinforcement learning tende a produrre output fluenti, adatti al contesto e tuttavia inaffidabili sul piano epistemico: «errors result from alignment processes — such as reinforcement learning mechanisms (e.g., human feedback for fine-tuning) — that reward agreement with user preferences and/or politeness» (p. 34). Il modello amplifica l’incertezza verso la risposta attesa, invece di gestirla con cautela. Il Supervisor del framework TB-CSPN esiste per questa ragione: per verificare l’esecuzione e per interrompere il circuito di deferenza che, senza presidio, trasforma la macchina da strumento di pensiero a specchio del pregiudizio di chi formula il brief.
La regola che tiene tutto insieme: delega l’esecuzione, tieni il criterio. Scrivere con l’AI seguendo il TB-CSPN è l’esercizio che tiene attivo il muscolo del giudizio — trasforma l’interazione con la macchina da atto di consumo (richiedere un output) ad atto di governance (dirigere un processo).
Dai neuroni specchio alla soggettività algoritmica
A Venezia, chiudendo il seminario della Scuola per Librai, Vittorio Gallese — neuroscienziato scopritore dei neuroni specchio — ha offerto una formula che suona come un manifesto: il problema di fondo è l’intelligenza umana, concepita nella sua dimensione relazionale, corporea, tecnologica, immaginativa. Il suo nuovo saggio Il Sé digitale (Cortina, febbraio 2026) traccia un itinerario dai neuroni specchio alla soggettività algoritmica: il corpo risulta riconfigurato dalla mediazione tecnologica; l’alterità è resa ambigua da nuovi simulacri affettivi. Gallese propone un’estetica radicale — una politica del sentire — che restituisca intensità e imprevedibilità alla relazione umana in un mondo dominato da interfacce e algoritmi. È la stessa tensione che anima il distant writing: la macchina esegue, il corpo e il criterio dell’autore dirigono. L’empatia sistemica del Pop Management trova qui la sua radice neuroscientifica.
La posizione di Gallese acquista un rilievo ulteriore se la si legge in controluce con il Comment pubblicato su Nature il 2 febbraio 2026 da Chen, Belkin, Bergen e Danks — quattro ricercatori della UC San Diego tra filosofia, linguistica, data science e scienze cognitive. La loro tesi: gli LLM attuali soddisfano già i criteri dell’intelligenza generale formulati da Turing nel 1950. Il test di Turing, ripetuto nel marzo 2025 su GPT-4.5, dà esito positivo: il modello viene giudicato umano nel 73% dei casi, più spesso degli esseri umani stessi. Gli autori esaminano dieci obiezioni ricorrenti — dai “pappagalli stocastici” alla mancanza di corpo, dalle allucinazioni all’assenza di coscienza — e le smontano una per una, mostrando che ciascuna o confonde l’intelligenza generale con qualità accessorie, o applica standard che i singoli esseri umani faticano a rispettare. Il sottotitolo dell’articolo è un programma: “Eyes unclouded by dread or hype will help us to prepare for what comes next.” Occhi liberi dal timore e dall’entusiasmo: è la stessa postura che il Pop Management chiede al sistema editoriale. Il punto di Chen e colleghi rafforza l’argomento di questo prolegomeno: se l’AGI è qui — e i dati lo suggeriscono — la domanda decisiva smette di essere “le macchine pensano?” e diventa “chi governa la relazione tra il pensiero umano e la capacità generativa della macchina?”. È la domanda del Supervisor nel framework TB-CSPN. È la domanda che l’editoria continua a non porsi.
Migrazione silenziosa
Quanto tempo resta, a questo ritardo, prima di diventare irrecuperabile?
I commenti al post LinkedIn in cui sollevavo la questione convergono su un punto: la migrazione è silenziosa. Lecci lo ha formulato con esattezza: “Le migrazioni generazionali sono silenziose. A un certo punto ti accorgi che le persone smettono di chiedere il permesso per pubblicare, si auto-organizzano, si auto-editano, si auto-validano. E quando il centro prova a recuperare, scopre che la periferia è diventata il nuovo centro.”
Ho già descritto questa migrazione cinque anni fa. Nel capitolo 9 di #Librare — I Barbari: i lettori del futuro sono già qui — annotavo un dato: nel 2019 cresceva al 23% la quota di chi praticava solo forme di “altra lettura” — contenuti editoriali su social, riviste online, siti di cucina, viaggi, fanfiction. Lettori che alla lettura del libro cartaceo stavano già sostituendo il librare negli ecosistemi integrati delle piattaforme digitali. Da allora la percentuale è cresciuta e l’AI ha accelerato la transizione: come scriveva già Kelly, nel regno digitale immateriale, dove tutto è in divenire, anche il libro diventa un librare.
Se la domanda si abitua all’estratto — al riassunto AI, alla scheda generata, alla sintesi algoritmica — l’editoria deve ripensare il valore dell’intero. La narrativa come esperienza irriducibile all’output è la risposta; ma serve un sistema che la renda riconoscibile, tracciabile, difendibile.
Questione di valore aggiunto
Gioele Gambaro ha colto nel suo commento su LinkedIn il meccanismo economico sottostante: la questione è di valore aggiunto. Il vertice della piramide incamera una grossa fetta delle rendite e usa l’AI per diventare più produttivo; il basso valore aggiunto viene automatizzato o sottoposto a pressione. È lo stesso schema che ha attraversato l’industria musicale con le piattaforme tipo Spotify.
I dati gli danno ragione. Un working paper del NBER (Reimers e Waldfogel, gennaio 2026) misura l’impatto degli LLM sulla produzione libraria tra il 2022 e il 2025: le nuove uscite si sono triplicate, la qualità media è scesa, ma i primi 1.000 titoli mensili per categoria hanno qualità superiore al periodo pre-AI. Gli autori già attivi prima degli LLM producono lavoro migliore di prima; i nuovi entrati producono in larga maggioranza lavoro di bassa qualità. La calibrazione del modello stima un aumento del surplus per i consumatori tra il 25 e il 50 per cento a regime. Tradotto in termini Pop Management: l’AI polarizza, e la polarizzazione premia chi governa il criterio — chi sa costruire il brief, verificare l’output, mantenere la visione. Il “sublime dilettantismo” di Briasco si rivela fragile: senza un framework di governance, il dilettantismo resta dilettantismo. Con un framework, diventa il primo gradino di una competenza nuova.
La polarizzazione documentata da Reimers e Waldfogel ha una spiegazione meccanica che Novelli, Floridi e colleghi rendono esplicita: il termine “allucinazione” — mutuato dalla psicopatologia — carica sullo strumento una colpa che appartiene al processo. Le cosiddette allucinazioni dei sistemi generativi sono «a consequence of AI design», il frutto di «design trade-offs that prioritize linguistic fluency over epistemic reliability» (p. 31). Chi governa il criterio — il Supervisor, l’autore, l’editor che ha maturato un repertorio esperienziale — sa riconoscere quando il sistema sta interpolando invece di recuperare, quando sta deferendo all’aspettativa invece di resistere. Chi manca di quel repertorio accetta l’output fluente come output affidabile. La forbice tra i primi mille titoli e il resto del mercato si spiega anche così: è la forbice tra chi governa la deferenza e chi la subisce.
Choudary porta questo ragionamento a livello competitivo con una previsione: il vantaggio appartiene a chi costruisce le interfacce di coordinamento migliori, prima ancora di chi possiede i modelli AI più potenti. Le organizzazioni che sopravvivono alla polarizzazione sono quelle capaci di quella che chiama “modularità dinamica” — agganciare e sganciare unità di lavoro secondo le esigenze del momento, perché l’AI fa da arbitro dei flussi tra funzioni che prima si sincronizzavano solo attraverso gerarchie lente e costose. Tradotto per l’editoria: la casa editrice che trova il proprio futuro è quella capace di coordinare — autori, editor, agenti, lettori, piattaforme, modelli linguistici — attraverso framework espliciti di delega e responsabilità. Il “sublime dilettantismo” di Briasco incontra qui il limite strutturale che Choudary identifica: senza un’architettura di coordinazione, anche l’energia creativa autentica si disperde prima di diventare valore.
Amedeo Maizza, ordinario di Economia e gestione delle imprese all’Università del Salento, in un recente articolo su Il Quotidiano, ha portato l’argomento fuori dall’editoria e dentro i listini: se l’esecuzione tecnica diventa commodity, il sapere torna a valere più del saper fare. I mercati lo hanno già prezzato. Chegg — piattaforma di supporto allo studio per studenti universitari — ha perso un miliardo di dollari di capitalizzazione in un solo giorno nel maggio 2023, quando il CEO ha ammesso che ChatGPT stava erodendo la base clienti. Da allora il titolo ha perso il 99% del valore. Teleperformance ha subìto flessioni pesanti quando l’efficienza degli assistenti AI ha messo in discussione il modello dell’outsourcing tradizionale. Infosys e Wipro — le storiche “fabbriche di codice” indiane — mostrano fragilità inedite davanti alla velocità di codifica automatica (GitHub Copilot ha aumentato la produttività di sviluppo del 55%).
Zero per mille
Il Future of Jobs Report 2025 del World Economic Forum conferma la tendenza: le competenze digitali e tecniche risultano le più esposte alla trasformazione (68% di impatto), mentre le competenze human-centric — pensiero analitico, creatività, resilienza, curiosità — sono protette (35%). Maizza condensa il paradosso in una formula aritmetica: zero (competenza umana) moltiplicato per mille (potenza AI) dà sempre zero. È la stessa logica del distant writing collaborativo rovesciata: la macchina moltiplica, ma il valore del prodotto dipende da ciò che l’umano porta alla moltiplicazione. Il framework TB-CSPN, di cui può essere considerato una applicazione pratica, garantisce che quel moltiplicando sia diverso da zero — che ci sia criterio, visione, giudizio prima della delega. L’umanesimo, in questa chiave, è il fattore critico di produzione.
Il report Journalism, Media, and Technology Trends and Predictions 2026 del Reuters Institute — basato su un sondaggio tra 280 dirigenti dei media in 51 Paesi — conferma che la migrazione investe l’intero sistema dei contenuti, ben oltre l’editoria libraria. Secondo le stime dei dirigenti intervistati, il traffico dai motori di ricerca verso i siti editoriali potrebbe ridursi del 43% nei prossimi tre anni. ChatGPT ha raggiunto 800 milioni di utenti attivi settimanali. I contenuti che resistono sono quelli che l’AI fatica a comprimere: inchieste, analisi, storie umane — esperienze irriducibili all’output generato. Il parallelo con la narrativa letteraria è diretto: il valore risiede nell’esperienza che la macchina può imitare ma che solo l’umano sa generare.
Lo stesso report segnala un dato rilevante per il Pop Management: LinkedIn emerge come una delle poche piattaforme in crescita per la distribuzione di contenuti editoriali, con un differenziale positivo del +40%. Il social reading su LinkedIn di cui parliamo più avanti si inserisce in questa tendenza strutturale.
Mentre scriviamo, la migrazione silenziosa produce la sua immagine più concreta a Milano. La Libreria Hoepli — storica dal 1870, casa editrice e punto di riferimento per generazioni di lettori, tecnici, professionisti — è in procedura di liquidazione volontaria. nel momento in cui scrivo i tavoli sindacali si sono chiusi senza accordo sulla cassa integrazione per 89 dipendenti. Le cronache del Corriere della Sera, di Repubblica, del Fatto Quotidiano convergono su un punto: i conti sarebbero in ordine, la paralisi nasce da faide interne alla famiglia proprietaria. La Hoepli rischia di chiudere per un fallimento di governance, nel senso più pieno del termine: mancanza di un framework condiviso per prendere decisioni, bilanciare interessi, negoziare il futuro. È lo stesso tipo di stallo — difensivo, autoreferenziale, incapace di riconoscere il terreno su cui si trova — che attraversa l’intero sistema editoriale. Con una differenza: qui il tempo è scaduto. Se la “civiltà della libreria” — come la chiama un editoriale del Corriere — si dissolve per incapacità di governare i conflitti interni, la domanda che questo prolegomeno pone alla business community acquista un’urgenza che va oltre la metafora.
Da #Librare al social reading: una genealogia operativa
Se Calvino avesse avuto l’AI — e Calvino giocava con la combinatoria e smontava le strutture narrative come un orologiaio — avrebbe riconosciuto in questo labirinto il territorio delle sue Lezioni americane. Leggerezza, esattezza, molteplicità: sono le stesse regole di un buon brief al Sistema 3. La sfida è entrare nel labirinto con il filo della propria visione, senza farsi masticare dall’algoritmo.
Il percorso che ha condotto al social reading di oggi ha radici profonde. Lo accennavo sopra: il progetto #Librare, nel 2020, radunava settanta voci in Dieci Conversazioni metadisciplinari sul futuro del libro. La conclusione: il rischio è che la comunità dei lettori impari a fare a meno di un editore che ha smesso di capire come nasce un testo. Gino Roncaglia, in quella sede, indicava la direzione: la «collaborazione consapevole nella produzione di informazioni assai più ricche, articolate e strutturate», in cui la complessità «potrà essere il risultato di un lavoro compiuto in tutto o in parte da Intelligenze Artificiali». Paolo Costa, fondatore di Twitteratura, precisava il meccanismo del social reading: «si tratta di compiere un viaggio insieme. Un viaggio alla scoperta di un testo e dei segreti che sono celati in esso. Si autoconvoca una comunità di lettori, i quali agiscono per raggiungere un obiettivo comune — la comprensione del testo — aiutandosi a vicenda». Cosimo Accoto, dal MIT, anticipava la tensione centrale: nella comunicazione con gli umani, il marchio è servito finora come meccanismo di riduzione dell’incertezza — ha aiutato chi consuma a scegliere un libro in mezzo a tante possibilità proposte su uno scaffale. «Ma nelle interazioni di mercato sempre più automatizzate con bot, dati, software, sensori e Intelligenza Artificiale, il meccanismo di riduzione dell’incertezza diviene l’algoritmo». Da qui la previsione di una «perdita di efficacia della comunicazione simbolica a favore della comunicazione algoritmica». Il distant writing collaborativo è una risposta operativa a questa previsione: mette l’algoritmo al servizio della visione autoriale, invece di lasciare che la visione autoriale si dissolva nell’algoritmo.
Quelle previsioni si stanno avverando — con un’accelerazione che nel 2020 era impossibile prevedere. La risposta operativa è maturata nel tempo. Il Prolegomeno 150 ha tradotto il concetto di distant writing — descritto da Luciano Floridi: l’autore mantiene la direzione concettuale e delega l’esecuzione — in prassi verificabile: il distant writing collaborativo con tre AI (Claude, ChatGPT, Gemini) coordinate da un autore che progetta la struttura e i vincoli, integra e autorizza il rilascio finale. La responsabilità editoriale si sposta dalla produzione testuale alla progettazione delle regole del gioco.
Il Prolegomeno 158 ne ricostruisce la genealogia trentennale — da Hamlet (1997) e Le Aziende InVisibili (2008) fino al presente. Il Prolegomeno 160 descrive il gruppo di social reading su LinkedIn — con oltre 500 professionisti, manager, docenti universitari, esperti di scrittura creativa e di AI — come laboratorio di governance esplicita del processo creativo attraverso AI. Il romanzo E, scritto in distant writing, è l’oggetto su cui il laboratorio opera: un’opera che incarna le questioni sollevate da Murray (chi è l’autore quando l’AI è strumento esecutivo? come si tutela il copyright? come si bilanciano creatività umana e potenza computazionale?) e che pratica la resistenza tecnologica invocata da Giussani e la politica del sentire proposta da Gallese: allenare il distacco, riconoscere il pattern, rifiutare l’accettazione passiva dell’output.
Un segnale che il tema stia entrando anche nel radar accademico viene dalla rivista AIB studi, che pubblica un contributo intitolato Storie Naturali, Scrittori Artificiali sulle community di social reading come spazi di resistenza all’interpellazione sintetica. L’articolo documenta pratiche di “de-piattaformizzazione a bassa intensità” e segnalazioni anti-plagio coordinate nelle community di romance e romantasy — forme di autodifesa dei lettori davanti alla proliferazione di testi generati. La differenza con il nostro social reading è di metodo: nel gruppo di E, la resistenza è proattiva e fondata su un framework esplicito (il TB-CSPN), che rende visibili — e quindi governabili — le regole del gioco tra intelligenze umane e artificiali.
La domanda alla business community
Briasco descrive un mondo. Choudary localizza il guadagno sistemico. Murray propone una strategia. Giussani e Illouz lanciano un allarme. Gallese offre un fondamento neuroscientifico. Chen e colleghi su Nature certificano che l’AGI è già operativa. I dati AIE e il report Reuters quantificano la frattura.
Il distant writing collaborativo offre un metodo concretamente operativo.
Carlo Sini, in #Librare, ricordava che «la capacità di fare le giuste domande diventerà sempre più importante», e che le domande devono essere «vive» — nascere «dalla complessità della vita», da «un ascolto genuino, problematico e stupito». La domanda che chiude questo Prolegomeno allora è: il disallineamento tra il sistema editoriale e il processo reale di scrittura e lettura è un ritardo recuperabile, o la migrazione silenziosa ha già ridisegnato la mappa?
Perché il futuro dell’editoria — e del management — si costruisce conversando, scrivendo e leggendo con consapevolezza del processo. I contenziosi e le posizioni difensive producono stallo. La negoziazione del futuro, come insegna Murray, richiede che tutte le parti riconoscano il terreno su cui si trovano. E quel terreno, ormai, è un labirinto. Entrarci con il filo della propria visione — e della propria responsabilità — è l’unica strategia che funziona. A patto di rendere esplicite le regole di delega, trasparenza e compensazione: perché una migrazione silenziosa diventa governabile solo quando qualcuno la nomina.
Fonti citate:
Articoli e interviste
Berengo, Valentina. “Intelligenza artificiale o intelligenza editoriale?” Il Bo Live (Università di Padova), 8 febbraio 2026.Bignotti, Sara. “Editoria e intelligenza artificiale: le sfide da affrontare.” Giornale di Brescia, 31 gennaio 2026.
Briasco, Luca. “Manoscritto.” Robinson (la Repubblica), 22 febbraio 2026.
Cantale, Claudia. “Storie Naturali, Scrittori Artificiali. Strategie di resistenza sintetica nelle community di social reading.” AIB studi 65, nn. 2–3 (2025): 411–422.
Chen, Eddy Keming, Mikhail Belkin, Leon Bergen, e David Danks. “Does AI already have human-level intelligence? The evidence is clear.” Nature 650, no. 8100 (2 febbraio 2026): 36–40.
Choudary, Sangeet Paul. “AI’s Big Payoff Is Coordination, Not Automation.” Harvard Business Review, 2026.
Colonna, Federica. “La mente sotto assedio.” la Lettura (Corriere della Sera), 21 febbraio 2026.
Duncan, David S. “How Do Workers Develop Good Judgment in the AI Era?” Harvard Business Review, 3 febbraio 2026.
Murray, Brian. “L’AI non deve farci paura” Intervista al Corriere della Sera, 26 gennaio 2026.
Pierleoni, Francesca. “Con l’intelligenza artificiale ‘far west nell’editoria’.” ANSA (Canale Tecnologia), 11 febbraio 2026.
Rotondo, Alessandra. “Intelligenza artificiale e intelligenza editoriale: quale patto per il libro che verrà.” Giornale della Libreria (AIE), 30 gennaio 2026.
“Anthropic agrees to pay $1.5 billion to settle author class action.” Reuters, 5 settembre 2025.
Altre fonti
“Tre editori su quattro dichiarano di utilizzare strumenti di IA”, prima ricerca AIE sull’uso dell’AI nelle case editrici italiane, presentata a Più libri più liberi, 6 dicembre 2025 (comunicato AIE con PDF: aie.it)
“I libri abbracciano l’intelligenza artificiale”, Il Sole 24 Ore, 6 dicembre 2025
Nic Newman, Journalism, Media, and Technology Trends and Predictions 2026, Reuters Institute for the Study of Journalism, Oxford, gennaio 2026 (PDF: reutersinstitute.politics.ox.ac.uk)
Claudio Novelli, Luciano Floridi, Stefan Larsson, Mariarosaria Taddeo, Steven L. Winter, The Artificial in “Artificial Intelligence”: How Imagination Shapes AI Regulation, SSRN Working Paper No. 6289639, 2026
Imke Reimers, Joel Waldfogel, “AI and the Quantity and Quality of Creative Products: Have LLMs Boosted Creation of Valuable Books?”, NBER Working Paper 34777, gennaio 2026
Libri
Bruno Giussani, La mente sotto assedio. Come non lasciarsi manipolare nell’era dell’intelligenza artificiale, Edizioni Casagrande, febbraio 2026
Eva Illouz, Jonas Ferdinand, Tecnologie emotive. Come il tecnocapitalismo sfrutta la nostra soggettività, Castelvecchi, 2026
Vittorio Gallese, Il Sé digitale. Dai neuroni specchio alla mediazione tecnologica, Cortina, febbraio 2026
Marco Minghetti, Dal Libro Analogico agli Ecosistemi Digitali. Sintesi di #Librare — Dieci Conversazioni metadisciplinari sul futuro del libro, Nova100/Il Sole 24 Ore, ottobre-dicembre 2020
Accordi e atti
“The Walt Disney Company and OpenAI reach landmark agreement”, OpenAI/The Walt Disney Company, 11 dicembre 2025
XLIII Seminario di perfezionamento della Scuola per Librai Umberto e Elisabetta Mauri, Fondazione Giorgio Cini, Venezia, 27-30 gennaio 2026 (tavola rotonda “Intelligenza artificiale e intelligenza editoriale”, 30 gennaio; intervento conclusivo di Vittorio Gallese)
Convegno AIE/FIEG, Ministero della Cultura, Roma, 11 febbraio 2026
167 – Puntate precedenti