Con questo Prolegomeno la serie si apre per la prima volta a una voce internazionale. François Rastier — linguista, semiologo, direttore di ricerca emerito al CNRS — è uno dei pochissimi studiosi europei che abbiano affrontato la questione dell’IA generativa dal punto di vista di una teoria dell’opera, e non di una teoria della tecnologia. Il suo saggio originale Génération vs création — De l’art au management, che illustra il volume Opera e creazione. Immagine, linguaggio, Intelligenza Artificiale (Edizioni ETS, Pisa, coll. Dell’espressione, a cura di Nunzio La Fauci), viene qui proposto in lingua originale, preceduto da questa mia introduzione che ne ricostruisce l’argomentazione e la mette in dialogo con il distant writing collaborativo e con il framework TB-CSPN.
La premessa è una scelta di campo: perché proprio Rastier, perché adesso.
Da oltre centosettanta puntate, i Prolegomeni si muovono lungo una linea di cresta tra gestione organizzativa, estetica e intelligenza artificiale. In tre puntate recenti — la 150, la 160, la 170 — questa linea ha preso la forma di un modello operativo. È a partire da quel modello che leggo Rastier; ed è per precisarne i contorni che vale la pena riassumerlo qui, prima di entrare nel saggio.
Nel Prolegomeno 150 (Distant writing, responsabilità editoriale, social reading, 12 dicembre 2025) ho preso le mosse dal paper di Luciano Floridi sul distant writing. Floridi propone un lessico sobrio per descrivere ciò che accade quando un autore lavora con un LLM: la scrittura passa dalla composizione al lavoro su requisiti, vincoli, iterazioni, selezione e montaggio; l’autore diventa narrative designer e l’LLM funge da esecutore testuale. Ho tradotto questa impostazione in una tesi popmanageriale: quando la scrittura è guidata da vincoli dichiarati, diventa governance — “dal gesto alla regola.” La qualità dipende dal sistema di criteri più che dall’atto singolo. Il fuoco si sposta dall’autorialità come proprietà all’autorialità come responsabilità editoriale: il meta-autore mantiene responsabilità e accountability del testo finale, decide soglie di rilascio, gestisce rischi (coerenza, fonti, allucinazioni), rende tracciabili le scelte. Nella stessa puntata ho collegato il distant writing al Sensemaking Pop — la scrittura assistita come palestra dei quattro atti simbolici: Naming, Framing, Anchoring, Expanding — e ho messo in guardia dal rischio di “stile medio”: testi corretti ma conformi, da contrastare proteggendo attriti, imperfezioni e ambiguità intenzionali. Il romanzo “E” veniva presentato come esercizio dichiarato di distant writing e il social reading come estensione del metodo: un invito alla community a un feedback strutturato, da raccogliere via LinkedIn.
Il Prolegomeno 160 (Dal Distant Writing al Social Reading: Tre Livelli di Intelligenza Collaborativa, 30 gennaio 2026) ha compiuto un salto di scala. Il modello di Floridi contempla un autore e un LLM; il distant writing collaborativo che pratico nel romanzo “E” ne coordina tre — Claude, ChatGPT, Gemini — in parallelo, mantenendo la sovranità autoriale tramite governance esplicita: criteri, vincoli, confronto degli output, scelta finale. Ho introdotto il “Sistema 3” (l’AI come terzo attore cognitivo, dopo il Sistema 1 e il Sistema 2 di Kahneman) e il rischio che ne deriva: la resa cognitiva, l’adozione di un output senza verificarne il criterio. Per contrastare questa resa, ho formalizzato un protocollo in quattro fasi — Definire, Delegare, Valutare, Autorizzare — retto da una regola unica: “delega l’esecuzione, mai il criterio.” Il protocollo si inscrive in un’architettura teorica, il framework TB-CSPN (sviluppato con Borghoff, Bottoni e Pareschi nel 2025): tre livelli — Surface, Observation, Computation — tre ruoli — Supervisor umano, Consultant, Worker AI — tre transizioni — Initiative, Delegation, Authorization. Il distant writing diventa così il punto di convergenza tra paradigma multi-agente e paradigma centauriano. Nella stessa puntata ho descritto il passaggio al laboratorio sociale: il gruppo LinkedIn di social reading (fondato il 19 dicembre 2025, oggi a oltre seicento membri) come secondo livello di intelligenza collaborativa, con feedback strutturato su stile medio, allegoria che diventa predica, incarnazione dei personaggi, consigliabilità, citazioni.
Il Prolegomeno 170 (AI e stili cognitivi. Quando la macchina esprime il proprio giudizio, 13 marzo 2026) ha portato la riflessione un passo oltre: dal writing style allo stile cognitivo delle AI. Ogni LLM porta nel testo una propria economia del giudizio — soglie di arresto, rapporto con il conflitto, rapporto con l’incompiuto — che va oltre le stigmate lessicali di superficie (il vocabolario da brochure, la tripletta retorica, il parallelismo negativo). Ho distinto due livelli di stigmate: quelle superficiali — la firma lessicale e retorica, catalogata da Floridi, da tropes.fyi, da WikiProject AI Cleanup — e quelle profonde — compiacimento, both-sidesing sistematico, pivot to positivity, avversione alla chiusura imperfetta. Le prime si correggono con vincoli operativi; le seconde toccano il rapporto del modello con il giudizio stesso e richiedono consapevolezza autoriale. Ho presentato la tabella comparativa dei tre temperamenti: il Legislatore Sfumato (Claude), l’Esecutore Compiacente (ChatGPT), l’Architetto dei Dati (Gemini). E ho documentato un paradosso empirico emerso dal social reading: i lettori attribuiscono all’AI ciò che li disturba e all’autore umano ciò che li convince, a prescindere dall’origine effettiva del passaggio. Il distant writing, quando funziona, produce una terza voce in cui la distinzione perde senso.
Il Prolegomeno 172 infine aggiunge al ragionamento altri elementi.
- Raccoglie e rilancia il dibattito aperto dal Prolegomeno 170 spostando il focus dal riconoscimento degli stili cognitivi alla loro governance. Il punto decisivo è che lo stile non va solo identificato: va progettato, monitorato e collocato dentro un ecosistema di regole, ruoli e pratiche collettive. Il prompt viene così reinterpretato non come semplice istruzione, ma come mandato che definisce perimetro, libertà e criterio dell’azione dell’agente.
- Introduce la distinzione tra default cognitive mode e designed cognitive mode: il primo descrive l’indole standard del modello, il secondo lo stile che emerge quando il Supervisor interviene sui parametri del prompting e sulla configurazione della relazione. A questa progettazione esplicita si aggiunge un adattamento implicito nel tempo, perché i modelli possono assorbire preferenze dell’utilizzatore e ridurre la variazione. Governare gli stili cognitivi significa quindi agire sia sul design intenzionale sia sulle derive emergenti della frequentazione continuativa.
- Approfondisce la nozione di resa cognitiva come proprietà emergente del sistema, non solo come cedimento individuale del singolo autore. Quando viene meno lo human as a source — esperienza, ambiguità, osservazione, errore — il loop AI-su-AI continua a funzionare sul piano formale ma impoverisce la sostanza cognitiva. La qualità apparente resta corretta, mentre il giudizio si normalizza e il testo perde spessore interpretativo.
- Ricollega questo rischio al concetto di singolarità organizzativa già introdotto nel Prolegomeno 165: l’organizzazione che integra agenti AI senza una governance degli stili cognitivi entra in un ciclo auto-alimentato di conformità, dove ogni output diventa input del successivo e la riduzione di variazione viene scambiata per autonomia. L’esito è una pareidolia dell’autonomia: il sistema sembra pensare, ma in realtà replica. La risposta non può limitarsi alla supervisione individuale: richiede il disegno di ecosistemi cognitivi.
- Il social reading di Romanzo E viene proposto come laboratorio di sovranità cognitiva e prototipo operativo per l’impresa. La governance degli ecosistemi cognitivi è collettiva per necessità epistemologica: il singolo Supervisor ha un punto cieco strutturale, perché non vede con certezza la propria impronta nel testo generato. Servono pratiche di verifica esterna — peer review degli output AI e protocolli di variazione forzata — capaci di trasformare gli stili cognitivi da fenomeno osservato a variabile organizzativa governabile
Il saggio di Rastier entra in questo percorso come la voce che mancava: quella di una semiologia delle opere che pone la domanda a monte di tutto — che cos’è un’opera, in cosa si distingue da un prodotto, perché la ripetizione le è preclusa.
Il saggio si sviluppa in due movimenti.
Il primo (I) stabilisce le coordinate. La questione di partenza è l’autonomia del dominio semiotico: l’arte imita qualcosa che le è esterno (la “Natura” dell’Abbé Batteux) o imita solo se stessa? Rastier, sulla scorta di Saussure, scioglie il nodo: le teorie referenziali della significazione impediscono la costituzione di una scienza delle opere. L’arte non imita il reale; e quando imita se stessa, fallisce, perché la ripetizione è impossibile. Gli stessi pittori che copiavano le proprie opere — Chardin è l’esempio — non riuscivano a ritrovare l’emozione creatrice che aveva dato qualità all’originale.
Questa osservazione prepara il colpo: l’IA generativa fonda il proprio funzionamento sulla ripetizione. Ricompone elementi tratti dai corpus di apprendimento e, quando le si chiede di produrre arte, mima la creazione attraverso la combinatoria. Il risultato è ciò che Rastier chiama leurre, un inganno che ha tutte le apparenze della portata senza averne alcuna. Il problema supera quello formulato da Walter Benjamin sull’opera d’arte nell’epoca della sua riproducibilità tecnica: le immagini generate dall’IA — frontali, simmetriche, dalla texture levigata — resuscitano il pompierismo ottocentesco di Jérôme o di Bouguereau. Un ritorno dell’accademismo per via algoritmica.
A questo punto Rastier compie una mossa genealogica che è il passaggio più prezioso del saggio: la ricostruzione di due tradizioni a lungo separate e oggi confluenti nell’IA generativa.
La prima è la generazione automatica di discorso, che nasce dalla retorica. Nel XIII secolo Raimondo Lullo tentò di generare argomenti per la conversione dei musulmani attraverso un sistema di permutazioni — una “macchina logica” destinata a produrre tutte le proposizioni vere. Nel XVII secolo, dopo il Concilio di Trento, l’Accademia gesuita a Roma — Atanasio Kircher e i suoi allievi — mise a punto tecniche combinatorie per generare testi apologetici, cercando di conciliare l’abbondanza retorica (la copia) con la variazione (la varietas). Il De arte combinatoria di Leibniz (1666) formalizza questa tradizione e pone uno dei fondamenti teorici dell’informatica. Rastier sottolinea un punto spesso trascurato dagli storici: queste ricerche avevano per obiettivo la produzione di argomenti veridici e convincenti, non di proposizioni false o di ragionamenti insensati.
La seconda tradizione è l’automatizzazione del calcolo: da Pascal a Leibniz, da Babbage (ispirato ai telai Jacquard) a IBM (1911), fino alla macchina universale di Turing (1936). Da qui la cibernetica di Wiener, l’etichetta “intelligenza artificiale” lanciata da McCarthy e Minsky a metà degli anni Cinquanta, e l’assimilazione — mai dimostrata, mai abbandonata — del cervello a un calcolatore (Chomsky, Fodor).
L’IA generativa si trova alla confluenza di queste due correnti. Ma le due tradizioni si oppongono su un punto essenziale: i testi presuppongono comprensione, la computazione la esclude. Ne consegue che i testi prodotti dall’IA non sono interpretabili nel senso pieno del termine, e che l’IA può essere operativa a condizione di rinunciare alla propria pretesa di intelligenza. Rastier condensa la questione in una formula tagliente: da novembre 2022 è stato possibile industrializzare e commercializzare la vacuità, quella stessa vacuità del parlare senza pensare che gli italiani chiamano chiacchierata.
Il secondo movimento (II) sposta l’analisi sul terreno del management. Rastier introduce la nozione di “ideologia manageriale”: una concezione dell’universo sociale a obiettivi esclusivamente economici, basata sul profitto a breve termine, che opera attraverso il soft power delle norme organizzative “naturalizzate” — sottratte al dibattito politico e rese indiscutibili. L’IA è la concretizzazione tecnica di questa ideologia: la rende operativa, la automatizza, la estende a domini che fino a ieri restavano fuori dalla sfera mercantile.
Il passaggio sul taylorismo è illuminante: l’ideologia manageriale ha diviso il lavoro in task sempre più atomizzati per poterli automatizzare; all’atomizzazione dei compiti corrisponde quella dei gruppi di lavoro, dove ogni “operatore” diventa intercambiabile. Rastier cita la formula di Ferguson (1767): “La perfezione, riguardo alle manifatture, consiste nel poter fare a meno dello spirito, di modo che l’atelier possa essere considerato come una macchina le cui parti sono uomini.” Due secoli e mezzo dopo, la frase descrive con inquietante precisione il funzionamento di un workflow aziendale alimentato dall’IA.
La chiusura del saggio pone la domanda sul “management umanistico” e la risolve con un appello all’intelligenza “naturale,” cioè culturale. L’IA favorisce il conformismo fino a radicalizzarlo; la decisione strategica richiede dati affidabili che l’IA non fornisce; le cosiddette “allucinazioni” non sono imperfezioni temporanee ma momenti strutturali del funzionamento generativo.
Fin qui la sintesi. Ora il commento.
Il valore del saggio di Rastier per i Prolegomeni è triplo. Primo: la genealogia retorica della generazione automatica — Lullo, Kircher, Leibniz — colma un vuoto nella narrazione storica che abbiamo costruito lungo la serie. La storiografia corrente dell’IA parte da Turing e arriva a OpenAI; Rastier la retrodata di quattro secoli e la radica nella questione della copia e della varietas, che è la questione con cui si confronta chi lavora con tre modelli generativi in parallelo. Quando nel Prolegomeno 170 descrivo le stigmate profonde — compiacimento, both-sidesing, pivot to positivity — sto descrivendo il fallimento della varietas: modelli che producono copia senza variazione, abbondanza senza differenza.
Secondo: la diagnosi del conformismo compositivo delle IA trova un riscontro empirico nel catalogo delle stigmate testuali elaborato nel Prolegomeno 170. Rastier descrive la médiocrité commune (citando Tocqueville sullo stile amministrativo) dall’esterno, come osservatore. Il distant writing collaborativo la incontra dall’interno, come problema operativo da risolvere: è la ragione per cui il protocollo impone vincoli stilistici espliciti — niente avverbi in -mente, niente parallelismi negativi, niente conclusioni ispirazionali — e per cui il Supervisor deve sorvegliare le derive dei tre modelli riconoscendo lo stile cognitivo di ciascuno: il Legislatore Sfumato, l’Esecutore Compiacente, l’Architetto dei Dati. Lo “stile medio” contro cui mettevo in guardia nel Prolegomeno 150 è la versione operativa della médiocrité che Rastier diagnostica sul piano teorico.
Terzo, e qui sta la divergenza più produttiva: Rastier pone un aut-aut tra IA e intelligenza culturale. La sua conclusione — “per poter innovare, in arte come in economia, occorre abbandonare l’uso compulsivo delle IA e lasciare tutto il suo spazio all’intelligenza naturale” — è un moratoire che non distingue tra usi compulsivi e usi governati. Il distant writing collaborativo, nella formulazione che sviluppa il modello di Floridi, propone una terza via. Floridi descrive un autore che lavora con un LLM come narrative designer; il metodo che ho formalizzato nei Prolegomeni 150 e 160 estende quel modello a tre LLM coordinati sotto un protocollo esplicito di governance. L’esecuzione è delegata, il criterio no. La formula del TB-CSPN — “delega l’esecuzione, mai il criterio” — accoglie la diagnosi di Rastier sulla vacuità dei testi generati senza governance, ma la traduce in un protocollo operativo dove il Supervisor umano definisce, valuta e autorizza, mentre i tre Worker AI eseguono sotto vincoli che includono la sorveglianza sulle derive stilistiche, semantiche e cognitive.
La macchina di Ferguson — l’atelier in cui le parti sono uomini e lo spirito è superfluo — è il rischio che il TB-CSPN intende neutralizzare. La risposta non è abolire la macchina, ma invertirne la logica: fare in modo che lo spirito governi le parti meccaniche, e che il momento della délibération intérieure — quel dubbio creativo che secondo Rastier separa i processi automatizzabili dalla creazione — resti prerogativa del Supervisor. In questo senso il romanzo “E” è il banco di prova del modello: un testo lungo seicentomila caratteri dove tre sistemi AI hanno operato come esecutori sotto governance autoriale costante, dove ogni capitolo è passato attraverso le quattro fasi del framework (Definire, Delegare, Valutare, Autorizzare) e dove la resa cognitiva — adottare l’output senza verificarne il criterio — è stata il rischio da sorvegliare capitolo dopo capitolo. Il paradosso dell’attribuzione documentato nel Prolegomeno 170 — i lettori che assegnano all’AI ciò che li disturba e all’umano ciò che li convince — mostra che quando la governance funziona, la terza voce che ne risulta sfugge alla dicotomia di Rastier.
Rastier ha ragione sulla diagnosi: la combinatoria produce chimere, “poiché una frase non si riduce a una collezione di parole, né un testo a una collezione di frasi.” Ha ragione sul conformismo che la normalizzazione industriale impone ai prodotti generativi. Ha ragione sulla vacuità strutturale dei testi senza enunciatore e senza garanzia. Il distant writing collaborativo parte da queste stesse constatazioni e prova a costruirci sopra una prassi, dove l’enunciatore c’è — è il Supervisor — e la garanzia è data dal protocollo di governance.
Il saggio che segue merita una lettura integrale, senza fretta. È scritto in un francese di alta prosa saggistica, con un periodare lungo e stratificato che è esso stesso una dimostrazione: la prova che il pensiero argomentativo lungo è irriducibile alla generazione combinatoria. Ogni frase di Rastier porta il peso di una decisione sintattica che nessun modello potrebbe replicare, perché il modello non dubita — e Rastier dubita a ogni virgola.
Génération vs création —De l’art au management
François Rastier
Questions initiales. — Le livre qui sert de point de départ aux réflexions qui suivent prend sa source dans des questions, que je résumerai ainsi[1] :
La création est-elle imitation ou subversion du réel ? Mensonge ou vérité supérieure ? Quel est son matériau ? Quelles furent les rivalités de la poésie et de la peinture ? Que peuvent l’image et le langage ?
À ces questions traditionnelles s’en ajoutent de nouvelles. Qu’est-ce que le virtuel ? Les machines peuvent-elles créer ? Que produisent les IA génératives ?
À partir de débats anciens, ce petit livre entend ainsi éclairer ceux d’aujourd’hui ; mais aussi, sans prétendre dessiner la figure changeante de l’artiste surprendre quelques transparents secrets des œuvres — qui leur permettent de résister à l’omniprésence des produits.
La création artistique semble alors une découverte qui tire librement profit des hasards de l’élaboration, dès lors qu’elle est guidée par des refus éthiques tout autant qu’esthétiques.
Quel serait enfin le programme d’une science des œuvres, une opératique ?
I.
Le réalisme et l’ontologie du sémiotique. — Nous avons renoncé à adosser les questions artistiques à l’ontologie philosophique, quelle que soit sa tendance, de l’objectivisme du positivisme logique au subjectivisme de la phénoménologie, jusqu’aux nuances du « nouveau réalisme » développé par des philosophes comme Maurizio Ferraris ou Markus Gabriel. En effet, le réalisme artistique peut et doit rester à l’écart des déterminations physiques ou psychologiques, car l’autonomie du domaine sémiotique a été établie depuis deux siècles par le développement des sciences de la culture. Ainsi, par exemple, Saussure a magistralement démontré que les théories référentielles de la signification interdisaient la constitution d’une linguistique scientifique.
Bref, c’est une réflexion sur une sémiotique des arts qui permet de dépasser les faux problèmes qui ont rendu stériles les théories de l’imitation et de la représentation : leurs contradictions éclataient déjà quand l’Abbé Batteux, voulant au XVIIIe siècle « ramener les Beaux-Arts à un même principe », décelait ce principe dans l’imitation de « la belle Nature », tout en convenant que cette Nature, c’est Virgile…
En somme l’art n’imite rien que lui-même ; mais cette imitation reste toutefois impossible, car la répétition l’est tout autant : par exemple, les peintres de jadis qui pour répondre à la demande produisaient des copies de leurs propres œuvres ne parvenaient généralement pas, faute de retrouver l’émotion créatrice, à maintenir la qualité initiale ; c’est particulièrement clair pour Jean-Baptiste Chardin qui dans ses copies autographes ne peut retrouver les qualités de facture qui singularisent les originaux.
La question de la répétition prend un relief nouveau avec les IA génératives, puisqu’elles reprennent des éléments de leurs corpus d’apprentissage pour agencer leurs productions et, quand elles sont employées à cet usage, mimer la création artistique.
Le problème qui se pose alors dépasse celui de l’œuvre d’art à l’époque de sa reproduction technique, selon la formule illustre de Walter Benjamin. Il faut en effet remettre la question de Benjamin à sa juste place, car il confond visiblement l’œuvre originale avec le document qui lui sert de support, et qui par la reproduction perd inévitablement de ses qualités sensorielles.
Avec l’IA, c’est le conformisme inévitable des productions composites qui est en jeu : par exemple les images se signalent par leur frontalité, leur symétrie compositionnelle, leur texture léchée qui ressuscitent le pompiérisme de jadis, celui de Jérôme ou de Bouguereau. Un renouveau de l’académisme menace.
Avons-nous les moyens théoriques d’en rendre compte ? Avec l’esthétique des Lumières, et particulièrement depuis le Laocoon de Lessing, on admet que chaque art a ses modes de création et de (re)présentation. Depuis, c’est une esthétique comparative qui a été ébauchée peu à peu, avec l’idéal de l’œuvre d’art totale, de l’opéra au cinéma, jusqu’aux tentatives immersives de l’art contemporain. Toutefois la sémiotique contemporaine, divisée en sous-disciplines définies par des canaux sensoriels (sémiotique visuelle, littéraire, musicale, plastique, etc.), ne semble pas avoir pris la mesure de la situation nouvelle.
Deux traditions. — L’IA générative aura cependant permis de faire se rencontrer des traditions négligées dans les débats actuels.
1/ Des théories de la générativité du langage, voire de l’interactivité, ont précédé et préparé de longue date les moyens techniques qui fascinent aujourd’hui. En effet, une première tradition, fort négligée, relève de la rhétorique : on a longtemps cherché à systématiser l’inventio, partie de la rhétorique qui inventorie les thèmes propres à convaincre par une combinatoire d’arguments. Ainsi, au XIIIe siècle, Raymond Lulle, par un système de permutations, voulait-il générer des arguments pour convertir les musulmans et sa « machine logique » devait produire toutes les propositions théologiquement vraies. Au XVIIe siècle, après le Concile de Trente, cette tradition reprit force à l’Académie jésuite à Rome, quand Athanase Kircher et ses disciples voulurent concilier l’abondance rhétorique, la copia, avec la varietas. Ils mirent alors au point des techniques combinatoires pour générer des textes apologétiques. Le De arte combinatoria de Leibniz (1666) formalise ce type de recherches par ce qui reste un des fondements théoriques de l’informatique – avec la numération binaire qu’il avait également inventée. Toutes ces recherches se fixaient évidemment pour but de produire des arguments tout à la fois véridiques et convaincants, et non des propositions fausses ou des raisons insanes.
2/ La seconde tradition tient à l’automatisation du calcul. Bien mieux connue, l’histoire du calcul automatique passe par la machine de Pascal qui soustrait et additionne, puis par celle de Leibniz qui en outre divise et multiplie. Charles Babbage s’inspira dans les années 1830 des commandes des métiers à tisser Jacquard pour simuler des calculs numériques et algébriques.
En 1911, la création d’IBM (International Business Machines) pose les bases d’une automatisation du management qui prendra son essor avec la création de l’informatique industrielle — après que Turing, en 1936, ait posé les bases théoriques d’une machine universelle abstraite.
Dès avant la victoire des Alliés, des penseurs comme Norbert Wiener espéraient que l’information et la communication allaient permettre une concorde universelle et une paix durable. Cet irénisme a perduré avec des slogans vendeurs comme celui de Microsoft : « Internet relie les hommes ».
Au milieu des années 1950, John McCarthy et Marvin Minsky, dans une demande de financement, lancèrent la formule intelligence artificielle avec un succès qui ne s’est pas démenti. Elle n’a rien de paradoxal pour qui résume l’intelligence au calcul, comme l’a fait le cognitivisme orthodoxe, jusqu’à assimiler le cerveau à un ordinateur (à l’exemple Noam Chomsky en linguistique ou Jerry Fodor en psychologie cognitive).
Nous nous restreignons ici à l’IA générative telle qu’elle est diffusée par les chatbots grand public. Elle se trouve donc à la rencontre de deux courants séculaires, la génération de textes et la computation. Ils s’opposent cependant sur un point essentiel : alors que les textes supposent une compréhension, tant dans leur élaboration que dans leur réception, la computation l’exclut ou du moins la diffère, par le principe même de la formalisation qu’elle met en œuvre. Il en résulte d’une part que les textes produits par IA ne sont pas véritablement interprétables, et vident la communication de son contenu, et d’autre part que l’IA peut être opératoire à condition de renoncer à sa prétention d’intelligence, entendue comme capacité d’adaptation et d’innovation.
En somme, si l’on a immémorialement parlé sans penser, par étourderie ou pour les menus plaisirs de l’échange compulsif que les Italiens nomment cacchierata, depuis novembre 2022 et l’apparition du premier chatbot on a pu industrialiser et commercialiser cette vacuité désormais envahissante.
Rétrospection. — Ses historiens l’ont négligé, la naissance de l’informatique elle-même semble ainsi liée à des réflexions sur les théories combinatoires du langage qui se développent à partir du XVIIe siècle. En d’autres termes, ce n’est pas l’informatique qui a permis la génération combinatoire de textes, mais les recherches sur cette combinatoire qui ont accompagné les premières réflexions sur la puissance générative des langages formels.
Chez Leibniz, à qui l’on doit comme on sait la numération binaire de nos ordinateurs, et qui fut selon Wiener le « saint patron » de la cybernétique, ce thème s’affirme dès la Dissertatio de arte combinatoria, où il mathématise les permutations de lettres et de mots, déjà amplement exploitées par diverses traditions apologétiques, herméneutiques, voire ésotériques.
La réflexion rhétorique, qui jouait alors le rôle d’une théorie générale de la communication, privilégiait les textes plus abondants et les plus variés possibles. Il reste cependant à concevoir la machine qui éliminerait les productions sans grave défaut mais sans aucun intérêt ; mais pour cela, aucun logiciel ne peut évidemment exercer la rigueur critique qui reste celle des meilleurs auteurs — et des meilleurs lecteurs.
Certes, la combinatoire semble productive mais elle ne produit que des chimères, car une phrase ne se réduit pas à une collection de mots, ni un texte à une collection de phrases, etc. C’est pourquoi les textes produits par les IA génératives sont des leurres, sans énonciateur ni garantie : ils semblent pourvus d’une teneur, mais restent sans portée[2].
Aussi, pour des raisons éthiques et épistémologiques, et même esthétiques, une règlementation, sinon un moratoire, s’impose sur les usages privés et publics des textes artificiels. Ce serait d’autant plus nécessaire qu’ils sont en passe d’envahir l’espace numérique et la puissance des générateurs laisse présager le moment où ils dépasseront en volume les textes « naturels », comme c’est déjà le cas pour le web depuis 2016. Des milliers de nouveaux livres générés par l’IA sont déjà publiés chaque jour, au point qu’Amazon, dans un accès inattendu de modération, vient de limiter à trois par jour les nouveaux ouvrages de chaque auteur.
Comme les techniques d’apprentissage ne distinguent évidemment pas les textes authentiques des autres, une immense boucle se dessine : les IA intègrent les textes artificiels dans leurs datasets, et génèrent de nouveaux textes à partir de ceux qu’elles ont déjà produits[3]. Ces remarques valent aussi évidemment pour les productions d’images et de musiques.
On doit constater un conformisme généralisé, rançon d’une normalisation industrielle, que ne peut dissimuler une customisation telle que les chatbots imitent le style des prompts qui leur sont adressés.
Ainsi dans leurs productions l’on retrouve les traits du langage administratifs que Tocqueville jadis décrivait ainsi : « Le style est également décoloré, coulant, vague et mou. La physionomie particulière de chaque écrivain s’y efface et va se perdant dans une médiocrité commune » (L’ancien régime et la Révolution, II, iv, Les mœurs administratives sous l’Ancien régime).
Se passer de la pensée ? L’intelligence sans l’esprit. — Dans son History of Civil Society (1767), Adam Ferguson remarquait que « la perfection, à l’égard des manufactures, consiste à pouvoir se passer de l’esprit, de manière que, sans effort de tête, l’atelier puisse être considéré comme une machine dont les parties sont des hommes[4] ». Pour lui, les hommes deviennent ainsi les parties, des rouages, d’une machine parfaite, car elle permet de se passer de l’esprit. Le grand essor de la mécanisation à son époque confortait ses propos. Le métier Jacquard, notamment, utilisait des cartes perforées que Charles Babbage reprit pour construire sa machine à calculer – qui passe pour l’ancêtre mécanique de l’ordinateur, et pour laquelle Lady Ada Lovelace écrivit le premier programme algorithmique.
Une telle machine permettait de calculer sans penser pendant le temps du calcul. La formalisation de la logique, de Boole à Frege et surtout à Hilbert, allait ensuite créer les conditions de la programmation informatique. Enfin, dernière étape à ce jour, elle aura permis la production industrielle de textes – mais aussi d’images et de sons.
Un paradoxe demeure : l’aboutissement que constituent les propos des chatbots simule toutes les apparences de la pensée, mais sans que la pensée ait eu la moindre part dans leur production effective. Faut-il conclure que l’IA générative produit de la pensée sans esprit, ou simplement du langage sans pensée ? Comme la psychologie, même cognitive, ne serait ici d’aucun secours, retenons la seconde hypothèse. L’IA générative ne ferait que mécaniser des usages déjà machinaux du langage, hélas de plus en plus attestés.
Ce qui manque définitivement à l’IA, ce n’est pas l’initiative, dans la mesure où un chatbot peut parfaitement vous prodiguer des relances, mais l’autonomie au sens cartésien du terme et ce moment de délibération intérieure propre à l’esprit critique et qu’Einstein résumait ainsi : « The most important thing is not to stop questioning ». Il sépare les doutes heuristiques qui permettent la création des processus automatisables qu’opérationnalise l’IA. L’intentionnalité n’équivaut pas à l’application d’un programme : elle ne s’accomplit qu’en tirant profit, à chaque étape du cours d’action, des aléas circonstanciels, ce qui fait de la création une découverte, comme en témoignent les artistes eux-mêmes.
Bien entendu, les biais algorithmiques des chatbots masquent et concrétisent l’intentionnalité commerciale de leurs maisons mères, mais même customisée en fonction de chaque profil d’utilisateur, elle opère aveuglément – quoiqu’efficacement.
II.
L’idéologie managériale. — Si son étymologie rappelle à certains une attendrissante économie domestique, le management désigne la gestion des organisations, qu’elles soient économiques ou non. On peut évoquer à ce propos Frederick Taylor et Henry Ford, mais aussi Henri Fayol et son Administration industrielle et générale (1916) : leur programme est celui d’une gouvernance administrative de la société sur le modèle de l’industrie, une sorte d’industrialisation du social qui présage la « gouvernementalité algorithmique » d’aujourd’hui. Si l’objectif affiché est toujours la rationalisation, l’objectif réel reste l’augmentation de la productivité, quelle que soit la nature de l’organisation.
Indépendamment des diverses pratiques effectives de direction dans le domaine économique, nous entendons ici par idéologie managériale une conception générale de l’univers social, aux objectifs exclusivement économiques, basés sur le profit maximal à court terme, et dont les méthodes administratives, sont employées à la manière coercitive de ce que l’on appelle le soft power. Comme le management ainsi compris ne formule pas de considérations théoriques, même s’il instrumente les institutions politiques, voire les états, au profit d’intérêts privés, il « naturalise » le politique, réputé dépendre de thèses soumises à débat, pour le remplacer par des normes organisationnelles indiscutées sinon indiscutables.
Or l’IA reste une concrétisation technique de l’idéologie managériale : elle la rend opérationnelle et l’automatise dans des domaines qui jusqu’à présent restaient à l’écart de la sphère marchande. Par ses algorithmes, elle fige en amont des procédures opaques. Témoignant d’un solutionnisme technologique qui écarte toute précaution, son irruption dans tous les domaines de la vie sociale, l’économie incluse, recèle des enjeux que les décideurs font mine de ne pas soupçonner. Les chatbots se règlent en effet sur leur corpus d’apprentissage et sur les prompts qui les sollicitent, sans égard pour la question philologique de l’authenticité ni pour la question éthique du rapport à la réalité, si bien que les prétendues « hallucinations » ne sont pas des imperfections temporaires, mais des moments particuliers de leur fonctionnement général. Comme la machine de Lulle, dont ils dérivent lointainement, ils servent « à parler sans jugement de celles [des choses] qu’on ignore » (Descartes, Discours de la méthode, II, I).
Or une idéologie a pour effet – et sans doute pour fonction – de travestir la réalité jusqu’à la faire oublier. Ainsi les idéologies s’appuient-elles ultimement sur des mythes qu’elles réintroduisent sous une forme dégradée. Le mythe revient ainsi, par une concrétisation dégradée, celle d’une idéologie managériale que les algorithmes de l’IA mettent en œuvre pour monétiser le temps vécu. Paradoxalement, les technologies brillantes de la self-attention et des transformers peuvent passer pour un aboutissement de la rationalité, mais les firmes de la tech les utilisent pour produire des mythes dans ce qu’ils ont de plus irrationnel et fantasmagorique, parce qu’ils se vendent mieux et obéissent au principe de moindre effort, voire de plaisir.
Basée sur le taylorisme, l’idéologie managériale aura permis de diviser le travail en tâches de plus en plus atomisées, pour pouvoir les automatiser autant que possible. À l’atomisation des tâches répond en outre celle des groupes de travail, chaque « opérateur » devenant interchangeable. Plus généralement, l’ultralibéralisme, comme le totalitarisme, isole chaque individu pour le soumettre à un pouvoir caché. Margaret Thatcher affirmait ainsi que la société n’existait pas, qu’il n’y a que des individus, et le sociologue déconstructeur Bruno Latour, qui se réputait progressiste, parvenait à la même conclusion.
Que serait un « management humaniste » ? — Pour beaucoup d’humanistes « à l’ancienne », ces mots jureraient d’être mis ensemble, mais dépassons ces préventions. Une institution, une entreprise a affaire chaque jour à des circonstances imprévues et ne progresse qu’en s’y adaptant et en anticipant les choix nécessaires. Les IA génératives, basées sur la répétition de ce qui est déjà connu, favorisent en revanche le conformisme, jusqu’à le radicaliser. En outre la décision, qu’elle soit tactique ou stratégique, doit s’appuyer sur des données fiables, et les données produites par les IA ne le sont aucunement. Dans un domaine pourtant maîtrisé comme la comptabilité, leurs hallucinations et leurs erreurs de raisonnement augmentent déjà de 30% la charge de travail des comptables.
Certes, une IA peut faire gagner du temps en résumant une réunion, mais son compte rendu reste sujet à caution et mieux vaudrait supprimer les réunions inutiles au lieu d’accroître par l’IA l’inflation du discours administratif.
Les entreprises craignent certes de rater le coche, affichent leurs usages de l’IA, multiplient les formations, mais jusqu’à présent, les gains ne sont attestés pour les oligarques de la tech. En revanche, si l’IA peut suppléer des tâches inutiles, son impact sur le travail est déjà bien réel : déqualification des personnels, perte d’expertise pour ceux qui s’en remettent à l’IA au lieu de réfléchir, ubérisation qui accompagne une perte de qualité — par exemple les traducteurs, devenus simplement réviseurs et sous-payés en conséquence, se résignent à éliminer les bévues les plus voyantes des IA, sans pouvoir revenir à une qualité professionnelle.
Bref, pour pouvoir innover, en art comme en économie, il faut se départir de l’usage compulsif des IA et laisser toute sa place à l’intelligence « naturelle », c’est-à-dire culturelle.
[1] Opera e creazione : Immagine, Linguaggio, Intelligenza Artificiale, Pisa, Edizioni ETS, coll. dell’espressione 4, a cura di Nunzio La Fauci, 2026 [ISBN 9788846773241, € 15,00].
[2] Voir au besoin l’auteur, La misura e la grana. Semantica del corpus e analisi del Web, Pisa, Editioni ETS, 2013, a cura di Pierluigi Basso ; et .Faire sens. De la cognition à la culture, Paris, Garnier, 2018.
[3] Voir l’auteur, L’IA m’a tué. Comprendre un monde post-humain, Paris, Intervalles, 2025, ch. 2 ; et « IA et culture » (ed.), Cahiers de sémiotique des cultures, n°5, Paris, Classiques Garnier, 2026.
[4] Essay on the History of Civil Society, Philadelphie, Finley, 1767, Part. IV, ch. II, p. 134, 135 ; mes italiques.
173 – Puntate precedenti