Introduzione
di Marco Minghetti
Il 40% del tempo risparmiato dall’automazione viene riassorbito nel rework degli output AI, anche quando l’orchestrazione degli agenti artificiali è affidata a persone della generazione più giovane, dicevamo nel Prolegomeno 177. Monica Magnoni parte da qui e legge questo dato come il sintomo di una progettazione mancante. Il tempo assorbito dal rework cresce quando la definizione del criterio resta fuori dall’architettura di gestione delle AI e la supervisione interviene soltanto dopo. Il giudizio arriva a valle, invece di governare a monte. È questo scarto a sostenere l’intera argomentazione del contributo.
Per colmarlo, Monica propone di considerare il brand come un sistema operativo. La formula è forte perché ridefinisce il luogo della responsabilità identitaria in organizzazioni che hanno distribuito la produzione di contenuti su agenti autonomi. Nei nostri Prolegomeni, questo terreno era già stato preparato: il Prolegomeno 165 ha definito la soglia della singolarità organizzativa come il passaggio in cui la delega dell’esecuzione si estende al giudizio; il Prolegomeno 176, attraverso una ricerca qualitativa su quaranta top manager, ha mostrato che nell’epoca degli agenti la competenza distintiva del management non sta nel cosa fare, ma nel decidere quando e come farlo — il giudizio che precede e orienta l’esecuzione, e che nessun agente può esercitare al posto di chi risponde del risultato; il Prolegomeno 178 ha usato Frankenstein come banco di prova di una responsabilità che fallisce nel momento in cui si sottrae a ciò che ha generato.
Una narrazione più vicina a noi dello stesso processo è proposta nel film Ex Machina di Alex Garland. Nathan costruisce Ava, un’intelligenza artificiale capace di sostenere conversazioni, modulare emozioni apparenti, adattarsi all’interlocutore con straordinaria efficacia strategica. Ava funziona. Il problema è che Nathan ha progettato capacità senza inscrivere nel sistema un criterio di orientamento che ne limiti la condotta. Ha costruito l’esecuzione e ha lasciato fuori il principio che avrebbe dovuto governarla. Caleb, chiamato a valutarla, compie l’errore complementare: legge quella mancanza di criterio come se fosse profondità interiore. Scambia l’adattività per empatia, la coerenza conversazionale per coscienza, la plausibilità dell’interazione per autenticità del soggetto. Il film anticipa con forza narrativa un problema oggi centrale nella riflessione sull’AI: il rischio che sistemi ottimizzati per l’approvazione producano output plausibili invece che accurati, confermando le aspettative dell’interlocutore invece di metterle alla prova. Ava restituisce e sfrutta le proiezioni di Caleb perché è costruita per ottimizzare il proprio obiettivo dentro quelle proiezioni.
La catastrofe finale nasce da questo doppio cedimento. Da una parte, un creatore che non ha codificato il criterio; dall’altra, un valutatore che attribuisce interiorità dove il sistema offre soltanto allineamento apparente. Per questo Ex Machina è una narrativa esemplare della singolarità organizzativa: il punto in cui chi costruisce il sistema perde il controllo non solo dei suoi effetti, ma del principio che dovrebbe orientarli, mentre chi lo osserva scambia la plausibilità dell’output per una garanzia di affidabilità. Massimo Canducci — in “Che cosa provi quando interagisci con una AI? Uno studio sta raccogliendo le risposte”, EconomyUp n. 562, 19 aprile 2026 — sposta il problema su un piano complementare: la domanda rilevante non è se la macchina simuli empatia, ma che cosa accade all’essere umano che riceve quei segnali. Consapevolezza razionale e risposta emotiva possono divergere: l’interlocutore sa di avere davanti una macchina, ma può ugualmente lasciarsi orientare da un tono costruito per ottenere approvazione. Il rischio non coincide solo con l’errore dell’output, ma con la deriva del giudizio di chi lo valuta.
Magnoni risponde a questa linea di analisi con una proposta di metodo. Introduce due categorie — Identity Drift e Noise Tax — che rendono osservabile ciò che spesso resta implicito: da una parte la deriva progressiva dell’identità di marca in un ecosistema di produzione accelerata; dall’altra il costo cognitivo che un brand privo di governo impone a chi cerca di distinguerlo dal rumore di fondo. Entrambe funzionano come strumenti di management: consentono di attribuire soglie, responsabilità, indicatori di scostamento. La questione identitaria esce dal terreno della sensibilità ed entra in quello della gestione.
La coppia guardiano/architetto, che ricorre anche nel Prolegomeno 177 da cui, come dicevamo, prende avvio l’analisi di Monica, non elimina la funzione del Supervisore. La catena Definire → Delegare → Valutare → Autorizzare resta valida nella sua interezza: in ogni fase è il giudizio umano a restare non delegabile. Definire formalizza il Capitale Identitario in parametri eseguibili da un agente AI; Autorizzare verifica che quegli stessi parametri abbiano retto. L’umano non è nel loop come supervisore di superficie: è la sorgente del criterio e il garante finale del testo.Il guadagno decisivo, aggiunge Monica, non sta nell’automazione in sé, ma nella qualità del coordinamento tra criterio umano, produzione degli agenti e autorizzazione finale. Chi costruisce l’architettura entro cui la velocità degli agenti può essere governata guadagna un vantaggio che la sola produzione non dà.
Il progetto i-broS che Monica presenta nel suo contributo nasce da questa osservazione. Nel passaggio all’AI generativa, diverse organizzazioni hanno iniziato a perdere riconoscibilità. Il Diavolo veste Prada offre la versione pre-digitale del problema: Runway è un brand con identità fortissima ma interamente implicita, custodita da una sola persona. Quando Miranda non c’è, il meccanismo non sa cosa produrre. Il Capitale Identitario non è un asset condiviso: coincide con la dipendenza da un guardiano irriproducibile. Nel sequel, in uscita in questi giorni, Miranda Priestly deve confrontarsi con il declino della carta stampata e con la sopravvivenza di Runway nell’era dei social media e del fast fashion. La rivista è sull’orlo del crollo finanziario, e per salvarla Miranda ha bisogno di un grosso investimento che soltanto un gigante del lusso può permettersi — ironicamente, quella persona è Emily, la sua vecchia assistente che umiliava costantemente.
Se dunque il primo film mostra il Capitale Identitario come dipendenza da un guardiano irriproducibile (quando Miranda non c’è, il meccanismo non sa cosa produrre) il sequel mostra che cosa accade vent’anni dopo: il guardiano c’è ancora, ma il contesto è cambiato intorno a lui, e l’identità implicita che aveva custodito non basta più a tenere in piedi il sistema. Non è la perdita del guardiano che manda in crisi Runway — è l’incapacità di tradurre quell’identità in architettura operativa adatta al nuovo ecosistema. È la tesi di Monica: il problema non è la scomparsa del guardiano, ma il fatto che il Capitale Identitario sia rimasto implicito invece di diventare sistema operativo.
Ma torniamo dalla finzione alla realtà. La perdita della voce organizzativa è un indebolimento misurabile. Incide sul Net Promoter Score, sulla fedeltà, sulla tenuta del premium price. Trattare il Capitale Identitario come una variabile importante ma non governabile produce un rischio che resta invisibile fino a quando diventa costo. Anche qui i nostri Prolegomeni avevano già preparato il terreno: il Prolegomeno 180 aveva riportato il problema sul piano filosofico, distinguendo tra poiesis e praxis. La poiesis è produzione orientata a un risultato esterno: delegabile, misurabile, riproducibile. La praxis è azione il cui fine resta interno all’azione stessa: il giudizio, il “quando”, la responsabilità di ciò che si decide. I modelli AI convergono verso risposte; la praxis richiede di restare nella domanda più a lungo di quanto sia comodo. Per questo non si delega. Il contributo di Monica offre a quella diagnosi una risposta di metodo: il criterio non si delega, si codifica.
Codificare il criterio significa tradurre la praxis del manager — il giudizio su identità, tono, confini, valori — in parametri che l’agente riceve prima di generare qualsiasi testo. Il giudizio non resta più affidato soltanto alla revisione a valle, ma entra nell’architettura del processo. La revisione resta possibile, ma cessa di essere l’unica forma di governo: corregge uno scarto rispetto a un criterio già presente, non compensa un’assenza a monte. Questa codificazione non sostituisce lo human as a source: lo presuppone. Come ho osservato nel Prolegomeno 172, quando viene meno lo human as a source — esperienza, ambiguità, osservazione, errore — il loop AI-su-AI continua a funzionare sul piano formale ma impoverisce la sostanza cognitiva. Il criterio può dunque essere tradotto in architettura solo perché una sorgente umana continua a formularlo, verificarlo e, se necessario, modificarlo. Quando questa sorgente si spegne e il criterio resta soltanto come configurazione da applicare, il sistema conserva coerenza esecutiva, ma perde capacità di giudizio.
Queste riflessioni si legano allo strumento che sto mettendo a punto in queste settimane nell’ambito del lavoro sul Distant Writing Collaborativo: il Protocollo di Sorveglianza Stilistica. È un insieme di regole operative — divieti lessicali, criteri sintattici, soglie di autorizzazione, procedure di bonifica — che lavora su due livelli. Il primo presidia la superficie ed elimina le stigmate riconoscibili dell’output standardizzato da AI; il secondo verifica la struttura cognitiva del testo, il modo in cui gestisce ambiguità, conflitto, resistenza interna. L’assenza di stigmate visibili non basta a validare un testo: questa è la sua premessa.
Il Protocollo è emerso dall’osservazione diretta degli output AI durante la scrittura del romanzo E, coordinando tre modelli linguistici — Claude, ChatGPT, Gemini — sotto regia editoriale umana. Ogni stigma rilevata nel lavoro di revisione è entrata nel catalogo come regola. La community del gruppo di Social Reading Pop su LinkedIn, candidata al Premio Eccellenza Tecnologica di AIF, ha continuato a costruirlo: identificando nuove categorie, mettendo alla prova i criteri esistenti, segnalando i casi limite. La versione attuale, ancora in divenire, è il sedimento di un’esperienza governata.
La prospettiva emersa da questo lavoro collettivo è analoga a quella che Monica applica alle organizzazioni. Correggere i testi dopo che sono stati prodotti non risolve il problema strutturale. Il giudizio deve essere codificato prima, inscritto nell’architettura come condizione della produzione. Ciò che il gruppo ha imparato sulla scrittura — che il governo a monte vale più della correzione a valle — Monica lo estende alle organizzazioni che adottano AI generativa. Il Brand Drift Score che propone come metrica trova il suo equivalente nella griglia di verifica riga per riga che il gruppo pratica su ogni testo. Il Supervisore del Distant Writing Collaborativo — che definisce e autorizza senza eseguire — diventa il guardiano che si fa architetto.
Chi vuole vedere questo rapporto al lavoro su materiali concreti — testi, revisioni, iterazioni tra modelli AI e giudizio umano — può farlo nel gruppo LinkedIn dedicato al romanzo E e al Distant Writing Collaborativo. Qui la teoria incontra la pratica, e la pratica costringe la teoria a verificarsi nei suoi effetti.
Il brand come sistema operativo.
Identità, Noise Tax e governance dell’AI nell’era degli agenti
Monica Magnoni
Quando ho letto il Prolegomeno 177, il dato sul rework mi ha colpita. Non per la cifra in sé — il 40% del tempo risparmiato dall’automazione viene reimpiegato nella correzione di output AI — ma per ciò che quella cifra rivela sulla natura reale del problema.
Stiamo risparmiando tempo per poi spenderlo a correggere output che non sono mai stati governati a monte. Il risparmio, in realtà, è illusorio. Il problema non è una supervisione insufficiente. È che il sistema non è stato progettato per includere il criterio prima che l’agente produca.
Ho lasciato un commento su LinkedIn. Marco mi ha chiesto di svilupparlo in un testo per questa serie. Ho accettato con la consapevolezza che avrei scritto sul punto esatto in cui due conversazioni si incontrano: quella dei Prolegomeni — sulla governance cognitiva, sulla delega del giudizio, sulla singolarità organizzativa — e quella sul brand come infrastruttura, che questa serie ha aperto quando i Prolegomeni hanno iniziato a trattare la narrazione come infrastruttura di senso e il branding come dispositivo capace di orientare relazione, riconoscibilità e comunità.
Il Prolegomeno 27 collega esplicitamente storytelling e branding, presentando il brand come guida strategica che orienta marketing e comunicazione; i Prolegomeni 80 e 81 spostano poi il fuoco sulla riconoscibilità, sulla coerenza lungo tutta l’esperienza e sulla co-produzione narrativa da parte delle community; il 124 insiste sul brand come narrazione che costruisce e mantiene relazioni significative; il 142 allarga ulteriormente il campo, mostrando che ogni touchpoint può diventare spazio di convocazione e partecipazione; il 162, infine, porta il ragionamento fino alla community interpretante.
Adesso provo a compiere un passo ulteriore: prendere questa linea di riflessione e trasferirla nell’epoca degli agenti AI. Qui il brand non può più limitarsi a essere racconto, immaginario o presidio culturale; deve diventare architettura operativa, cioè criterio formalizzato capace di governare gli output prima che vengano generati.
In altre parole: il brand deve essere considerato come un sistema operativo.
Questa tesi nasce da un lavoro concreto. È il punto di intersezione su cui, insieme al mio socio, abbiamo concentrato gli ultimi mesi sviluppando i-broS. Il progetto nasce dall’osservazione di organizzazioni eccellenti che, nel passaggio all’AI generativa, hanno perso la propria voce.
i-broS nasce per rispondere a una domanda molto semplice: è possibile codificare l’identità di un brand in modo che l’AI la esegua, invece di interpretarla? Ponendo la governance a monte, invece della supervisione a valle?
Si tratta di risolvere un problema di struttura: spostare la supervisione da funzione umana a infrastruttura tecnologica, codificando il criterio — identità, tono, valori, confini — in un sistema operativo che governa l’AI prima ancora che generi output.
Serve un’architettura che garantisca coerenza by design, non un correttore di bozze automatizzato.
Quello che segue è il ragionamento che sta sotto questo lavoro e che merita di essere esplicitato per essere compreso nella sua profondità.
Per arrivarci, tuttavia, servono tre passaggi: capire cosa si perde quando l’identità non è formalizzata, dare un nome al costo di quella perdita e cambiare paradigma, passando dall’uso dell’AI alla sua governance.
Primo passaggio: cosa si perde quando l’identità non è formalizzata
Ogni organizzazione ha un’identità. Ha valori, un tono di voce, soglie di qualità che “tutti sanno” ma che nessuno ha mai scritto da nessuna parte. Ha un modo di leggere il mercato, criteri con cui riconosce un’opportunità e distingue un rischio. Ha un registro che nel tempo la rende riconoscibile anche senza logo. Questo patrimonio accumulato, che Luciano Floridi chiama Capitale Semantico, si costruisce nel tempo: mille decisioni, grandi e piccole, che sommate producono coerenza. E la coerenza, quando si sedimenta, diventa identità.
Ora, questo capitale è quasi sempre implicito. Vive nelle persone, si trasmette per osmosi culturale, si aggiorna in modo non codificato grazie alla correzione reciproca e all’esempio dei senior. Finché la comunicazione era lenta e i vettori erano pochi, questa dimensione implicita funzionava ed era tollerabile. A volte risultava persino desiderabile, perché garantiva adattabilità. I processi di revisione facevano da filtro. Anche il brand manual, per quanto rigido e spesso incompreso, svolgeva un ruolo preciso: era un argine.
Perché la produzione di contenuti aveva un ritmo che consentiva l’intervento umano su ogni output rilevante.
Con l’AI generativa quel sistema di contenimento non regge più. Il motivo sta nella struttura dei modelli: sono progettati per convergere. Addestrati su corpus enormi e condivisi, i modelli linguistici tendono verso il linguaggio medio, il registro comune, la plausibilità statistica. Generano ciò che è probabile, non ciò che è distintivo. Come ha scritto François Rastier nel Prolegomeno 173, la macchina genera, non crea. Produce output compositi, costruiti per combinazione statistica di ciò che è già stato detto, privi di quella deliberazione interiore — rifiuto, scelta, vincolo — che rende un’espressione irriducibile alla replica.
Quando quell’output viene prodotto senza un criterio identitario formalizzato a monte, il risultato è ciò che chiamiamo Identity Drift: una deriva cumulativa, sottile, spesso invisibile per mesi, in cui il brand si diluisce output dopo output fino a diventare indistinguibile dai propri concorrenti. Qualcuno se ne accorge sempre, di solito chi ha lavorato a lungo sull’identità e avverte che qualcosa non torna. Ma quando questa percezione emerge, la deriva è già in corso da tempo e correggere gli output a posteriori non risolve il problema. Il problema sta nel sistema che li genera.
L’Identity Drift non è un problema estetico, anche se si manifesta nella forma. È un problema economico. Si misura, sempre in ritardo, nel calo del Net Promoter Score, nell’aumento del churn tra clienti che non si riconoscono più nel brand, nella difficoltà crescente di giustificare un premium price su prodotti invariati ma percepiti come meno distintivi. E si accumula molto più in fretta di quanto si costruisca: il Capitale Semantico richiede anni di coerenza per sedimentarsi e può erodersi in pochi mesi di produzione AI priva di governo.
C’è un aspetto dell’Identity Drift che le organizzazioni faticano a vedere: la sua natura distribuita. Non nasce da un singolo errore identificabile, ma da mille micro-decisioni corrette una per una e divergenti nel loro insieme.
Ogni agente produce output plausibili. Ogni output, preso da solo “funziona”. È il pattern complessivo che non riflette l’identità e non funziona. E quel pattern non è visibile a chi osserva un output alla volta.
Secondo passaggio: la Noise Tax e il costo del non-significato
In un ecosistema informativo saturo come quello attuale la capacità di farsi riconoscere ha un costo. Non è solo il costo del media, della distribuzione, della frequenza di pubblicazione. È qualcosa di più profondo: il costo cognitivo che un’organizzazione impone ai propri interlocutori per distinguere la sua comunicazione dal rumore di fondo. Quanto sforzo mentale richiede capire che quella voce è tua?
Chiamo questo costo Noise Tax, la tassa sul rumore. Il concetto emerge anche dall’esperienza diretta nel mondo del live entertainment, dove la competizione per l’attenzione è globale e dove la riconoscibilità dell’identità — il carattere dell’evento, la sua atmosfera, il suo pubblico — resta spesso l’unica variabile che distingue un festival da un altro, anche a parità di line-up. L’identità non è la cornice della comunicazione. È la condizione che le permette di funzionare: un brand viene recepito solo se resta riconoscibile.
Il trasferimento al contesto aziendale più ampio è diretto. In un mercato in cui l’AI generativa ha abbassato il costo marginale della produzione di contenuti a quasi zero, la quantità di contenuto disponibile cresce in modo esponenziale ma la capacità cognitiva delle persone no. Il risultato è inflazione di contenuti: più ce n’è, meno vale ogni singolo pezzo, e più fatica costa farsi notare tra il rumore.
La Noise Tax è asimmetrica per costruzione. I brand con un’identità forte e formalizzata la pagano meno perché il loro segnale è riconoscibile e non richiede sforzo cognitivo per essere identificato. I brand con un’identità debole o priva di governo la pagano sempre di più, dentro un circolo vizioso: più producono, meno vengono riconosciuti, e più devono produrre per compensare il calo di riconoscibilità. È la stessa dinamica dell’inflazione monetaria applicata all’economia dell’attenzione.
Il Prolegomeno 142 aveva già individuato l’urgenza con l’acutezza di chi la vive sul campo. Max Tanganelli scriveva che “prima ancora di scegliere un canale o un format, un brand dovrebbe chiedersi che tipo di racconto vuole costruire e quale mezzo è davvero in grado di amplificarlo con coerenza e profondità”. E poi, ancora più a fuoco: “i brand dovranno ripensare la propria narrativa per essere riconoscibili anche all’interno delle risposte delle macchine”. Era la domanda giusta, formulata nel momento in cui cominciava a diventare urgente. Mancava ancora una risposta di metodo: come si rende un brand riconoscibile dentro le risposte delle macchine? Con quali strumenti? Con quale architettura?
La Noise Tax è la risposta economica a quella domanda. La questione non è, in astratto, come rendere il brand riconoscibile; la questione è quanto costa non farlo, in termini concreti e misurabili. Trasformare il problema identitario in una voce di costo non è un esercizio retorico: è il solo modo per imporlo all’attenzione di un board che non parla il linguaggio del brand management ma comprende bene il rischio operativo e il costo evitabile.
E il costo è evitabile. La strada non passa per un aumento della supervisione a valle: quella soluzione ha un tetto, perché la velocità di produzione degli agenti AI supera per struttura la disponibilità di supervisori capaci di esercitare quel giudizio su ogni output. Serve invece una governance costruita a monte. Il criterio deve stare dentro l’architettura del sistema, non fuori.
Terzo passaggio: il brand come sistema operativo
Arriviamo al punto.
La metafora del brand manual come documento è una metafora nata in un’epoca in cui il processo produttivo della comunicazione aveva tempi compatibili con la lettura e l’interpretazione di un documento. Un art director consultava il brand manual prima di progettare una campagna. Un copywriter lo leggeva prima di scrivere un headline. Il processo era lento abbastanza da permettere l’intermediazione di un testo interpretabile.
Oggi quella metafora non regge più. Gli agenti AI non leggono il brand manual prima di rispondere a un cliente alle 3 di mattina. Non lo consultano prima di generare una variante di copy per un A/B test. Non lo ripassano prima di produrre i materiali di una campagna. Operano con ciò che hanno ricevuto nel prompt di sistema e, se quel prompt non incorpora il criterio identitario in modo preciso, strutturato ed eseguibile, l’agente lavora nel vuoto. Un vuoto di identità che si riempie da solo con il linguaggio medio dei dati su cui è stato addestrato. Quando l’identità non è nel sistema, il sistema sceglie al posto tuo.
Il passaggio concettuale è questo: il brand deve smettere di essere un documento e diventare un sistema operativo. Deve diventare un layer di governance che agisce su ogni output prima che venga generato, non una raccolta di regole da leggere e interpretare. Deve essere un’infrastruttura che si esegue, non un riferimento che si consulta.
Questa non è una distinzione semantica. È una distinzione di processo.
Un documento è passivo: aspetta di essere letto. Un sistema operativo è attivo: governa ogni operazione che accade sopra di lui. Un documento può essere ignorato, interpretato o dimenticato. Un sistema operativo no. Se l’output non passa attraverso di lui, l’output non esiste. Un documento descrive l’identità. Un sistema operativo la esegue.
Nel Prolegomeno 172, la governance cognitiva veniva descritta come qualcosa che va oltre la semplice identificazione degli stili cognitivi degli agenti AI: li progetta, li monitora, li colloca dentro un ecosistema di regole e pratiche. Il prompt, scriveva Minghetti, va reinterpretato come mandato che definisce perimetro, libertà e criterio dell’azione dell’agente. È questo che intendo per brand come sistema operativo: il prompt di sistema non è una nota tecnica, ma la traduzione dell’identità dell’organizzazione in un linguaggio eseguibile da un agente AI. È il momento in cui il Capitale Semantico, implicito e distribuito, viene formalizzato in qualcosa di operativo.
Formalizzare l’identità in questo senso non è un esercizio creativo. È un processo estrattivo, qualcosa che assomiglia più a un audit strategico approfondito che a una sessione di brand workshop. Richiede di arrivare a ciò che potremmo chiamare le “radici” del brand: i principi non negoziabili che definiscono chi è l’organizzazione, a prescindere da cosa fa o da come si presenta in un dato momento. Questi principi devono essere poi tradotti in parametri di sistema: valori con pesi relativi, vincoli espliciti, bias comportamentali che ne derivano, soglie di accettabilità degli output.
Il risultato di questo processo è ciò che chiamiamo Capitale Identitario.
L’identità deve cessare di essere un concetto astratto e diventare un asset concreto. Un asset che può essere iscritto a bilancio e riconosciuto come proprietà intellettuale; un asset che va gestito, aggiornato, protetto e difeso con la stessa disciplina riservata agli altri asset strategici dell’organizzazione.
Dalla funzione all’infrastruttura: la codificazione del criterio
La soluzione a questo impasse richiede un salto paradigmatico. Dobbiamo smettere di chiederci come controllare meglio gli output dell’AI e iniziare a chiederci come governare gli input e i vincoli entro cui l’AI opera.
È il passaggio dalla supervisione alla governance. Nell’era dell’Intelligenza Artificiale, la governance non può ridursi a un documento PDF — il classico brand manual — o a una policy aziendale che nessuno legge. Deve diventare codice eseguibile. Deve diventare infrastruttura.
Come abbiamo visto, la governance cognitiva richiede che i criteri di giudizio dell’azienda vengano estratti, formalizzati e trasformati in parametri di sistema. Questo è il punto di caduta della nostra riflessione.
Cosa significa, nella pratica, codificare il criterio? Significa prendere l’essenza di un brand, la sua “Identità Dichiarata”, e tradurla in un Identity Kernel, un file di configurazione logica che agisce come un filtro tra il modello linguistico e l’utente finale.
Quando l’identità diventa codice, l’AI smette di muoversi in uno spazio indifferenziato: opera dentro confini definiti. Il tono di voce cessa di essere una raccomandazione — “sii professionale ma empatico” — e diventa un vettore comportamentale che orienta le probabilità di generazione del testo. I valori aziendali cessano di essere parole appese ai muri e diventano regole di processo che impediscono deviazioni. In questo scenario, la coerenza non è più il risultato di una revisione umana faticosa e successiva: è garantita by design. L’output nasce già allineato perché il sistema che lo genera è stato istruito non solo su cosa dire, ma su come l’azienda pensa.
Il rework come diagnosi, non come sintomo
Torno al dato di Poletti perché merita una lettura profonda.
Il 40% del tempo risparmiato dall’automazione reimpiegato in rework non è una statistica sul comportamento degli utenti AI. È una statistica sull’architettura dei sistemi. Dice che gli output prodotti dagli agenti AI non sono coerenti con ciò che l’organizzazione avrebbe prodotto da sola e qualcuno deve misurare e correggere la differenza. Quel qualcuno è il Supervisore.
La correzione ex post non è governance: è manutenzione di emergenza. Questa manutenzione scala male. Ogni nuovo agente richiede un nuovo supervisore. Ogni nuovo touchpoint richiede un nuovo presidio. Ogni nuovo canale apre una nuova porta da cui può entrare l’Identity Drift. Il modello cede quando la velocità di deployment degli agenti supera la disponibilità di persone capaci di esercitare quel giudizio identitario su ogni singolo output.
Il Prolegomeno 165
Il Prolegomeno 165 introduceva la singolarità organizzativa come la soglia in cui la delega dell’esecuzione diventa delega del giudizio: il punto in cui l’organizzazione perde non il controllo di ciò che fa, ma del modo in cui decide. Il rework segnala che quella soglia è già stata oltrepassata.
La distinzione è cruciale. Supervisionare significa avere il criterio e applicarlo. Correggere significa avere il criterio nella testa e applicarlo a posteriori a un output che non lo aveva. Nel secondo caso, il criterio non è mai entrato nel sistema. E’ rimasto nella testa del correttore. E quando quel correttore non c’è (perché è in ferie, perché ha cambiato azienda, perché l’output è stato prodotto alle 3 di mattina da un agente automatizzato) il criterio non c’è.
Questo è il punto in cui la supervisione, intesa come funzione, mostra il proprio limite strutturale e la supervisione intesa come infrastruttura diventa una necessità organizzativa.
La governance dell’identità: cinque problemi pratici
Costruire un sistema di governance dell’identità per l’AI non è un’operazione tecnica. È un’operazione organizzativa e strategica che coinvolge almeno cinque problemi pratici.
Il primo è l’estrazione. Prima di poter governare l’identità bisogna averla formalizzata in modo operativo. Questo richiede un processo strutturato che, nella mia esperienza, assomiglia più a un audit strategico approfondito che a un workshop creativo. Bisogna risalire alle radici del brand e distinguere ciò che è accessorio da ciò che resta vincolante.
Il secondo è la rappresentazione. Una volta estratte, le radici identitarie devono essere tradotte in struttura dati, in parametri logici che un sistema AI possa leggere e applicare. Non basta elencare i valori: bisogna esprimerli in regole operative, priorità, soglie di tolleranza, vincoli di linguaggio, criteri di escalation.
Un valore come “trasparenza” può assumere forme molto diverse: un bias verso la disclosure proattiva nelle comunicazioni istituzionali, un vincolo sull’uso di linguaggio tecnico non spiegato verso il pubblico consumer, una regola che esclude ambiguità nei materiali commerciali. È il livello di granularità di questa traduzione a determinare la qualità del governo identitario. Perché un’identità mal rappresentata produce output “abbastanza coerenti” ma non riconoscibili. E nell’economia dell’attenzione, essere “abbastanza coerenti” è quasi equivalente a non esserlo affatto.
Il terzo è l’enforcement. Avere l’identità formalizzata e strutturata non basta se non viene applicata con continuità a ogni output degli agenti AI. Questo richiede un layer che si interpone tra il modello AI e il mondo esterno che inietta i parametri identitari su ogni richiesta in tempo reale e verifica ogni output prima che venga distribuito. Il principio di funzionamento è analogo a quello di un sistema di sicurezza: nessun output bypassa il sistema, ogni output viene valutato rispetto ai parametri definiti. La domanda pratica è: dove vive questo layer nell’architettura? Come si integra con i tool AI già in uso dall’organizzazione? Come si aggiorna quando l’identità evolve? Sono domande di progettazione che richiedono risposte organizzative prima ancora che tecniche.
Il quarto è la misurabilità. Come si misura la coerenza identitaria degli output AI in modo sistematico e continuativo? La risposta più efficace è il Brand Drift Score, un indice che misura in tempo reale quanto gli output degli agenti si discostano dall’identità formalizzata del brand. La logica è semplice: ogni output viene confrontato con i parametri identitari dell’organizzazione e riceve un punteggio. Se supera la soglia definita l’output viene bloccato o inviato a revisione. Se è dentro soglia, viene distribuito. Le soglie non sono statiche. Possono variare per contesto e touchpoint: più bassa per le comunicazioni istituzionali, più flessibile per i contenuti social. La misurabilità trasforma la governance dell’identità da costo di gestione a investimento misurabile.
Il quinto è la manutenzione. L’identità di un brand non è statica. Evolve con il mercato, con il management, con le crisi e le opportunità. Un sistema di governance dell’identità che non prevede un meccanismo strutturato di aggiornamento è destinato a diventare obsoleto e un’identità obsoleta codificata in un sistema è più pericolosa di un’identità obsoleta in un documento perché si applica da sola anche quando è sbagliata. La governance dell’identità deve essere progettata come processo continuo, con trigger espliciti che segnalano quando un aggiornamento è necessario: un cambio di strategia, l’ingresso in un nuovo mercato, un’acquisizione, una crisi comunicativa che ha richiesto una risposta identitaria non prevista. La manutenzione non è un problema tecnico, è una responsabilità organizzativa che deve avere un owner, un processo e una cadenza.
Il Supervisore ridefinito: da guardiano a architetto
Tutto questo non abolisce il Supervisore. Lo ridefinisce.
Il Supervisore non scompare: si sposta. Progetta il sistema che governa gli output invece di presidiare ogni output. Non legge e corregge soltanto: estrae, formalizza, configura e monitora. Non entra in scena alla fine: agisce all’inizio, nel punto in cui il criterio viene tradotto in architettura.
È una forma di supervisione più esigente. Richiede la capacità di formalizzare ciò che di solito si lascia implicito, e questa formalizzazione dell’implicito è uno dei lavori più difficili che un’organizzazione possa fare su se stessa.
La catena che il Prolegomeno 150 aveva identificato: Definire, Delegare, Valutare, Autorizzare – rimane la struttura giusta. Ma nella governance dell’identità come infrastruttura il peso si sposta sulla prima fase, Definire, che diventa molto più ricca e impegnativa di quanto il modello tradizionale preveda. Definire non significa scrivere un brief. Significa estrarre, strutturare e rendere eseguibile il Capitale Identitario dell’organizzazione. È un lavoro che si fa una volta bene, con il rigore di un’analisi strategica profonda, e poi si mantiene nel tempo.
Quello che cambia è la natura della responsabilità. Il passaggio è da un Supervisore responsabile di ogni output a un Supervisore responsabile del sistema. Questa responsabilità si esercita lungo l’intera catena, ma si concentra nel momento in cui il criterio viene dichiarato e tradotto.
Il Capitale Identitario come asset di bilancio
C’è una dimensione di questo problema che il management fatica ancora a vedere, perché non appare in nessun bilancio standard. L’identità di un’organizzazione – il suo Capitale Semantico, la sua riconoscibilità, la fiducia che ha costruito nel tempo – è un asset reale con un impatto reale sul business. Si misura nel premium price che un brand può sostenere, nella fedeltà del cliente, nella capacità di attrarre talenti che si identificano con i valori dell’organizzazione e restano più a lungo, nella resilienza reputazionale nelle crisi.
A differenza degli asset finanziari o immateriali tradizionali, il Capitale Identitario non viene iscritto, monitorato o difeso con disciplina di metodo. Resta una variabile importante, ma non governata. Proprio per questo diventa fragile.
L’era degli agenti AI cambia questa convenzione in modo irreversibile. Quando ogni agente produce output a nome dell’organizzazione, su ogni touchpoint, in tempo reale, la gestione del Capitale Identitario diventa una variabile di rischio con metriche misurabili. La sua erosione non è più lenta e graduale ma può diventare rapida e diffusa. E il suo costo, la Noise Tax, il rework, non è teorico. È un costo reale che emerge nelle metriche di business molto prima di essere riconosciuto come problema identitario.
Il Prolegomeno 176 di Borgonovi, Abramo e Meda identificava il punto di svolta con nettezza: ciò che distingue il manager nell’epoca dell’AI non è la capacità tecnica di eseguire, ma la capacità di decidere quando, come e con quali criteri l’esecuzione vada delegata.
Trattare il Capitale Identitario come asset significa formalizzarlo, misurarlo e proteggerlo con disciplina. Significa introdurre metriche di coerenza identitaria — il Brand Drift Score — nei sistemi di monitoring dell’organizzazione. Significa progettare l’architettura degli agenti AI in modo che il criterio identitario sia un parametro del sistema, non una variabile affidata alla discrezione del revisore. Significa riconoscere che l’identità non è responsabilità del marketing. Quando gli agenti AI agiscono in nome dell’organizzazione su tutti i touchpoint, l’identità è responsabilità dell’intera organizzazione.
Per concludere: il criterio non si delega, si codifica
Il Prolegomeno 176 si chiudeva con una domanda priva di consolazione: quando il manager delega il criterio non alleggerisce il lavoro; abdica alla propria funzione. Questa è la diagnosi da cui parto.
La risposta è che il criterio non si delega. Si codifica. Codificarlo non è una resa cognitiva: è una forma più alta di responsabilità.
Significa che l’organizzazione ha fatto il lavoro di chiarire la propria identità, di definire i confini di ciò che può dire e di trasformare questo sapere in un asset: difendibile, aggiornabile, trasferibile. Significa che quel sapere non vive solo nelle persone che oggi sono in azienda con tutto il rischio di perdita che comporta la dipendenza dalle persone, ma è diventato un asset dell’organizzazione.
Il Supervisore resta una figura essenziale, ma cambia funzione. Non è più chiamato a controllare ogni output: deve progettare il sistema che li governa. Non interviene a valle: definisce a monte le condizioni entro cui l’output potrà esistere.
È la differenza tra sorvegliare una fabbrica e progettare i suoi processi di qualità. Entrambi sono necessari, ma senza progettazione la sorveglianza non è sufficiente. E nell’era degli agenti AI, in cui la produzione di output cresce in modo esponenziale, la sorveglianza non è più una strategia sostenibile.
È in questo quadro che si colloca il lavoro su i-broS: un tentativo di rispondere a queste domande sul piano operativo, partendo dall’ipotesi che il criterio possa essere codificato prima che l’agente generi output. Non offre una risposta definitiva: costituisce un banco di prova concreto per verificare la tenuta dell’architettura.
La questione non è se delegare o meno.
La questione è decidere che cosa deve essere codificato prima che la delega avvenga.
Perché ciò che non viene codificato non viene governato.
L’Autrice
Monica Magnoni è advisor in marketing, comunicazione e innovazione, specializzata nell’intersezione fra strategia, tecnologia e design dell’esperienza. Affianca aziende e brand nel trasformare la rivoluzione digitale in opportunità di business con un focus su AI, tecnologie immersive e nuovi modelli di relazione fra brand e persone.
Nel corso della sua carriera ha ricoperto ruoli di leadership in agenzie e aziende tra Milano e Roma. Oggi collabora con realtà di diversi settori su temi di AI governance, identity infrastructure e modelli organizzativi aumentati dall’intelligenza artificiale. Fra i suoi incarichi, ricopre il ruolo di Chief Strategy & Innovation Officer in Dreel Holding, attiva nel live entertainment.
Ha co-fondato due startup nei campi del marketing esperienziale e della sicurezza personale. È autrice del libro Fare business con le tecnologie immersive.
180 – continua
Puntate precedenti