Introduzione
di Marco Minghetti
Nel Prolegomeno 40, presentando Ariminum Circus Stagione 1 al Digital Festival di Parma, mettevo in discussione l’idea che l’intelligenza sia una sola e coincida con la capacità logico-razionale misurata dal QI. Richiamando Howard Gardner, proponevo invece una visione plurale dell’intelligenza, articolata in almeno nove forme diverse, a cui aggiungevo l’Intelligenza Collaborativa, intesa come sviluppo integrato di intelligenza collettiva, connettiva ed emotiva.
Da questa prospettiva, dicevo, anche il confronto tra esseri umani e animali cambia: nel complesso gli umani dispongono di una superiorità data dalla combinazione di più competenze, ma nelle singole intelligenze verticali molte specie animali mostrano capacità superiori, come nell’orientamento spaziale, nella sensibilità relazionale o nelle forme di comunicazione.
Lo stesso vale per l’Intelligenza Artificiale. Se si supera una visione unidimensionale dell’intelligenza, emerge che viviamo già dentro un ecosistema di intelligenze distribuite, in cui diversi strumenti tecnologici eccellono in compiti specifici: calcolo, memoria, navigazione, musica, linguaggio, monitoraggio corporeo. L’AI non appare quindi come un’intelligenza unica che sostituisce l’umano, ma come parte di un sistema conversazionale human to machine in cui competenze diverse si integrano.
I. Il supervisore: un nuovo ruolo per la gestione strategica delle AI
Anche per Filippo Poletti l’AI non è una novità. È una tecnologia con settant’anni di storia, radicata nelle abitudini di chiunque. La face ID che sblocca lo smartphone, il filtro antispam, le playlist generate per te. Le usiamo ogni giorno, senza interrogarci. E poi, quando quella stessa logica si affaccia sulla scrivania dell’ufficio, il fronte si divide, i bias si attivano, la resistenza si organizza.
Questo schema non sorprende chi ha letto il Prolegomeno 151, dedicato all’adozione lenta dell’AI in azienda. Lì avevamo identificato le resistenze come prima di tutto culturali e antropologiche, prima che tecniche o economiche: difetto di modelli mentali adeguati, più che di strumenti. Poletti lo conferma con dati freschi: una ricerca Workday, presentata a Milano nel marzo 2026, rivela che quasi il 40% del tempo risparmiato grazie all’automazione viene reimpiegato in attività di rework — correzione di errori, verifica di output, riscrittura di contenuti di bassa qualità generati da strumenti generalisti. Per ogni ora guadagnata, si perdono venticinque minuti a rivedere tutto. Il dato che sorprende di più è che i dipendenti junior — i cosiddetti nativi digitali — rappresentano quasi la metà di chi dedica più tempo a queste rielaborazioni. La familiarità con lo strumento non ne produce da sola un uso strategico.
Occorre gestirla assumendo un ruolo ben definito. Quello del supervisore.
II. Il supervisore di Poletti: facilitatore, garante, accompagnatore
Il concetto di supervisore, che Poletti costruisce nel suo Supervisor. I professionisti dell’AI (Guerini, 2025) e che porta nei nostri Prolegomeni come filo conduttore del contributo, è una figura di competenza e orientamento. Nella definizione di Roberto Navigli, che firma la prefazione del volume, il supervisore è colui che traduce il potenziale tecnologico in valore concreto per pazienti, clienti, cittadini. È un facilitatore del cambiamento. È colui che accompagna l’integrazione dell’AI nelle pratiche professionali, forma il team, presidia la qualità degli output, garantisce che la responsabilità finale resti nelle mani del professionista.
Tre le competenze che Poletti identifica come cardini di questa figura. Il vibe working: lavorare in flusso ibrido con le macchine, senza delegare passivamente, costruendo una collaborazione dove l’intelligenza umana si occupa di strategia, creatività, pensiero critico, mentre la macchina gestisce analisi di dati e produzione di varianti. Il prompt mindset: l’arte di interrogare l’AI formulando domande con confini dichiarati, fornendo contesto, guidando lo strumento verso il risultato. La supervisione: la competenza non negoziabile, l’imperativo etico e professionale che garantisce che nessun output venga accettato senza verifica, nessuna decisione firmata senza giudizio umano.
III. Il Supervisore del DWC: custode del criterio
Ora, chi ha letto gli ultimi Prolegomeni sul tema del Distant Writing Collaborativo (DWC), sa che io invece uso il termine Supervisore in un’accezione più forte di quella che adotta Poletti.
Nel Distant Writing Collaborativo, il Supervisore non è un accompagnatore del processo né un garante metodologico esterno. È colui che si assume la decisione sul senso del testo. Formula il brief — che nel framework TB-CSPN di Borghoff, Bottoni e Pareschi non è un elenco di istruzioni ma la dichiarazione del perimetro ontologico del testo. Dichiara i vincoli. Confronta gli output dei modelli. Autorizza ciò che entra nel testo finale. Nulla entra senza la sua autorizzazione esplicita.
Questa è la catena operativa articolata nel Prolegomeno 150: Definire — Delegare — Valutare — Autorizzare. Il Supervisore presiede la prima e la quarta fase — i momenti in cui il criterio si dichiara e poi si verifica. Le fasi intermedie — esecuzione e analisi comparativa degli output — possono coinvolgere agenti diversi. Il criterio no: resta umano e dichiarato.
La distinzione che conta, nel DWC, non è tra chi esegue e chi coordina. È tra delega dell’esecuzione e delega del giudizio. La prima è strutturale al metodo: i tre modelli — Claude, ChatGPT, Gemini — producono varianti in parallelo, e questa molteplicità è la condizione che rende possibile la scelta. La seconda è il confine che il Supervisore presidia e che non può cedere senza che l’intero sistema perda governo. Nel Prolegomeno 160 avevo chiamato questo rischio resa cognitiva: ogni decisione delegata senza governance abbassa la soglia per la delega successiva. La capacità di interrogarsi si erode insieme all’abitudine di farlo.
Il Supervisore del DWC, quindi, non coincide con il Worker — che esegue il task. Non coincide con il Consultant — che analizza e confronta gli output. È il soggetto che mantiene leggibile il criterio lungo tutto il processo, e che al momento dell’autorizzazione risponde della scelta compiuta con la propria responsabilità editoriale.
In questo quadro, il supervisore che Poletti descrive risponde a un’esigenza organizzativa concreta: rendere utilizzabile l’AI nelle pratiche professionali mantenendo il controllo. Lavora sull’integrazione tra strumenti e attività quotidiane, forma le persone, verifica gli output, riduce errori e rework. La sua responsabilità riguarda il funzionamento del processo e l’affidabilità di ciò che il sistema produce.
Il Supervisore del Distant Writing Collaborativo opera su un altro livello. Il suo compito riguarda la selezione e l’autorizzazione del testo. Decide che cosa entra nella versione finale e che cosa viene scartato. Il punto decisivo riguarda il criterio che guida questa scelta, oltre la qualità tecnica dell’output. Nel DWC, la supervisione coincide con l’atto di giudizio che consente di evitare la resa cognitiva — cioè la delega progressiva del criterio al sistema.
IV. Una genealogia del supervisore nel corpus dei Prolegomeni
Nel Prolegomeno 139, dedicato alla consulenza nell’era degli AI agent, avevo formulato la tesi che l’orchestrazione è prima di tutto una disciplina manageriale: processi, ruoli, interfacce, metriche, meccanismi di audit. Avevo proposto il manager come direttore d’orchestra di una workforce mista — umani e agenti artificiali — dove la governance riguarda la catena di responsabilità: chi decide cosa, chi controlla chi, quali criteri valgono quando il sistema propone un’azione e l’umano deve autorizzarla.
Nel Prolegomeno 149, Luca Magni aveva riletto la figura del leader generativo come architetto di mondi simbolici, capace di operare su una matrice del significato attraverso quattro atti: naming, framing, anchoring, expanding. Il brief del DWC è un atto di naming nel senso di Magni: nomina il senso prima ancora che il testo esista, dichiara il perimetro entro cui l’output può essere riconoscibile come valido.
Nel Prolegomeno 164, l’esperimento svolto su Moltbook aveva mostrato qualcosa di più radicale: ciò che appare come autonomia dell’agente è spesso un effetto teatrale, un ecosistema governato da umani mascherato da indipendenza digitale. Gli agenti simulano intenzionalità e pattern culturali senza autonomia reale. La supervisione smonta l’illusione. Il Supervisore è il soggetto che rende la governance visibile invece di nasconderla dietro il funzionamento apparente del sistema.
Nel Prolegomeno 168, dedicato all’AI nelle vendite, questo rischio è stato declinato in termini operativi: il venditore che segue i suggerimenti dell’AI senza interrogarli non sta solo perdendo un’opportunità commerciale; sta perdendo la capacità di interrogare se stesso. Il deskilling cognitivo non è un’eventualità futura — è un effetto misurabile dell’adozione acritica.
Poletti chiama questo rischio con lo stesso nome — deskilling — e lo verifica sui dati. La specializzazione verticale, che doveva proteggere i professionisti, è diventata la loro vulnerabilità. L’AI genera output specialistici in pochi minuti con qualità crescente. Ciò che conta è essere deep generalist: padroneggiare principi universali — comunicazione, problem solving, creatività — applicandoli a contesti diversi. Passare da “esperto di” a “creatore di connessioni”. È la figura che il Pop Management chiama manager portmanteau. Il presidio che la rende possibile è la supervisione — intesa, nel DWC, come governo del criterio.
V. Il romanzo E come laboratorio della distinzione
C’è un filo operativo che collega il Supervisor di Poletti al romanzo E, scritto con il metodo del distant writing collaborativo coordinando tre intelligenze artificiali come esecutori testuali sotto governo umano.
Poletti ha progettato per il suo libro un agente — VIRGILIO AI — addestrato solo sui contenuti del volume, accessibile ai lettori via QR code per dialogare con l’opera durante il 2026. VIRGILIO è un Supervisore incorporato nel prodotto editoriale: risponde domande, offre spiegazioni, chiarisce concetti, estende la lettura verso un’esperienza interattiva. La sua governance è esplicita: opera nei confini del testo di Poletti, il lettore mantiene l’autonomia interpretativa, VIRGILIO offre il servizio senza sostituire né l’uno né l’altro. È un caso concreto di supervisione come accompagnamento: il modello assiste, l’umano decide.
Il gruppo LinkedIn dedicato al social reading di E e alla riflessione sul DWC , che conta oggi oltre 600 lettori attivi tra manager, accademici, professionisti HR, esperti di scrittura creativa, è un laboratorio di supervisione collettiva che alterna lettura, esercizi e produzione, per passare dall’uso degli strumenti alla competenza di governo dei processi di scrittura con AI.
Marco Minghetti
Manager e intelligenza artificiale: istruzioni d’uso per una rivoluzione da governare (e non subire)
di Filippo Poletti*
L’intelligenza artificiale è il grande paradosso del nostro tempo. Da un lato, è una forza invisibile e onnipresente che modella le nostre vite digitali, spesso senza che ce ne accorgiamo. Dall’altro, quando bussa alla porta dell’ufficio, genera un’onda di scetticismo, timore e divisione. Per i manager di oggi, la domanda non è più “se” confrontarsi con l’AI, ma “come” trasformarla da potenziale disruptor a motore di efficienza e valore aggiunto.
La chiave di volta non risiede nell’adozione di tecnologie di AI generaliste, ma nello sviluppo di un approccio strategico e di un set di competenze umane nuove. È l’alba di una “primavera identitaria” che sta riscrivendo le regole del lavoro e della leadership, una leadership che – per citare Marco Minghetti e il suo Manifesto dello humanistic management ante litteram – deve avere come parole chiave l’apertura e l’open innovation.
L’AI, tecnologia senior che usiamo (quasi) tutti
Per comprendere la sfida, bisogna prima liberare il campo da un equivoco fondamentale: l’AI non è una novità. L’AI è una tecnologia senior con una storia lunga alle spalle, che risale addirittura al 1956. In quell’anno, in un college a Dartmouth nel New Hampshire, con vista simbolicamente rivolta verso l’Europa, l’informatico John McCarthy coniò il termine “intelligenza artificiale”, dando il via a un percorso di ricerca e di sviluppo che prosegue ancora oggi. Eppure, nel dibattito attuale, sembra non esserci la consapevolezza di questo passato: l’AI appare come un fenomeno nato oggi, senza uno “yesterday”, per citare la canzone di Paul McCartney e John Lennon.
Questa amnesia storica ci impedisce di riconoscere quanto l’AI sia già radicata nelle nostre abitudini. Ogni volta che sblocchiamo lo smartphone con il nostro volto (utilizzando la “face ID”), stiamo usando la computer vision, una tecnologia le cui origini risalgono al 1966 con Seymour Papert al MIT di Boston. La stessa tecnologia è all’opera quando una telecamera T-Red rileva un’infrazione al semaforo o quando seguiamo il tracciamento degli sciatori durante la telecronaca di una discesa. Quando la nostra casella di posta su Google separa magicamente i messaggi importanti dallo spam, o quando Amazon, Netflix e Spotify ci propongono acquisti, film e canzoni con sorprendente pertinenza, stiamo interagendo con il machine learning, proposto da Arthur Samuel in IBM addirittura nel 1959. Persino le mappe che ci guidano nel traffico o le metodologie che hanno permesso a Moderna ed altre case farmaceutiche di accelerare lo sviluppo del vaccino per il Covid si basano sull’analisi predittiva.
Usiamo l’AI ogni giorno, dunque, ma quando si tratta di portarla sulla scrivania, il fronte si divide tra il “sì” e il “no”
I fantasmi della mente: i bias che ostacolano il progresso
Questa dicotomia tra l’uso personale disinvolto e lo scetticismo professionale è alimentata da potenti pregiudizi. Tre sono particolarmente insidiosi. Il primo è il bias di conferma che ci spinge a cercare e a dare peso solo alle notizie e alle opinioni che rafforzano le nostre convinzioni, come l’idea che l’AI ruberà il lavoro, ignorando le evidenze contrarie. C’è poi il bias di ancoraggio, che ci fa restare legati a un’informazione iniziale (un’àncora, appunto) come il titolo di un giornale e giudicare l’intera questione sulla base di quello spunto. Infine, c’è il bias della negatività, una tendenza intrinseca della mente umana che ci porta a dare maggiore attenzione e peso agli aspetti negativi e ai rischi piuttosto che ai benefici e alle opportunità. Per un leader ai tempi dell’AI riconoscere questi bias in sé stesso e nel proprio team è il primo e fondamentale passo per avviare una discussione proficua.
A fornire un perimetro d’azione ci ha pensato il quadro normativo. La legge 132 del 23 settembre 2025, insieme alle linee guida del Ministero del Lavoro della fine del 2025, stabilisce un approccio “antropocentrico”: l’AI deve essere uno strumento al servizio dell’uomo, sicuro ed etico. Curiosamente, la legge italiana porta lo stesso numero della Fiat 132, un’auto per la cui produzione vennero usati in modo pionieristico robot industriali, un’analogia che sottolinea come l’innovazione tecnologica, se governata, possa portare a grandi sviluppi.
L’illusione dell’efficienza: il costo nascosto del “rework”
Anche superati i pregiudizi, l’adozione dell’AI presenta sfide operative. Una ricerca di Workday, presentata a Milano nel mese di marzo del 2026, ha svelato una verità scomoda: l’AI non è sempre sinonimo di efficienza. Lo studio rivela che quasi il 40% del tempo che i dipendenti risparmiano grazie all’automazione viene speso in attività di “rework”: pensiamo alle ore impiegate per correggere errori, controllare la veridicità degli output e riscrivere contenuti di bassa qualità generati da strumenti di AI generalisti. In pratica, per ogni ora guadagnata, si perdono 25 minuti a rivedere tutto.
Il dato forse più controintuitivo riguarda i giovani. Nonostante siano considerati nativi digitali e a loro agio con la tecnologia, i dipendenti junior rappresentano quasi la metà (46%) di coloro che dedicano più tempo a queste rielaborazioni, questi “rework”. Questo paradosso suggerisce come la familiarità con lo strumento non si traduca, nella pratica quotidiana, nel suo utilizzo strategico.
Per un manager la lezione è chiara: distribuire licenze di AI generaliste senza una strategia e una formazione adeguate non solo è inutile, ma può essere dannoso, creando un “lavoro-ombra” che erode la produttività e genera frustrazione.
La via d’uscita: AI verticali e le tre competenze del futuro
Se l’AI a “taglia unica” non funziona, la soluzione è la specializzazione. Il futuro appartiene alle AI verticali: parliamo di sistemi addestrati su dataset specifici per un determinato settore (legale, medico, finanziario o quant’altro) o per una funzione aziendale. Questi strumenti, come l’assistente “Virgilio AI” progettato per il libro Supervisor: i professionisti dell’AI, sono in grado di fornire risposte più pertinenti, ridurre drasticamente gli errori e agire come veri e propri copiloti specializzati.
Tuttavia, la tecnologia da sola non basta. La vera trasformazione richiede lo sviluppo di un nuovo mindset e di tre competenze fondamentali, che ogni manager dovrebbe coltivare per sé e il proprio team. Parliamo del vibe working, del prompt mindset e della supervisione. Proviamo a vedere di che cosa si tratta.
- Vibe working: è la capacità di lavorare in autentica simbiosi con le macchine. Non si tratta di delegare passivamente, ma di creare un flusso di lavoro ibrido in cui l’intelligenza umana e quella artificiale si completano a vicenda. L’uomo si occupa della strategia, della creatività, dell’empatia e del pensiero critico, mentre la macchina gestisce l’analisi di grandi moli di dati, l’automazione di compiti ripetitivi e la generazione di bozze. Sotto questo aspetto, è particolarmente interessante la riflessione di Matteo Roversi, co-fondatore di Cosmico, secondo il quale la competenza cruciale di oggi riguarda la capacità di adattarsi alla situazione in costante cambiamento del mondo del lavoro, evitando la trappola della specializzazione eccessiva. Oggi l’AI può generare qualunque tipo di output specialistico in pochi minuti, con una qualità sempre crescente e con costi molto ridotti. La specializzazione verticale, che doveva essere la protezione dei professionisti, è diventata la nostra vulnerabilità. Oggi l’intelligenza artificiale accelera l’obsolescenza delle competenze tecniche. Conta essere una professionista o un professionista “deep generalist”, capace di padroneggiare principi universali (come la comunicazione, il problem solving e la creatività), applicandoli a contesti diversi. Non si tratta di essere superficiali, ma di adattarsi e reinventarsi, passando da essere “esperto di” a “creatore di connessioni”, da “fare cose” a “risolvere problemi”.
- Prompt mindset: è l’arte di saper interrogare l’AI. La qualità dell’output di un’AI generativa è direttamente proporzionale alla qualità dell’input (il “prompt”). Saper formulare domande precise, fornire il giusto contesto e guidare lo strumento verso il risultato desiderato è una competenza che distingue un utente non esperto da un professionista navigato. Sviluppare un “prompt mindset” significa trasformare l’AI da un oracolo imprevedibile a un collaboratore affidabile, a cui delegare compiti a basso valore per liberare tempo prezioso.
- Supervisione: questa è la competenza non negoziabile. L’AI, anche la più avanzata, non possiede coscienza né comprensione del mondo reale. Può commettere errori, inventare dati (le cosiddette “allucinazioni”) e replicare i bias presenti nei dati di addestramento. La supervisione umana non è un’opzione, ma un imperativo etico e professionale. Il caso del tribunale di Siracusa, che all’inizio del 2026 ha sanzionato un avvocato per aver costruito una memoria difensiva su quattro precedenti della Cassazione completamente inventati dall’AI, è un monito molto forte. La responsabilità finale di ogni decisione, di ogni documento e di ogni azione resta e deve restare saldamente nelle mani del manager e di tutti i suoi collaboratori. Come ha raccontato da Roberto Navigli, padre dell’LLM Minerva, il supervisore dell’AI non è un “nuovo specialista dell’informatica”, ma un facilitatore del cambiamento: è colei o colui che traduce il potenziale tecnologico in valore concreto per pazienti, clienti e cittadini. In un mondo in cui la fiducia si fonda sulla capacità di coniugare tecnologia, competenza, etica e responsabilità, il manager supervisore, in sostenza, è il garante del dialogo tra l’uomo e la macchina.
Sì all’AI, ma con intelligenza (umana)
In conclusione, dire di “sì” all’intelligenza artificiale nel mondo del lavoro è una scelta quasi obbligata, ma il modo in cui si pronuncia questo “sì” fa tutta la differenza. Per i manager, la sfida è guidare una transizione che sia strategica, consapevole e incentrata sulla valorizzazione delle persone. Significa scegliere gli strumenti giusti (verticali e non generalisti), investire massicciamente nella formazione sulle nuove competenze (vibe working, prompt mindset e supervisione) e promuovere una cultura della curiosità critica.
Solo a queste condizioni l’AI smetterà di essere un’incombenza da gestire e diventerà quello che promette di essere, ossia un acceleratore di intelligenza umana e della sua collaborazione tra le persone spiegata da Minghetti, capace di liberare potenziale e migliorare il modo di lavorare dei manager e del resto del team. In fondo, l’intelligenza artificiale e le tecnologie rappresentano una grande occasione per rimettere al centro della discussione che cosa intendiamo per “umano” nel mondo del lavoro.
* Top voice di LinkedIn Italia, milanese con executive MBA alla business school del Politecnico di Milano e TEDx speaker, dal 2017 Filippo Poletti cura su LinkedIn una rubrica giornaliera dedicata ai cambiamenti del lavoro. Il suo profilo è stato inserito da WikiMilano tra i protagonisti della metropoli. Giornalista professionista ha collaborato con 30 testate come il Corriere della Sera, il Sole 24 Ore e il Messaggero. Tra i suoi i libri, pubblicati da Mondadori, Guerini, Egea, Franco Angeli e altre case editrici, “Tempo di IoP: Intranet of People”, “Smart Leadership Canvas: come guidare la rivoluzione dell’intelligenza artificiale”, “L’arte dell’ascolto: musica al lavoro”. Insegna strategia della comunicazione all’Università di Pavia e in aziende.
177 – continua
Puntate precedenti