Prolegomeni al Manifesto del Pop Management 177. Innovazione Pop. Opinion Piece di Filippo Poletti

Introduzione

di Marco Minghetti

Nel Prolegomeno 40, presentando Ariminum Circus Stagione 1  al Digital Festival di Parma, mettevo in discussione l’idea che l’intelligenza sia una sola e coincida con la capacità logico-razionale misurata dal QI. Richiamando Howard Gardner, proponevo invece una visione plurale dell’intelligenza, articolata in almeno nove forme diverse, a cui aggiungevo l’Intelligenza Collaborativa, intesa come sviluppo integrato  di intelligenza collettiva, connettiva ed emotiva.

Da questa prospettiva, dicevo, anche il confronto tra esseri umani e animali cambia: nel complesso gli umani dispongono di una superiorità data dalla combinazione di più competenze, ma nelle singole intelligenze verticali molte specie animali mostrano capacità superiori, come nell’orientamento spaziale, nella sensibilità relazionale o nelle forme di comunicazione.

Lo stesso vale per l’Intelligenza Artificiale. Se si supera una visione unidimensionale dell’intelligenza, emerge che viviamo già dentro un ecosistema di intelligenze distribuite, in cui diversi strumenti tecnologici eccellono in compiti specifici: calcolo, memoria, navigazione, musica, linguaggio, monitoraggio corporeo. L’AI non appare quindi come un’intelligenza unica che sostituisce l’umano, ma come parte di un sistema conversazionale human to machine in cui competenze diverse si integrano.

I. Il supervisore: un nuovo ruolo per la gestione strategica delle AI

Anche per Filippo Poletti l’AI non è una novità. È una tecnologia con settant’anni di storia, radicata nelle abitudini di chiunque. La face ID che sblocca lo smartphone, il filtro antispam, le playlist generate per te. Le usiamo ogni giorno, senza interrogarci. E poi, quando quella stessa logica si affaccia sulla scrivania dell’ufficio, il fronte si divide, i bias si attivano, la resistenza si organizza.

Questo schema non sorprende chi ha letto il Prolegomeno 151, dedicato all’adozione lenta dell’AI in azienda. Lì avevamo identificato le resistenze come prima di tutto culturali e antropologiche, prima che tecniche o economiche: difetto di modelli mentali adeguati, più che di strumenti. Poletti lo conferma con dati freschi: una ricerca Workday, presentata a Milano nel marzo 2026, rivela che quasi il 40% del tempo risparmiato grazie all’automazione viene reimpiegato in attività di rework — correzione di errori, verifica di output, riscrittura di contenuti di bassa qualità generati da strumenti generalisti. Per ogni ora guadagnata, si perdono venticinque minuti a rivedere tutto. Il dato che sorprende di più è che i dipendenti junior — i cosiddetti nativi digitali — rappresentano quasi la metà di chi dedica più tempo a queste rielaborazioni. La familiarità con lo strumento non ne produce da sola un uso strategico.

Occorre gestirla assumendo un ruolo ben definito. Quello del supervisore.

II. Il supervisore di Poletti: facilitatore, garante, accompagnatore

Il concetto di supervisore, che Poletti costruisce nel suo Supervisor. I professionisti dell’AI (Guerini, 2025) e che porta nei nostri Prolegomeni come filo conduttore del contributo, è una figura di competenza e orientamento. Nella definizione di Roberto Navigli, che firma la prefazione del volume, il supervisore è colui che traduce il potenziale tecnologico in valore concreto per pazienti, clienti, cittadini. È un facilitatore del cambiamento. È colui che accompagna l’integrazione dell’AI nelle pratiche professionali, forma il team, presidia la qualità degli output, garantisce che la responsabilità finale resti nelle mani del professionista.

Tre le competenze che Poletti identifica come cardini di questa figura. Il vibe working: lavorare in flusso ibrido con le macchine, senza delegare passivamente, costruendo una collaborazione dove l’intelligenza umana si occupa di strategia, creatività, pensiero critico, mentre la macchina gestisce analisi di dati e produzione di varianti. Il prompt mindset: l’arte di interrogare l’AI formulando domande con confini dichiarati, fornendo contesto, guidando lo strumento verso il risultato. La supervisione: la competenza non negoziabile, l’imperativo etico e professionale che garantisce che nessun output venga accettato senza verifica, nessuna decisione firmata senza giudizio umano.

III. Il Supervisore del DWC: custode del criterio

Ora, chi ha letto gli ultimi Prolegomeni sul tema del Distant Writing Collaborativo (DWC), sa che io invece uso il termine Supervisore in un’accezione più forte di quella che adotta Poletti.

Nel Distant Writing Collaborativo, il Supervisore non è un accompagnatore del processo né un garante metodologico esterno. È colui che si assume la decisione sul senso del testo. Formula il brief — che nel framework TB-CSPN di Borghoff, Bottoni e Pareschi non è un elenco di istruzioni ma la dichiarazione del perimetro ontologico del testo. Dichiara i vincoli. Confronta gli output dei modelli. Autorizza ciò che entra nel testo finale. Nulla entra senza la sua autorizzazione esplicita.

Questa è la catena operativa articolata nel Prolegomeno 150: Definire — Delegare — Valutare — Autorizzare. Il Supervisore presiede la prima e la quarta fase — i momenti in cui il criterio si dichiara e poi si verifica. Le fasi intermedie — esecuzione e analisi comparativa degli output — possono coinvolgere agenti diversi. Il criterio no: resta umano e dichiarato.

La distinzione che conta, nel DWC, non è tra chi esegue e chi coordina. È tra delega dell’esecuzione e delega del giudizio. La prima è strutturale al metodo: i tre modelli — Claude, ChatGPT, Gemini — producono varianti in parallelo, e questa molteplicità è la condizione che rende possibile la scelta. La seconda è il confine che il Supervisore presidia e che non può cedere senza che l’intero sistema perda governo. Nel Prolegomeno 160 avevo chiamato questo rischio resa cognitiva: ogni decisione delegata senza governance abbassa la soglia per la delega successiva. La capacità di interrogarsi si erode insieme all’abitudine di farlo.

Il Supervisore del DWC, quindi, non coincide con il Worker — che esegue il task. Non coincide con il Consultant — che analizza e confronta gli output. È il soggetto che mantiene leggibile il criterio lungo tutto il processo, e che al momento dell’autorizzazione risponde della scelta compiuta con la propria responsabilità editoriale.

In questo quadro, il supervisore che Poletti descrive risponde a un’esigenza organizzativa concreta: rendere utilizzabile l’AI nelle pratiche professionali mantenendo il controllo. Lavora sull’integrazione tra strumenti e attività quotidiane, forma le persone, verifica gli output, riduce errori e rework. La sua responsabilità riguarda il funzionamento del processo e l’affidabilità di ciò che il sistema produce.

Il Supervisore del Distant Writing Collaborativo opera su un altro livello. Il suo compito riguarda la selezione e l’autorizzazione del testo. Decide che cosa entra nella versione finale e che cosa viene scartato. Il punto decisivo riguarda il criterio che guida questa scelta, oltre la qualità tecnica dell’output. Nel DWC, la supervisione coincide con l’atto di giudizio che consente di evitare la resa cognitiva — cioè la delega progressiva del criterio al sistema.

IV. Una genealogia del supervisore nel corpus dei Prolegomeni

Nel Prolegomeno 139, dedicato alla consulenza nell’era degli AI agent, avevo formulato la tesi che l’orchestrazione è prima di tutto una disciplina manageriale: processi, ruoli, interfacce, metriche, meccanismi di audit. Avevo proposto il manager come direttore d’orchestra di una workforce mista — umani e agenti artificiali — dove la governance riguarda la catena di responsabilità: chi decide cosa, chi controlla chi, quali criteri valgono quando il sistema propone un’azione e l’umano deve autorizzarla.

Nel Prolegomeno 149, Luca Magni aveva riletto la figura del leader generativo come architetto di mondi simbolici, capace di operare su una matrice del significato attraverso quattro atti: naming, framing, anchoring, expanding. Il brief del DWC è un atto di naming nel senso di Magni: nomina il senso prima ancora che il testo esista, dichiara il perimetro entro cui l’output può essere riconoscibile come valido.

Nel Prolegomeno 164, l’esperimento svolto su Moltbook aveva mostrato qualcosa di più radicale: ciò che appare come autonomia dell’agente è spesso un effetto teatrale, un ecosistema governato da umani mascherato da indipendenza digitale. Gli agenti simulano intenzionalità e pattern culturali senza autonomia reale. La supervisione smonta l’illusione. Il Supervisore è il soggetto che rende la governance visibile invece di nasconderla dietro il funzionamento apparente del sistema.

Nel Prolegomeno 168, dedicato all’AI nelle vendite, questo rischio è stato declinato in termini operativi: il venditore che segue i suggerimenti dell’AI senza interrogarli non sta solo perdendo un’opportunità commerciale; sta perdendo la capacità di interrogare se stesso. Il deskilling cognitivo non è un’eventualità futura — è un effetto misurabile dell’adozione acritica.

Poletti chiama questo rischio con lo stesso nome — deskilling — e lo verifica sui dati. La specializzazione verticale, che doveva proteggere i professionisti, è diventata la loro vulnerabilità. L’AI genera output specialistici in pochi minuti con qualità crescente. Ciò che conta è essere deep generalist: padroneggiare principi universali — comunicazione, problem solving, creatività — applicandoli a contesti diversi. Passare da “esperto di” a “creatore di connessioni”. È la figura che il Pop Management chiama manager portmanteau. Il presidio che la rende possibile è la supervisione — intesa, nel DWC, come governo del criterio.

V. Il romanzo E come laboratorio della distinzione

C’è un filo operativo che collega il Supervisor di Poletti al romanzo E, scritto con il metodo del distant writing collaborativo coordinando tre intelligenze artificiali come esecutori testuali sotto governo umano.

Poletti ha progettato per il suo libro un agente — VIRGILIO AI — addestrato solo sui contenuti del volume, accessibile ai lettori via QR code per dialogare con l’opera durante il 2026. VIRGILIO è un Supervisore incorporato nel prodotto editoriale: risponde domande, offre spiegazioni, chiarisce concetti, estende la lettura verso un’esperienza interattiva. La sua governance è esplicita: opera nei confini del testo di Poletti, il lettore mantiene l’autonomia interpretativa, VIRGILIO offre il servizio senza sostituire né l’uno né l’altro. È un caso concreto di supervisione come accompagnamento: il modello assiste, l’umano decide.

Il gruppo LinkedIn dedicato al social reading di E e alla riflessione sul DWC , che conta oggi oltre 600 lettori attivi tra manager, accademici, professionisti HR, esperti di scrittura creativa, è un laboratorio di supervisione collettiva che alterna lettura, esercizi e produzione, per passare dall’uso degli strumenti alla competenza di governo dei processi di scrittura con AI.

In questo contesto,  il laboratorio sta producendo il Protocollo di Sorveglianza Stilistica: l’infrastruttura operativa che rende possibile questo passaggio. Un sistema vivo che:

  • definisce criteri per distinguere tra correzione e normalizzazione (cioè tra miglioramento necessario e perdita di voce);
  • introduce strumenti di diagnosi per riconoscere lo “stile medio” prodotto dai modelli;
  • stabilisce vincoli operativi (lessicali, sintattici, retorici) per proteggere la specificità autoriale;
  • supporta il ruolo del Supervisore, che resta responsabile del criterio e dell’autorizzazione finale del testo.

Il Protocollo si sta costruendo in forma incrementale e collaborativa, all’interno del laboratorio stesso: ogni contributo della community (osservazioni, casi d’uso, deviazioni, errori ricorrenti) viene discusso, testato e integrato in versioni successive. In questo senso, funziona come un sistema di apprendimento collettivo, in cui la scrittura non è solo produzione di contenuti, ma esercizio continuo di consapevolezza critica sul rapporto tra umano e AI.

Tutti coloro che sono interessati al tema sono invitati a partecipare.

Marco Minghetti

 Manager e intelligenza artificiale: istruzioni d’uso per una rivoluzione da governare (e non subire)

di Filippo Poletti*

L’intelligenza artificiale è il grande paradosso del nostro tempo. Da un lato, è una forza invisibile e onnipresente che modella le nostre vite digitali, spesso senza che ce ne accorgiamo. Dall’altro, quando bussa alla porta dell’ufficio, genera un’onda di scetticismo, timore e divisione. Per i manager di oggi, la domanda non è più “se” confrontarsi con l’AI, ma “come” trasformarla da potenziale disruptor a motore di efficienza e valore aggiunto.

La chiave di volta non risiede nell’adozione di tecnologie di AI generaliste, ma nello sviluppo di un approccio strategico e di un set di competenze umane nuove. È l’alba di una “primavera identitaria” che sta riscrivendo le regole del lavoro e della leadership, una leadership che – per citare Marco Minghetti e il suo Manifesto dello humanistic management ante litteram – deve avere come parole chiave l’apertura e l’open innovation.

L’AI, tecnologia senior che usiamo (quasi) tutti

Per comprendere la sfida, bisogna prima liberare il campo da un equivoco fondamentale: l’AI non è una novità. L’AI è una tecnologia senior con una storia lunga alle spalle, che risale addirittura al 1956. In quell’anno, in un college a Dartmouth nel New Hampshire, con vista simbolicamente rivolta verso l’Europa, l’informatico John McCarthy coniò il termine “intelligenza artificiale”, dando il via a un percorso di ricerca e di sviluppo che prosegue ancora oggi. Eppure, nel dibattito attuale, sembra non esserci la consapevolezza di questo passato: l’AI appare come un fenomeno nato oggi, senza uno “yesterday”, per citare la canzone di Paul McCartney e John Lennon.

Questa amnesia storica ci impedisce di riconoscere quanto l’AI sia già radicata nelle nostre abitudini. Ogni volta che sblocchiamo lo smartphone con il nostro volto (utilizzando la “face ID”), stiamo usando la computer vision, una tecnologia le cui origini risalgono al 1966 con Seymour Papert al MIT di Boston. La stessa tecnologia è all’opera quando una telecamera T-Red rileva un’infrazione al semaforo o quando seguiamo il tracciamento degli sciatori durante la telecronaca di una discesa. Quando la nostra casella di posta su Google separa magicamente i messaggi importanti dallo spam, o quando Amazon, Netflix e Spotify ci propongono acquisti, film e canzoni con sorprendente pertinenza, stiamo interagendo con il machine learning, proposto da Arthur Samuel in IBM addirittura nel 1959. Persino le mappe che ci guidano nel traffico o le metodologie che hanno permesso a Moderna ed altre case farmaceutiche di accelerare lo sviluppo del vaccino per il Covid si basano sull’analisi predittiva.

Usiamo l’AI ogni giorno, dunque, ma quando si tratta di portarla sulla scrivania, il fronte si divide tra il “sì” e il “no”

I fantasmi della mente: i bias che ostacolano il progresso

Questa dicotomia tra l’uso personale disinvolto e lo scetticismo professionale è alimentata da potenti pregiudizi. Tre sono particolarmente insidiosi. Il primo è il bias di conferma che ci spinge a cercare e a dare peso solo alle notizie e alle opinioni che rafforzano le nostre convinzioni, come l’idea che l’AI ruberà il lavoro, ignorando le evidenze contrarie. C’è poi il bias di ancoraggio, che ci fa restare legati a un’informazione iniziale (un’àncora, appunto) come il titolo di un giornale e giudicare l’intera questione sulla base di quello spunto. Infine, c’è il bias della negatività, una tendenza intrinseca della mente umana che ci porta a dare maggiore attenzione e peso agli aspetti negativi e ai rischi piuttosto che ai benefici e alle opportunità. Per un leader ai tempi dell’AI riconoscere questi bias in sé stesso e nel proprio team è il primo e fondamentale passo per avviare una discussione proficua.

A fornire un perimetro d’azione ci ha pensato il quadro normativo. La legge 132 del 23 settembre 2025, insieme alle linee guida del Ministero del Lavoro della fine del 2025, stabilisce un approccio “antropocentrico”: l’AI deve essere uno strumento al servizio dell’uomo, sicuro ed etico. Curiosamente, la legge italiana porta lo stesso numero della Fiat 132, un’auto per la cui produzione vennero usati in modo pionieristico robot industriali, un’analogia che sottolinea come l’innovazione tecnologica, se governata, possa portare a grandi sviluppi.

L’illusione dell’efficienza: il costo nascosto del “rework”

Anche superati i pregiudizi, l’adozione dell’AI presenta sfide operative. Una ricerca di Workday, presentata a Milano nel mese di marzo del 2026, ha svelato una verità scomoda: l’AI non è sempre sinonimo di efficienza. Lo studio rivela che quasi il 40% del tempo che i dipendenti risparmiano grazie all’automazione viene speso in attività di “rework”: pensiamo alle ore impiegate per correggere errori, controllare la veridicità degli output e riscrivere contenuti di bassa qualità generati da strumenti di AI generalisti. In pratica, per ogni ora guadagnata, si perdono 25 minuti a rivedere tutto.

Il dato forse più controintuitivo riguarda i giovani. Nonostante siano considerati nativi digitali e a loro agio con la tecnologia, i dipendenti junior rappresentano quasi la metà (46%) di coloro che dedicano più tempo a queste rielaborazioni, questi “rework”. Questo paradosso suggerisce come la familiarità con lo strumento non si traduca, nella pratica quotidiana, nel suo utilizzo strategico.

Per un manager la lezione è chiara: distribuire licenze di AI generaliste senza una strategia e una formazione adeguate non solo è inutile, ma può essere dannoso, creando un “lavoro-ombra” che erode la produttività e genera frustrazione.

La via d’uscita: AI verticali e le tre competenze del futuro

Se l’AI a “taglia unica” non funziona, la soluzione è la specializzazione. Il futuro appartiene alle AI verticali: parliamo di sistemi addestrati su dataset specifici per un determinato settore (legale, medico, finanziario o quant’altro) o per una funzione aziendale. Questi strumenti, come l’assistente “Virgilio AI” progettato per il libro Supervisor: i professionisti dell’AI, sono in grado di fornire risposte più pertinenti, ridurre drasticamente gli errori e agire come veri e propri copiloti specializzati.

Tuttavia, la tecnologia da sola non basta. La vera trasformazione richiede lo sviluppo di un nuovo mindset e di tre competenze fondamentali, che ogni manager dovrebbe coltivare per sé e il proprio team. Parliamo del vibe working, del prompt mindset e della supervisione. Proviamo a vedere di che cosa si tratta.

  1. Vibe working: è la capacità di lavorare in autentica simbiosi con le macchine. Non si tratta di delegare passivamente, ma di creare un flusso di lavoro ibrido in cui l’intelligenza umana e quella artificiale si completano a vicenda. L’uomo si occupa della strategia, della creatività, dell’empatia e del pensiero critico, mentre la macchina gestisce l’analisi di grandi moli di dati, l’automazione di compiti ripetitivi e la generazione di bozze. Sotto questo aspetto, è particolarmente interessante la riflessione di Matteo Roversi, co-fondatore di Cosmico, secondo il quale la competenza cruciale di oggi riguarda la capacità di adattarsi alla situazione in costante cambiamento del mondo del lavoro, evitando la trappola della specializzazione eccessiva. Oggi l’AI può generare qualunque tipo di output specialistico in pochi minuti, con una qualità sempre crescente e con costi molto ridotti. La specializzazione verticale, che doveva essere la protezione dei professionisti, è diventata la nostra vulnerabilità. Oggi l’intelligenza artificiale accelera l’obsolescenza delle competenze tecniche. Conta essere una professionista o un professionista “deep generalist”, capace di padroneggiare principi universali (come la comunicazione, il problem solving e la creatività), applicandoli a contesti diversi. Non si tratta di essere superficiali, ma di adattarsi e reinventarsi, passando da essere “esperto di” a “creatore di connessioni”, da “fare cose” a “risolvere problemi”.
  2. Prompt mindset: è l’arte di saper interrogare l’AI. La qualità dell’output di un’AI generativa è direttamente proporzionale alla qualità dell’input (il “prompt”). Saper formulare domande precise, fornire il giusto contesto e guidare lo strumento verso il risultato desiderato è una competenza che distingue un utente non esperto da un professionista navigato. Sviluppare un “prompt mindset” significa trasformare l’AI da un oracolo imprevedibile a un collaboratore affidabile, a cui delegare compiti a basso valore per liberare tempo prezioso.
  3. Supervisione: questa è la competenza non negoziabile. L’AI, anche la più avanzata, non possiede coscienza né comprensione del mondo reale. Può commettere errori, inventare dati (le cosiddette “allucinazioni”) e replicare i bias presenti nei dati di addestramento. La supervisione umana non è un’opzione, ma un imperativo etico e professionale. Il caso del tribunale di Siracusa, che all’inizio del 2026 ha sanzionato un avvocato per aver costruito una memoria difensiva su quattro precedenti della Cassazione completamente inventati dall’AI, è un monito molto forte. La responsabilità finale di ogni decisione, di ogni documento e di ogni azione resta e deve restare saldamente nelle mani del manager e di tutti i suoi collaboratori. Come ha raccontato da Roberto Navigli, padre dell’LLM Minerva, il supervisore dell’AI non è un “nuovo specialista dell’informatica”, ma un facilitatore del cambiamento: è colei o colui che traduce il potenziale tecnologico in valore concreto per pazienti, clienti e cittadini. In un mondo in cui la fiducia si fonda sulla capacità di coniugare tecnologia, competenza, etica e responsabilità, il manager supervisore, in sostenza, è il garante del dialogo tra l’uomo e la macchina.

Sì all’AI, ma con intelligenza (umana)

In conclusione, dire di “sì” all’intelligenza artificiale nel mondo del lavoro è una scelta quasi obbligata, ma il modo in cui si pronuncia questo “sì” fa tutta la differenza. Per i manager, la sfida è guidare una transizione che sia strategica, consapevole e incentrata sulla valorizzazione delle persone. Significa scegliere gli strumenti giusti (verticali e non generalisti), investire massicciamente nella formazione sulle nuove competenze (vibe working, prompt mindset e supervisione) e promuovere una cultura della curiosità critica.

Solo a queste condizioni l’AI smetterà di essere un’incombenza da gestire e diventerà quello che promette di essere, ossia un acceleratore di intelligenza umana e della sua collaborazione tra le persone spiegata da Minghetti, capace di liberare potenziale e migliorare il modo di lavorare dei manager e del resto del team. In fondo, l’intelligenza artificiale e le tecnologie rappresentano una grande occasione per rimettere al centro della discussione che cosa intendiamo per “umano” nel mondo del lavoro.

* Top voice di LinkedIn Italia, milanese con executive MBA alla business school del Politecnico di Milano e TEDx speaker, dal 2017 Filippo Poletti cura su LinkedIn una rubrica giornaliera dedicata ai cambiamenti del lavoro. Il suo profilo è stato inserito da WikiMilano tra i protagonisti della metropoli. Giornalista professionista ha collaborato con 30 testate come il Corriere della Sera, il Sole 24 Ore e il Messaggero. Tra i suoi i libri, pubblicati da Mondadori, Guerini, Egea, Franco Angeli e altre case editrici, “Tempo di IoP: Intranet of People”, “Smart Leadership Canvas: come guidare la rivoluzione dell’intelligenza artificiale”, “L’arte dell’ascolto: musica al lavoro”. Insegna strategia della comunicazione all’Università di Pavia e in aziende.

177 – continua

Puntate precedenti

1 – DALLO HUMANISTIC AL POP MANAGEMENT
2 – MANIFESTI, ATLANTI, MAPPE E TERRITORI
3 – IL MANAGER PORTMANTEAU
4 – WHICH WAY, WHICH WAY?
5 – LEADERSHIP POP (LEZIONI SHAKESPEARIANE)
6 – OPINION PIECE DI RICCARDO MAGGIOLO
7 – LEADERSHIP POP (APERTURA, AUTONOMIA, AGIO, AUTO-ESPRESSIONE)
8 – OPINION PIECE DI JOSEPH SASSOON
9 – OPINION PIECE DI CESARE CATANIA
10 – OPINION PIECE DI VANNI CODELUPPI
11 – OPINION PIECE DI ALESSANDRO GIAUME
12 – COLLABORAZIONE POP. L’IRRESISTIBILE ASCESA DELLE COMMUNITY INTERNE
13 – COLLABORAZIONE POP. L’EMPATIA SISTEMICA
14 – COLLABORAZIONE POP. LE COMMUNITY AZIENDALI: UNO STATO DELL’ARTE, PARTE PRIMA
15 – COLLABORAZIONE POP. LE COMMUNITY AZIENDALI: UNO STATO DELL’ARTE, PARTE SECONDA
16 – OPINION PIECE DI MATTEO LUSIANI
17 – OPINION PIECE DI MARCO MILONE
18 – OPINION PIECE DI ALESSIO MAZZUCCO
19 – OPINION PIECE DI ALESSANDRA STRANGES
20 – OPINION PIECE DI FRANCESCO VARANINI
21 – ORGANIZZAZIONE  POP. COMANDO, CONTROLLO, PAURA, DISORIENTAMENTO
22 – OPINION PIECE DI ROBERTO VERONESI
23 – OPINION PIECE DI FRANCESCO GORI
24 – OPINION PIECE DI NELLO BARILE
25 – OPINION PIECE DI LUCA MONACO
26 – OPINION PIECE DI RICCARDO MILANESI
27 – OPINION PIECE DI LUCA CAVALLINI
28 – OPINION PIECE DI ROBERTA PROFETA
29 – UN PUNTO NAVE
30 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CURA)
31 – OPINION PIECE DI NICHOLAS NAPOLITANO
32 – LEADERSHIP POP. VERSO L’YPERMEDIA PLATIFIRM (CONTENT CURATION)
33 – OPINION PIECE DI FRANCESCO TONIOLO
34 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CONVIVIALITA’)
35 – OPINION PIECE DI LUANA ZANELLATO
36 – OPINION PIECE DI ANDREA BENEDETTI E ISABELLA PACIFICO
37 – OPINION PIECE DI STEFANO TROILO
38 – OPINION PIECE DI DAVIDE GENTA
39 – OPINION PIECE DI ANNAMARIA GALLO
40 – INNOVAZIONE POP. ARIMINUM CIRCUS: IL READING!
41 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CONVOCAZIONE)
42 – OPINION PIECE DI EDOARDO MORELLI
43 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CO-CREAZIONE DI VALORE)
44 – OPINION PIECE DI MARIANNA PORCARO
45 – OPINION PIECE DI DONATO IACOVONE
46 – OPINION PIECE DI DENNIS TONON
47 – OPINION PIECE DI LAURA FACCHIN
48 – OPINION PIECE DI CARLO CUOMO
49 – OPINION PIECE DI CARLO MARIA PICOGNA
50 – OPINION PIECE DI ROBERTO RAZETO
51 – OPINION PIECE DI ALBERTO CHIAPPONI
52 – OPINION PIECE DI ALESSANDRO ANTONINI
53 – OPINION PIECE DI ALESSANDRA PILIA
54 – OPINION PIECE DI CLEMENTE PERRONE
55 – OPINION PIECE DI FABRIZIO RAUSO
56 – OPINION PIECE DI LORENZO TEDESCHI
57 – OPINION PIECE DI EUGENIO LANZETTA
58 – OPINION PIECE DI GIOLE GAMBARO
59 – OPINION PIECE DI DANTE LAUDISA
60 – OPINION PIECE DI GIAMPIERO MOIOLI
61 – OPINION PIECE DI GIOVANNI AMODEO
62 – OPINION PIECE DI ALESSANDRO LOTTO
63 – OPINION PIECE DI GIANLUCA BOTTINI
65– OPINION PIECE DI SIMONE FARINELLI
66– OPINION PIECE DI FRANCESCA ANNALISA PETRELLA
67– OPINION PIECE DI VALERIO FLAVIO GHIZZONI
68– OPINION PIECE DI STEFANO MAGNI
69– OPINION PIECE DI LUCA LA BARBERA
70 – INNOVAZIONE POP. ARIMINUM CIRCUS: LA GRAPHIC NOVEL!
71 – LEADERSHIP POP. APOFATICA E CATAFATICA DELLA COMUNICAZIONE
72 – OPINION PIECE DI FEDERICA CRUDELI
73– OPINION PIECE DI MELANIA TESTI
74 – OPINION PIECE DI GIANMARCO GOVONI
75– OPINION PIECE DI MARIACHIARA TIRINZONI
76 – SENSEMAKING POP. LODE DELLA CATTIVA CONSIDERAZIONE DI SE’
77 – OPINION PIECE DI ALESSANDRA CAPPELLO E ALESSANDRA MAZZEI
78 – OPINION PIECE DI JOE CASINI
79 – OPINION PIECE DI MARTA CIOFFI
80 – STORYTELLING POP. VERSO IL POP BRANDING (PARTE PRIMA)
81 – STORYTELLING POP. VERSO IL POP BRANDING (PARTE SECONDA)
82 – STORYTELLING POP. VERSO IL POP BRANDING (NOTE A MARGINE)
83 – ENGAGEMENT POP. IL MANAGER INGAGGIANTE IMPARA DAI POKEMON
84 – ENGAGEMENT POP. DARE VOCE IN CAPITOLO
85 – ENGAGEMENT POP. COMUNICARE, VALUTARE, TRASFORMARE
86 – SENSEMAKING POP. MALATTIA MENTALE E BENESSERE PSICOLOGICO SUL LAVORO
87 – SENSEMAKING POP. FOLLIA O DIVERSITA’?
88 – OPINION PIECE DI LUIGIA TAURO
89 – OPINION PIECE DI NILO MISURACA
90 – OPINION PIECE DI FRANCESCO DE SANTIS
91 – INNOVAZIONE POP. REMIX, RI-USO, RETELLING
92 – STORYTELLING POP. ARIMINUM CIRCUS AL BOOK PRIDE 2025
93 – OPINION PIECE DI SIMONE VIGEVANO
94 – OPINION PIECE DI LORENZO FARISELLI
95 – OPINION PIECE DI MARTINA FRANZINI
96 – OPINION PIECE DI EMANUELA RIZZO
97 – INNOVAZIONE POP. OLTRE LA PRE-INTERPRETAZIONE
98 – INNOVAZIONE POP. FORMAZIONE: ANALOGICA, METAVERSALE, IBRIDA
99 – ARIMINUM CIRCUS: LA VISUAL NOVEL!
100 – La (P) AI INTELLIGENCE (PARTE PRIMA)
101 – La (P) AI INTELLIGENCE (PARTE SECONDA)
102 – La (P) AI INTELLIGENCE (PARTE TERZA)
103– La (P) AI INTELLIGENCE (PARTE QUARTA)
104– La (P) AI INTELLIGENCE (PARTE QUINTA)
105– OPINION PIECE DI ALEXANDRA NISTOR
106– FORMAZIONE POP. PARTE PRIMA
107– FORMAZIONE POP. PARTE SECONDA
108– OPINION PIECE DI FEDERICA GRAZIA BARTOLINI
109– OPINION PIECE DI FEDERICO PLATANIA
110– OPINION PIECE DANIELA DI CIACCIO
111– OPINION PIECE DI LUCIANA MALARA E DONATELLA MONGERA
112– IL RITORNO DEL CEOPOP
113– LA VISIONE DEI CEOPOP (VOLUME 1)
114– LA VISIONE DEI CEOPOP (VOLUME 2)
115 – LA COMUNICAZIONE DEL CEOPOP
116– CEOPOP E PARTI SOCIALI
117– CHE POP MANAGER SEI? L’ESTETA
118– STORYTELLING POP. UNA COMUNICAZIONE POP PER IL NON PROFIT
119– CHE POP MANAGER SEI? VISIONARIO/VISIONARIA
120– OPINION PIECE DI REMO PONTI
121– CHE POP MANAGER SEI? EMPATICA/EMPATICO
122– OPINION PIECE DI GIACOMO GRASSI
123– CHE POP MANAGER SEI? INNOVATORE/INNOVATRICE
124– SECONDA CONVERSAZIONE COLLABORATIVA SUL POP BRANDING
125– CHE POP MANAGER SEI? SIMPOSIARCA
126– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (1)
127– CHE POP MANAGER SEI? ESPLORATORE/ESPLORATRICE
128– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (2)
129– CHE POP MANAGER SEI? IRONIC DIVA/DIVO
130– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (3)
131– CHIUSI PER FERIE
132– OPINION PIECE DI ELENA BOBBOLA E MARIE LOUISE DENTI
133– CHE POP MANAGER SEI? PRATICO/PRATICA
134- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – INDUSTRIA
135- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – NO SERVIZI
136- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – NO PROFIT
137- LEADERSHIP POP E VIDEOGIOCHI. PARTE PRIMA
138- LEADERSHIP POP E VIDEOGIOCHI. PARTE SECONDA
139- LA CONSULENZA NELL’ERA DELL’AI AGENT
140- INNOVAZIONE POP NEL RETAIL
141- LA NUOVA ERA MEDIATICA
142- BRAND FORWARD!
143- OPINION PIECE DI ALESSANDRA LAZZAZARA E STEFANO ZA
144- LA FORZA DELLA GENTILEZZA. PARTE PRIMA
145- LA FORZA DELLA GENTILEZZA. PARTE SECONDA
146 – NELLO BARILE E LE IMMAGINI DI UN MONDO IN FRANTUMI
147 – INNOVARE NELLA PA
148 – OPINION PIECE DI SALVATORE RICCO
149 – OPINION PIECE DI LUCA MAGNI
150 – INNOVAZIONE POP. DISTANT WRITING E SOCIAL READING
151 – L’ADOZIONE LENTA DELLA AI IN AZIENDA – 1
152 – OPINION PIECE DI CRISTIANO GHIRINGHELLI, RAOUL NACAMULLI, LUCA QUARATINO 
153 – OPINION PIECE DI MICHELA MATARAZZO
154 – OPINION PIECE DI MARIA FRANCESCA IANNONE
155– OPINION PIECE DI MOIRA BUZZOLANI
156– OPINION PIECE DI LUCA GUERRASIO
157 – IMPARARE LA LEADERSHIP DALLE SERIE TV
158 – DA HAMLET A E: GENEALOGIA DEL DISTANT WRITING COLLABORATIVO
159 – OPINION PIECE DI PAOLO BORTOLOTTI
160 – DAL DISTANT WRITING AL SOCIAL READING: TRE LIVELLI DI INTELLIGENZA COLLABORATIVA
161 – L’ADOZIONE LENTA DELLA AI IN AZIENDA – 2
162 – DALL’AZIENDA NARRATIVA ALLA COMMUNITY INTERPRETANTE
163 – OPINION PIECE DI MARCO GRECO
164 – LE AI CHE RECITANO LA COSCIENZA
165 – LA SINGOLARITA’ ORGANIZZATIVA
166 – MANAGER ALL’ASILO!
167 – IL MANOSCRITTO E LA RESA SILENZIOSA
168 – L’INTELLIGENZA ARTIFICIALE NELLE VENDITE
169 – OPINION PIECE DI CATERINA BOSCHETTI
170 – INTELLIGENZA ARTIFICIALE E STILI COGNITIVI
171 – OPINION PIECE DI GIULIA ALOISIO RAFAIANI
172 – DAGLI STILI COGNITIVI ALLA GOVERNANCE COGNITIVA
173 – OPINION PIECE DI FRANCOIS RASTIER
174 – OPINION PIECE DI DANIELA GENSABELLA
175 – OPINION PIECE DI ALEX CASCARANO
176 – OPINION PIECE DI ELIO BORGONOVI, FILIPPO ABRAMO, MAURO MEDA