Prolegomeni al Manifesto del Pop Management 151. Innovazione Pop. L’adozione lenta dell’AI in azienda: le cause e le opportunità mancate – 1

La riflessione sull’AI nel nostro percorso Pop

Chi segue le riflessioni che stiamo conducendo sul Pop Management, sa che il tema dell’AI, da tempo, lo affrontiamo come questione organizzativa: adozione, competenze, criteri, responsabilità, pratiche.

Già nel Prolegomeno 18, con l’Opinion Piece di Alessio Mazzucco, abbiamo osservato come la “penetrazione pop” della tecnologia stia cambiando linguaggi e abitudini di lavoro (collaborazione continua, tool conversazionali, forme comunicative più immediate) e abbiamo iniziato a porci domande operative molto concrete sull’uso dell’IA nella quotidianità professionale.

Con i Prolegomeni 100103 incentrati sulla descrizione della (P)AI – Pop Ape Intelligence il discorso è diventato cornice: l’AI intrecciata con Mindset Pop, cura, convocazione, sensemaking e collaborazione, quindi con una prospettiva che tiene insieme cultura e processi. Una prospettiva tradotta in pratica con Ariminum Circus (Prolegomeni 70, 91, 92, 99) – il progetto transmediale che, attraversando format diversi (romanzo illustrato, graphic novel, visual novel, videogioco), interroga la relazione fra umano e artificiale, scrittura e immagini, autore e intelligenza: un “romanzo ibrido, insieme lisergico e filosofico” dove l’autore ha immaginato di essere un’AI per restituire la deflagrazione della contemporaneità. Un esempio di come la sperimentazione narrativa possa anticipare questioni che poi diventano urgenze organizzative.

Nel Prolegomeno 139 abbiamo poi spinto l’attenzione su orchestrazione e governance nell’era degli AI agent: stack, integrazione, audit, ruoli, interfacce, metriche. In altre parole: le condizioni che decidono se un’iniziativa resta pilota oppure diventa trasformazione.

Il Prolegomeno 140 ha tradotto questi principi in un caso concreto: l’Allineamento Adattivo nel retail, mostrando come orchestrare end-to-end merchandising, supply chain, pricing, e-commerce e post-vendita attraverso KPI Dictionary, data contract, Enterprise Architecture e AI agents governati con tracciabilità e guardrail. Un esempio di come la teoria diventi metodo operativo misurabile, con ciascuna iniziativa che esplicita impatto, responsabilità e verificabilità lungo l’intera catena del valore.

E nel Prolegomeno 143, con l’Opinion Piece di Alessandra Lazazzara e Stefano Za (La rivoluzione POP della AI nei processi HR), il tema è entrato nei processi people con tutta la sua ambivalenza: produttività e qualità dell’esperienza, insieme a trasparenza, fiducia e responsabilità d’uso.

Per quanto riguarda più specificamente la formazione, il white paper Pop Learning  (BIP Red), mette a fuoco un criterio decisivo: la formazione diventa efficace quando è “immersiva, partecipativa e integrata nella quotidianità lavorativa” e quando si configura come learning ecosystem fondato su co-progettazione, community di pratica e micro-esperienze distribuite nel tempo e nello spazio. Qui l’AI entra come abilitatore della personalizzazione: “per l’analisi dei bisogni, la generazione di contenuti e l’adattamento continuo dell’esperienza di apprendimento”, con chatbot, learning assistant e piattaforme adattive.

Il white paper insiste però anche su una condizione d’uso: “L’obiettivo è aumentare le capacità umane e non sostituirle”, perché l’ergonomia cognitiva degli LLM facilita l’adozione, e insieme amplifica il rischio di delega eccessiva. Da qui il tema del “debito cognitivo” e la conseguente priorità formativa: costruire AI literacy e soprattutto allenare pensiero critico dentro percorsi progettati prima della scelta degli strumenti. In sintesi, “AI come alleato, non come sostituto” diventa un principio operativo di Pop Learning, utile anche per leggere le ragioni della lenta adozione dell’AI in azienda che questa Conversazione indaga. Inizio modulo

Infine, il Prolegomeno 150 ha segnato un ulteriore passaggio: partendo dall’articolo di Luciano Floridi sul distant writing, abbiamo messo in evidenza come la scrittura assistita da modelli linguistici trasformi l’autore in narrative designer, spostando la responsabilità editoriale dalla produzione testuale alla progettazione di contesti, vincoli e criteri, che può coinvolgere anche più di una AI. Un approccio che ho sperimentato praticamente nel romanzo “E”, coordinando tre sistemi di intelligenza artificiale nel processo di scrittura: non più autore che esegue, ma progettista che orchestra ambienti narrativi, vincoli e criteri di coerenza–il distant writing teorizzato da Floridi rielaborato e tradotto in prassi letteraria verificabile. Un’estensione naturale di quanto sostenuto sull’intelligenza collaborativa e sulla centralità della progettazione dei contesti nel Pop Management.

Un ragionamento che dialoga direttamente con quanto Luca Magni aveva evidenziato nel Prolegomeno 149 sulla leadership generativa come capacità di architettare mondi simbolici: anche nel distant writing, l’autore diventa progettista di ambienti di senso, non più semplice esecutore di testi. In quel contesto abbiamo introdotto un esercizio di social reading inteso come dispositivo di governance del feedback e come forma di co-responsabilità sulla qualità: un metodo che rende esplicite scelte, criteri e differenze, trasformando la lettura in processo collaborativo di ri-scrittura.

Il problema dell’adozione lenta

Su questo terreno – ricco di riflessioni teoriche, sperimentazioni operative e contaminazioni tra AI e pratiche organizzative – si inserisce questa Conversazione curata da Damiano Nargi e Gioele Gambaro. Qui emerge il paradosso: nonostante questa elaborazione continua, nonostante gli strumenti siano accessibili e le potenzialità evidenti, i due curatori rilevano una adozione lenta dell’AI in azienda e decidono di indagarne sistematicamente le ragioni. Non per smentire quanto costruito finora, ma per attraversare il gap tra promesse tecnologiche e realtà organizzativa, tra visioni strategiche e resistenze operative, tra early adopters individuali e inerzia sistemica.

Il punto di partenza è un paradosso che molti sperimentano: attività e “lavoro” fondati su AI accelerano nel quotidiano, mentre a livello macro gli effetti attesi su produttività e indicatori restano, per ora, meno evidenti.

Per indagare questa frizione, i curatori hanno scelto un panel volutamente plurale e, in questa prima parte, mettono a confronto le voci di Luca Solari, Daniel Smulevich, Luciano Pilotti e Andrea Boscaro.

Ne emergono alcuni snodi che chiamano direttamente in causa il Pop Management: freni di legal e compliance (anche per incomprensioni e timori legati all’AI Act), proliferazione di iniziative ridotte a chatbot e point solution, assenza di standard, training spesso informale “dal basso”, bisogno di investimenti strutturati in formazione e riqualificazione, fino alle condizioni abilitanti nella PA (digitalizzazione e interoperabilità dei dati).

Chiudo tornando al Prolegomeno 150. Grazie a tutte e a tutti quelli che hanno già aderito al social reading  dedicato al romanzo E: avete trasformato la lettura in metodo, rendendo il feedback parte del processo. E grazie fin d’ora a chi si aggiungerà: più questa Conversazione diventa condivisa e “attrezzata”, più aumenta la sua utilità per chi deve decidere e agire dentro le organizzazioni.

Ricordo che tutti coloro che vogliono partecipare al social reading possono farlo iscrivendosi al Gruppo LinkedIn dedicato: Romanzo E- social reading pop

Indagine sui motivi della lenta adozione dell’AI in azienda. Quali le cause e quali le mancate opportunità?

A cura di

Damiano Nargi, Regional Director Italia per Jellyfish. Keynoter ad eventi di settore e guest lecturer all’Università degli Studi di Milano.

Gioele Gambaro, Fractional Marketing Manager specializzato in start-up e scale-up. Guest lecturer all’Università Cattolica del Sacro Cuore e all’Università degli Studi di Milano.

Un breve excursu storico

Per molti decenni l’intelligenza artificiale è stata un territorio d’élite, un ambito di ricerca confinato nelle università e nei centri di sviluppo delle grandi corporation tecnologiche. L’AI dei primi anni era un campo per pochi, costruito su basi matematiche e informatiche complesse, con una forte verticalizzazione delle competenze. Gli algoritmi erano rigidi, le risorse computazionali limitate, e il lavoro di ricerca si concentrava più sulla teoria che sull’applicazione. In questa prima fase, l’AI era essenzialmente un progetto accademico, un esercizio intellettuale volto a esplorare i confini della cognizione artificiale più che a risolvere problemi concreti di business.

La formazione necessaria per operare in questo campo seguiva percorsi altamente tecnici come fisica, matematica, informatica, ingegneria e richiedeva una specializzazione verticale. L’AI, di fatto, viveva all’interno di silos di competenza: un ecosistema chiuso, in cui la distanza tra ricerca teorica e applicazione pratica risultava abissale. Le imprese che tentavano di implementare soluzioni di intelligenza artificiale si concentravano su ambiti molto specifici: la previsione della domanda in settori manifatturieri, il rilevamento delle frodi finanziarie, o la manutenzione predittiva in ambito industriale. In altre parole, l’AI era una tecnologia a perimetro ristretto, capace di generare valore solo dove l’alta complessità dei processi giustificava l’investimento richiesto.

Questo paradigma ha iniziato a cambiare con l’evoluzione dell’embedded AI, ossia l’integrazione di algoritmi intelligenti all’interno di dispositivi e software di uso comune. È stato un momento di svolta silenzioso ma epocale: l’intelligenza artificiale ha smesso di essere un oggetto esterno, qualcosa da “integrare” dopo, per diventare parte nativa delle tecnologie quotidiane. Dai sistemi di raccomandazione dei servizi streaming ai suggerimenti di scrittura nei motori di ricerca, fino agli assistenti vocali integrati negli smartphone: l’AI ha cominciato a permeare il quotidiano senza quasi che ce ne accorgessimo.

A questo punto, la barriera tecnica ha iniziato a erodersi. Con l’avvento di piattaforme di Applied AI, l’intelligenza artificiale è diventata una tecnologia di servizio: non più sviluppata da zero, ma accessibile tramite API, moduli pre-addestrati e ambienti di deployment semplificati. L’AI applicata ha rappresentato la fase in cui il valore è passato dalla pura capacità computazionale alla capacità di utilizzo. Non era più necessario essere un data scientist per sfruttare l’AI: bastava comprenderne la logica e saperla integrare nei processi aziendali.

Ma è con la Generative AI che la rivoluzione è diventata universale. La democratizzazione dei modelli linguistici e multimodali ha rappresentato la definitiva “volgarizzazione” dell’intelligenza artificiale nel senso più nobile del termine: una tecnologia che, da sapere specialistico, si trasforma in competenza diffusa. Per la prima volta, l’AI è stata messa nelle mani di chi non ha formazione tecnica, offrendo la possibilità di dialogare con sistemi intelligenti attraverso il linguaggio naturale. È un passaggio culturale tanto quanto tecnologico: la conoscenza, mediata da interfacce conversazionali, diventa accessibile, personalizzabile e replicabile.

Questa trasformazione ha prodotto un effetto di cross-fertilization senza precedenti. Funzioni aziendali un tempo distanti come marketing, logistica, operations, risorse umane, finanza hanno iniziato a contaminarsi, condividendo strumenti, metriche e metodologie basate sull’AI. Il marketing ha adottato modelli predittivi per la segmentazione e la creatività automatizzata; la logistica ha sfruttato reti neurali per ottimizzare percorsi e tempi di consegna; il finance ha incorporato algoritmi di analisi predittiva per la gestione del rischio; le operations hanno introdotto sistemi di visione artificiale per la qualità e la sicurezza. In questa convergenza disciplinare, l’AI è diventata una infrastruttura cognitiva che attraversa l’organizzazione orizzontalmente, collegando mondi che prima non comunicavano.

Dal punto di vista tecnico, questa “volgarizzazione” dell’intelligenza artificiale ha significato astrazione della complessità: la difficoltà non sta più nel costruire modelli, ma nel saperli applicare e adattare al contesto. La sfida si è spostata dal codice alla strategia. I modelli non sono più una prerogativa delle Big Tech, ma strumenti integrabili anche da PMI e startup, grazie a piattaforme cloud e framework open-source. La conoscenza tecnica ha lasciato il posto a una nuova forma di competenza: la intelligenza applicata, ovvero la capacità di orchestrare soluzioni AI per generare valore reale, misurabile, continuo.

Sociologicamente, questa diffusione capillare dell’AI ha ridefinito il concetto stesso di competenza professionale. Se un tempo la distinzione tra chi “creava” e chi “usava” la tecnologia era netta, oggi quella linea è scomparsa. L’intelligenza artificiale non è più uno strumento di nicchia, ma un agente sociale che modifica il modo di pensare, di lavorare e persino di apprendere. L’AI non sostituisce solo attività umane ma le trasforma: automatizza i compiti ripetitivi, potenzia quelli creativi, estende la capacità cognitiva delle persone, diventando una sorta di estensione intellettuale collettiva.

Il risultato è una società che si muove verso una nuova forma di alfabetizzazione: la AI literacy. Saper utilizzare un modello di intelligenza artificiale non è più una competenza “tecnica”, ma una competenza culturale, al pari della scrittura o del pensiero critico. Chi sa comprendere il funzionamento dei sistemi intelligenti, anche solo nei principi, è oggi in grado di partecipare attivamente alla costruzione del futuro.

In definitiva, siamo passati da un’AI “chiusa” che era un dominio esclusivo di ingegneri e matematici, a un’AI “aperta”, integrata nei flussi di lavoro quotidiani e nei processi decisionali di ogni livello. Un passaggio epocale che non segna la fine della tecnica, ma la sua umanizzazione: l’intelligenza artificiale non come sostituto dell’uomo, ma come amplificatore delle sue possibilità.

Oggi, parlare di AI non significa più parlare di algoritmi, ma di ecosistemi di intelligenza diffusa. L’AI è diventata uno specchio della società contemporanea: quanto più la comprendiamo, tanto più ci restituisce la misura della nostra stessa evoluzione.

Perché gli effetti economici non si manifestano?

A questa apertura è seguita meno di quanto atteso in termini sia positivi (aumento della produttività e del PIL) sia negativi (disoccupazione). Nel momento in cui scriviamo, la crescita produttiva dell’Europa resta molto bassa (un po’ peggio in Italia), quella degli Stati Uniti non sembra essere quella di una nuova rivoluzione industriale. D’altro canto, la disoccupazione americana resta vicino al frizionale.

Eppure, molti di noi hanno constatato come il “lavoro” (compresi disbrighi di pratiche quotidiane) sia divenuto molto più rapido con l’IA.
Abbiamo quindi da un lato aziende che temporeggiano, mentre un numero crescente di early adopters li usa sia informalmente al lavoro, sia per attività quotidiane. Pur non avendo dati ufficiali, la nostra impressione è che buona parte del training avvenga per canali informali e in autonomia, piuttosto tramite formazione aziendale.

Per indagare questa apparente contraddizione abbiamo intervistato un panel di esperti: la nostra volontà è stata quella di coinvolgere professionisti provenienti da molteplici aree: studiosi di organizzazione aziendale, head hunter, imprenditori nel settore IA, informatici e tecnici specializzati nella loro implementazione. Questa scelta ci ha permesso di far emergere punti di consenso e di dissenso tra le diverse lenti attraverso la quale si può vedere il fenomeno. D’altronde come in finanza il consensus molto spesso è più preciso della stima del singolo analista, pensiamo che questo approccio consenta di annullare bias particolari, facendo dunque emergere una visione più oggettiva e profonda.

In questa prima parte della Conversazione partecipano:

Luca Solari, professore ordinario di Management of Human Resources presso l’Università degli Studi di Milano

Daniel Smulevich, Executive Vice President Cloud & AI per Jellyfish

Luciano Pilotti, professore ordinario di Strategia aziendale presso l’Università degli Studi di Milano

Andrea Boscaro, fondatore di The Vortex ed esperto di processi di integrazione IA nella pubblica amministrazione

Luca Solari: “L’IA deve intervenire sui processi reali, non sulle funzioni isolate.”

Domanda: In molte aziende sembra esserci prudenza nell’adottare l’AI. Come descriveresti lo stato attuale?

Risposta: Si osserva un forte freno, in particolare da parte delle funzioni legali e compliance, reso più evidente dall’AI Act, che molti non comprendono ancora. Il risultato è una paralisi: non capendo, si preferisce non fare nulla. La maggior parte delle iniziative si concentra sui chatbot, perché sono percepiti come l’applicazione più semplice. Tuttavia, la differenza rispetto ai chatbot tradizionali è minima: questi parlano meglio, ma non trasformano realmente i processi. Inoltre, generano ambiguità e sfiducia tra clienti e dipendenti, poiché l’interazione con una “macchina” resta percepita come meno affidabile.

Domanda: Da dove deriva, secondo te, la difficoltà nel trarre benefici concreti dalle nuove tecnologie, AI inclusa?

Risposta: È un fenomeno che parte da lontano. Già con l’introduzione massiva dell’IT gli effetti sulla produttività sono stati molto inferiori alle attese. L’AI si inserisce in questa continuità: è una tecnologia sistemica, come lo furono i motori a combustione, ma manca l’“innovazione sistemica” che ne permetterebbe un impatto diffuso. Né pubblico né privato hanno investito a sufficienza in infrastrutture, accessibilità e competenze di base.

Domanda: Quindi il problema è anche di formazione e cultura diffusa?

Risposta: Sì, ma non solo. L’AI tocca ambiti di relazione e cognizione, molto più complessi da normare o standardizzare rispetto, per esempio, alla guida di un’auto. Inoltre, non tutti percepiscono queste tecnologie come necessarie. Finché le organizzazioni non si trasformeranno davvero mettendo in discussione processi, ruoli e culture manageriali – la popolazione potrà continuare a vivere senza sentirne il bisogno. È ancora un fenomeno elitario, nonostante la visibilità mediatica.

Domanda: Eppure la narrazione dominante parla di un cambiamento epocale.

Risposta: Sì, ma è più comunicazione che realtà. Le ricerche e i report di grandi società continuano a promettere rivoluzioni come fecero anni fa con il “digitale”, ma nei fatti nessuno viene scartato a un colloquio perché non sa usare ChatGPT. È la prova che la trasformazione è ancora superficiale. Molti rifiutano il cambiamento perché richiede di modificare il proprio modo di lavorare, e questo genera resistenza.

Domanda: Secondo te perché le persone attribuiscono intelligenza a sistemi che in realtà non comprendono?

Risposta: Perché confondiamo forma e contenuto. I modelli linguistici generano testi ben scritti, e noi tendiamo a interpretare la qualità del linguaggio come prova di competenza. È un bias cognitivo profondo: giudichiamo l’intelligenza dall’espressione verbale, non dalla verità o dalla profondità del contenuto. Queste tecnologie sfruttano proprio quella illusione.

Domanda: Forse è anche una questione evolutiva: siamo predisposti a vedere “agency” dove non c’è.

Risposta: Probabilmente sì. L’essere umano ha sempre cercato un “altro da sé” come Dio, alieni, robot, ora l’intelligenza artificiale. È un bisogno profondo di riconoscere un interlocutore che ci rifletta e ci definisca. Ma questa fascinazione è alimentata anche da enormi interessi economici: chi investe trilioni deve per forza alimentare la narrativa magica.

Domanda: Passando a un piano più organizzativo: cosa può fare un’azienda davvero motivata per integrare l’AI in modo utile?

Risposta: Deve intervenire sui processi reali, non sulle funzioni isolate. Serve mappare un intero flusso – dall’inizio alla fine – che abbia impatto misurabile sul business, ad esempio sul profit and loss. Automatizzare un singolo passaggio, come il pre-screening dei CV, produce solo un vantaggio marginale. Occorre analizzare processi completi, capire dove l’informazione viene generata, elaborata e utilizzata, e verificare come nuovi modelli di trattamento dei dati incidano sui risultati.

Domanda: Quando dici “dall’inizio alla fine” ti riferisci alla catena completa, per esempio dalla fornitura al go-to-market?

Risposta: Esatto, anche se io partirei dal risultato finale e risalirei a ritroso. L’obiettivo è collegare processi estesi, perché oggi la maggior parte delle attività aziendali dipende da decisioni esterne. Inoltre, mancano standard condivisi e questo genera forti lock-in tecnologici: se lavori con un certo provider, difficilmente puoi cambiare. È come se ogni costruttore d’auto avesse un carburante diverso: impossibile scalare senza standardizzazione.

Domanda: Anche la corsa tra i diversi modelli AI sembra caotica.

Risposta: Sì, è dispendiosa e spesso più di marketing che di sostanza. Le differenze reali tra modelli sono limitate, ma ognuno rivendica superiorità etica o qualitativa per differenziarsi. È una competizione che ricorda certi slogan pubblicitari più che un progresso tecnico sostanziale.

Il contributo di Luca Solari mette in luce un primo elemento: l’adozione dell’AI non è frenata dalla tecnologia, ma dal modo in cui le organizzazioni funzionano. La resistenza culturale, la mancanza di standard, l’incertezza normativa: tutto converge nel rallentare il cambiamento.
Per comprendere se questo blocco è percepito anche da chi lavora sull’infrastruttura tecnologica e sulla sua operatività quotidiana, diamo ora spazio a una prospettiva più tecnica.

Daniel Smulevich: “L’AI sta venendo integrata nelle aziende da oltre 10 anni. Rischiamo un’accelerazione del modello winners-takes most”

Domanda: A livello macroeconomico non si stanno ancora vedendo quei risultati attesi dall’applicazione dell’AI in azienda.
Questo si riflette anche sul tema delle opportunità mancate, cioè: quali possibilità l’AI offre ma non vengono ancora sfruttate? Per quali motivi? E, dall’altra parte, se hai esempi dal tuo lavoro che dimostrano che, quando si vuole, un ritorno sugli investimenti si può ottenere.
Qual è la tua visione?

Risposta: Direi che il primo punto da chiarire è che negli ultimi due o tre anni il termine “AI” è diventato quasi un sinonimo di generative AI, quindi modelli multimodali, contenuti creativi, video, testi. Ma l’AI esiste e viene integrata nelle aziende da più di dieci anni, con una forte accelerazione negli ultimi cinque, e un’ulteriore spinta negli ultimi due grazie all’ondata generativa.

Ci tengo a partire da qui perché, quando parliamo di AI in senso lato, la maggior parte degli use case riguarda automazioni intelligenti che spesso diamo per scontate. Parlo di raccomandazioni su Google Maps, alert automatizzati sulla distribuzione logistica, percorsi di consegna che cambiano in tempo reale, promozioni dinamiche, pricing automatico.
Tutto questo è AI, già oggi, ed è frutto di anni di investimenti e raffinamento.

E infatti i risultati li abbiamo già visti: aumento della qualità, dell’engagement, della capacità delle aziende di scalare servizi digitali. Basta guardare l’e-commerce: lʼacquisto online aumenta costantemente perché la tecnologia consente spedizioni rapide, personalizzazione, raccomandazioni migliori.
Dietro questa “semplice” esperienza c’è un’enorme quantità di automazione intelligente.

C’è poi un altro punto: ogni volta che la digitalizzazione avanza, il valore tende a concentrarsi in pochissimi player. Su Spotify, per esempio, ci sono milioni di brani, ma una percentuale minuscola di artisti genera quasi tutto il valore. Nell’e-commerce accade lo stesso: la quota di mercato si concentra su pochi player, Amazon in primis.
L’AI accelera questo fenomeno.

Riassumendo: l’AI ha già impattato profondamente produttività e distribuzione dei profitti, solo che spesso non ce ne accorgiamo perché gli effetti sono ormai integrati nella normalità dei servizi.

Domanda: Chiarissimo. E se invece guardiamo nello specifico alla generative AI?

Risposta: Qui il discorso cambia. Storicamente l’AI serviva a classificare o predire. Oggi invece può generare: testi, contratti, creatività, immagini, interfacce.
È una rivoluzione, ma siamo ancora agli inizi. Le aziende stanno integrando la generative AI, ma soprattutto come point solution, non come processo end-to-end.

Perché? Perché la natura probabilistica dei modelli richiede ancora un human in the loop per controllo e validazione. Automatizzare un processo intero con la generative AI comporta rischi: sicurezza, qualità, possibilità di jailbreak, leakage di dati. È parte della natura dei modelli attuali, che mescolano input e contesto nella stessa “finestra” operativa e quindi possono essere manipolabili.

La tecnologia è nuova, e per processi critici non possiamo accettare probabilità di errore troppo alte.
Faccio un esempio: un aereo non può cadere una volta su 100.000. Ma un errore creativo come un logo fuori posto, un testo non perfetto è accettabile se porta in cambio il 90% di risparmio sui costi.

È una questione di trade-off.

Aggiungo anche un punto importante: è probabile che la tecnologia stessa cambi. La generative AI rimarrà, ma potremmo vedere nuovi framework diversi dai transformer. Per l’utente finale non cambierà nulla, ma per l’industria significherà maggiore robustezza e più processi completamente automatizzati.

Domanda: Interessante. Quindi la mancanza di impatto macroeconomico che molti osservano oggi… secondo te da cosa dipende?

Risposta: Principalmente da tre fattori:

  1. Aspettative troppo alte.
    Abbiamo visto progressi enormi in casi specifici, ma non nei processi end-to-end. Ci vuole tempo. È come l’auto a guida autonoma: parcheggiava da sola dieci anni fa, ma un viaggio Roma-Milano autonomo richiederà altri 5-10 anni.
  2. Adozione limitata ai singoli step di processo.
    Molte aziende usano la generative AI per compiti isolati: riassunti, creatività, assistenza, ricerca interna. Ma non per trasformare un flusso di lavoro completo.
  3. Visione troppo ristretta dell’AI.
    Con un focus esclusivo sulla generative AI, si rischia di ignorare tutto ciò che AI e automation fanno già e che continueranno ad accelerare. È un errore di prospettiva.

Domanda: Quindi, cosa dovrebbero fare le aziende per sfruttare davvero il potenziale?

Risposta: Tre cose fondamentali:

  1. Mappare i processi end-to-end
    e capire dove l’AI generativa o meno può automatizzare, assistere, ridurre costi e aumentare qualità.
  2. Avere business case chiari.
    Obiettivi misurabili, ritorni attesi, livello di rischio accettabile. Non tutti i processi richiedono lo stesso livello di perfezione. 
  3. Sperimentare continuamente.
    Il cambiamento è troppo veloce per non osservare giorno per giorno cosa succede nel comportamento dei consumatori e nei modelli.
    Chi rimane indietro oggi rischia di trovarsi nella stessa posizione di chi nel 2000 diceva: “Il sito web non serve”. Penso ad esempio a strumenti sviluppati in Jellyfish come Share of Model per capire come gli LLMs stanno trasformando il modo in cui i consumatori scoprono e interagiscono con i brand.

Ciò che emerge è che molte aziende restano incastrate tra ambizioni dichiarate e capacità effettive di implementazione. La prudenza legale, l’assenza di processi chiari, la scarsa integrazione tra funzioni diverse: tutti fattori che si sommano.
Ma dove terminano i fattori microeconomici e iniziano quelli macroeconomici? Ne abbiamo parlato con chi in accademia studia tutti i giorni i problemi di strategia aziendale

Luciano Pilotti: “Serve un piano Marshall della formazione per evitare di perdere competitività e coesione sociale.”

Domanda: Oggi si parla molto di intelligenza artificiale nelle aziende, ma sembra che l’adozione stia avvenendo più “dal basso” che “dall’alto”. Cosa significa concretamente questo?

Risposta: L’accesso agli strumenti di intelligenza artificiale sta avvenendo in modo diffuso e spontaneo, con pochi investimenti strategici da parte delle imprese. Siamo ancora in una fase orizzontale, in cui singoli professionisti  e comunità di persone li usano autonomamente per migliorare le proprie attività quotidiane (professionali e non). Le potenzialità sono enormi, ma l’impatto più evidente si avrà quando si passerà a un utilizzo verticale, strutturato per specificità di settore (industry specific).

Domanda: Quando parli di passaggio da un approccio orizzontale a uno verticale, cosa intende? In quali ambiti si vedranno per primi gli impatti reali?

Risposta: Le applicazioni verticali arriveranno quando l’intelligenza artificiale sarà integrata nei processi specifici dei vari settori: dalla siderurgia alle banche, dalla logistica alla sanità. In medicina già si vedono risultati concreti grazie alla precisione del linguaggio tecnico, all’uso delle immagini e all’analisi genetica. Al contrario, nei settori con linguaggi meno codificati di gestione dei processi gli effetti sono ancora limitati ma cresceranno nel breve-medio termine.

Domanda: Quindi oggi gli effetti su occupazione e produttività sono ancora contenuti, ma le potenzialità chiare. Cosa serve per non perdere questa opportunità?

Risposta: Serve un grande investimento in formazione e riqualificazione professionale, non esclusa la scuola secondaria e l’alta formazione primaria (triennali). Stiamo vivendo un cambiamento che in passato avrebbe richiesto secoli come avvenuto – per es. – con il motore a scoppio: oggi, in una sola generazione, l’intelligenza artificiale può sostituire parte del lavoro ( routinario e non routinario) di professionisti come avvocati o commercialisti, oppure architetti o ingeneri. Senza un piano formativo diffuso rischiamo un forte impatto occupazionale escludendo ampie aree di popolazione lavorativa che invece va formata e/o riqualificata.

Domanda: Cosa manca oggi, a livello politico e istituzionale, per accompagnare questa trasformazione?

Risposta: La politica italiana è impreparata. Nella manovra 2026 non ci sono misure significative per istruzione, ricerca o innovazione tantomeno dedicate a questa area tecnologica. Si continua a tagliare su scuola e università, mentre servirebbero visione e coraggio per costruire le competenze del futuro, essenziali per la competitività futura e per alzare produttività e salari.

Domanda: Dal punto di vista pratico, come si traduce questo uso “dal basso”? Puoi farci qualche esempio concreto?

Risposta: Oggi molti professionisti usano l’AI per attività operative: scrivere testi, creare presentazioni o sintetizzare documenti. Per esempio, io stesso elaboro idee brevi e chiedo a ChatGPT di trasformarle in slide. L’AI non è infallibile, ma accelera il lavoro intellettuale e consente di semplificare concetti complessi migliorando la nostra produttività cognitiva o di decidere con più efficacia sulla base di dati più strutturati e organizzati in testi e formati utili a molteplici funzioni.

Domanda: Possiamo dire che, almeno per ora, questa rivoluzione sta privilegiando i lavori intellettuali?

Risposta: Sì, perché sono i più vicini al linguaggio e alla conoscenza, due elementi centrali per l’AI. Le persone con una formazione alta o abituate alla comunicazione colgono meglio le potenzialità, così come i linguaggi professionali più codificati e strutturati. Tuttavia, questo crea un divario crescente tra chi sa usare questi strumenti (o è disponibile a farlo) e chi ne resta escluso. Si tratterà di ridurre da subito questi gap che rischiano di approfondire la nostra caduta di produttività rispetto ai nostri partner europei e di oltre Atlantico

Domanda: Quanto è preparata la scuola italiana ad affrontare questa trasformazione?

Risposta: Pochissimo. Non si insegna nemmeno l’ informatica di base,  e (per ora) l’intelligenza artificiale ha una posizione marginale nei nostri programmi scolastici. Serve una rapida revisione profonda dei programmi scolastici e un piano di aggiornamento per docenti e studenti. Una formazione nella quale coinvolgere anche le famiglie degli studenti, anche per cogliere al meglio i confini sempre più ibridi tra limiti e opportunità, rischi evolutivi) e minacce.

Domanda: In altri Paesi, come il Regno Unito, l’informatica è già una materia scolastica. Cosa cambia, secondo te, tra la vecchia “ICT” e l’intelligenza artificiale di oggi?

Risposta: L’ICT richiedeva di conoscere un linguaggio di programmazione. Oggi non serve più: si dialoga con la macchina in linguaggio naturale, in qualsiasi lingua e in qualsiasi contesto, semplicemente attraverso lo smart-phone. È un passaggio epocale dagli approcci di logica simbolica a quelli centrati su modelli statistici e di reti neuronali (machine learning e deep learning). Gli LLM comprendono e associano concetti grazie alle reti neurali per sequenze di associazioni lineari tra parole o termini, rendendo l’interazione più intuitiva e potente, mentre gli SLM consentono una focalizzazione su specifiche esigenze in contesti molteplici e differenziati utili al bricolage quotidiano.

Domanda: Accennavi al rischio che l’Italia resti schiacciata tra Stati Uniti e Cina. Cosa dovrebbe fare l’Europa per restare competitiva?

Risposta: L’Europa dovrebbe lanciare un vero piano Marshall della formazione sull’intelligenza artificiale e che in parte si sta avviando seppure delimitato – per ora – in un Consorzio AI UE con Francia, Germania, Spagna ,Olanda e Italia. Paesi piccoli come l’Italia – da soli – non possono competere senza una strategia comune di sviluppo delle competenze e degli investimenti e che questo Consorzio può iniziare a costruire seppure con un investimento ancora troppo ristretto (inferiore al 2,5 miliardi) ma che crescerà a breve anche coinvolgendo altri paesi europei.

Domanda:Dal punto di vista organizzativo, come possono le aziende favorire un’adozione efficace “dal basso” e non fallire nella sperimentazione dei progetti di AI?

Risposta: Le aziende vivono la stessa dinamica della società: chi svolge attività semplici aumenta la produttività grazie all’automazione, mentre l’AI comincia a entrare anche nelle funzioni manageriali e strategiche. Serve formazione interna, revisione delle competenze e team interdisciplinari in grado di integrare tecnologia, competenze e visione sviluppando almeno 3 aree di attività: mappare ruoli e sistemi, classificare i rischi, definire i diritti fondamentali (per. Es. privacy). Da coordinare attraverso  una cabina di regia aziendale che sviluppi integrazione tra: legal, compliance e risk management, IT e cybersecurity, Business Unit per le verifiche di coerenza dell’AI con le attività aziendali e con i limiti etici. Da inserire in azioni di formazione e responsabilizzazione (art.4 dell’AI Act UE), anche in relazione a privacy e cybersecurity con adeguati  tempi, audit e  reporting. Infine, documentando e aggiornando per conformità sempre dimostrabili e che lascino tracce riscontrabili. Questo il quadro perimetrale di una Governance dell’AI per fare che le imprese attuino pratiche e principi di trasparenza , responsabilità e centralità dell’umano strutturati nell’AI Act UE, come equilibrio dinamico tra automazione delle decisioni, controllo, efficienza, qualità e garanzie dei diritti.

Domanda: Possiamo quindi parlare di una crescente trasversalità delle funzioni aziendali?

Risposta: Esatto. L’intelligenza aziendale diventa un cervello collettivo che compone ciò che è naturale con ciò che è artificiale senza mai fondere o confondere i due piani che devono rimanere distinti nella collaborazione guidata dall’umano. I processi vengono gestiti in modo più integrato grazie alla digitalizzazione ma servono manager con competenze ibride: legali che capiscono di dati, analisti che comprendono la regolazione, designer che sanno articolare i perimetri d’uso per un dialogo a due vie con gli utenti a valle e a monte. Solo così si eviterà un aumento dell’esclusione e della disoccupazione tecnologica, ossia con una battaglia culturale per una organizzazione aperta e inclusiva e di co-leadership.

Domanda: In sintesi, se dovessi riassumere la priorità per l’Italia in una frase?

Risposta: La priorità è formare tutti, non solo pochi “esperti” con una logica orizzontale e verticale insieme, ibridando e contaminando dall’alfabetizzazione alla specializzazione. Importante aprire varchi di contato con l’AI evitando “vuoti”, perché chi non entra in contatto con l’AI non impara a usarla e non può nemmeno difendersi dalla stessa con attenzione e responsabilità e rischia di restare indietro in una “bolla involontaria”. Serve un piano Marshall della formazione diffusa e inclusiva per evitare di perdere ulteriori gradi di competitività e coesione sociale, con forte spinta a ricucire diseguaglianze educative.

È interessante notare come il tema della resistenza non riguardi solo le aziende private. Anche nei settori dove il beneficio atteso è altissimo – come la PA – l’adozione procede a rilento. La prospettiva di chi lavora su integrazione, infrastruttura e processi pubblici ci permette di vedere il problema da un’altra angolatura: quella di sistemi complessi, burocratici e fortemente regolamentati.

Con questa lente, entriamo ora nella visione di un esperto che vive l’implementazione in prima linea.

Andrea Boscaro: “Nella pubblica amministrazione il principale ostacolo rimane la scarsa digitalizzazione dei dati e la mancanza di interoperabilità: è fondamentale accompagnare ogni progetto di AI con una comunicazione trasparente verso i cittadini”

Domanda: Come abbiamo visto intervistando diversi interlocutori, nel settore privato i progetti di AI sono ancora limitati o bloccati da timori legali e organizzativi. Mi interessa capire com’è la situazione nel pubblico.

Risposta: Io opero soprattutto come formatore attraverso la mia società, The Vortex, supportando processi di innovazione e aggiornamento delle competenze interne. Nella mia esperienza, convivono due direttrici principali.
La prima riguarda l’uso dell’AI generativa come leva di produttività personale: qui emergono diffidenze, limiti generazionali e la necessità di linee guida chiare.
La seconda è più strutturale: l’AI come strumento di innovazione dei processi. In questo ambito si distinguono alcune amministrazioni centrali. L’INPS, ad esempio, utilizza da anni sistemi di machine learning per smistare automaticamente le PEC verso gli uffici competenti. È un progetto che ha reso più efficiente il flusso di lavoro senza ridurre personale e con un impegno pubblico nel comunicare finalità, modalità e risultati.
Altri casi riguardano l’Agenzia delle Entrate, delle Dogane o l’INAIL, con progetti prevalentemente di machine learning. L’AI generativa, invece, viene sperimentata su casi più semplici, come chatbot per la consultazione di bandi o per l’assistenza ai cittadini.
Promos Italia, la società speciale delle camere di commercio dedicata all’internazionalizzazione, ad esempio, ha introdotto un chatbot dedicato al bando “Connessi” per la digitalizzazione delle imprese: un ambito circoscritto ma utile per testare la tecnologia, ridurre tempi di risposta e alleggerire il carico dei funzionari.
In sintesi, l’AI “tradizionale” è già presente nelle amministrazioni centrali, mentre quella generativa è in una fase sperimentale e spesso legata a progetti pilota o alla produttività individuale. Il principale ostacolo rimane la scarsa digitalizzazione dei dati e la mancanza di interoperabilità.
Infine, credo sia fondamentale accompagnare ogni progetto di AI con una comunicazione trasparente verso i cittadini, per evitare che la tecnologia venga percepita come una minaccia all’occupazione o alla chiarezza delle informazioni. Ogni innovazione deve restare inclusiva, non escludente.

Domanda: Anche nel privato abbiamo riscontrato un fenomeno simile: una piccola fascia di early adopters, ma una larga maggioranza ancora distante. Ho notato, anche tra gli studenti universitari, un uso sporadico e superficiale dell’AI.

Risposta: Sì, è un comportamento che vedo spesso. Molti dipendenti pubblici attendono linee guida chiare prima di usare strumenti di AI, anche se magari li conoscono già in contesti personali. Tuttavia, scrivere queste linee guida è complesso: se sono troppo specifiche, diventano subito obsolete; se troppo generiche, risultano inutili.
La differenza con i progetti di machine learning è proprio questa: lì la finalità è chiara e spiegabile, mentre l’AI generativa è più opaca e rende difficile garantire trasparenza e responsabilità d’uso.

Domanda: Nel privato, molti progetti di AI restano confinati a singole funzioni — supply chain, finance, operations — senza diventare sistemi integrati. Nel pubblico, la presenza di una struttura centrale potrebbe facilitare l’adozione più sistemica?

Risposta: In teoria sì, ma la condizione di partenza è la stessa: spesso i dati non sono digitalizzati né organizzati in modo coerente. Se ogni ufficio salva i documenti in cartelle diverse e con nomenclature differenti, l’AI non può lavorare efficacemente.
Un esempio virtuoso è il progetto britannico Redbox, un chatbot interno per migliaia di funzionari, costruito su una base dati già ordinata e validata. Allo stesso modo, Singapore ha siglato un accordo con OpenAI per fornire a 80.000 funzionari una versione Enterprise di ChatGPT, addestrata su contenuti governativi.
Questi casi dimostrano che, per ottenere benefici sistemici, serve prima un lavoro profondo di digitalizzazione, sicurezza e governance dei dati. Lo stesso vale per il settore privato: non è tanto un problema di strumenti, ma di cultura e struttura organizzativa.

Domanda: In effetti, in alcune amministrazioni locali la digitalizzazione di base è ancora scarsa.

Risposta: Esatto. Esistono forti limiti generazionali e culturali: molti dipendenti non hanno familiarità con gli strumenti digitali. Un chatbot può sembrare semplice, ma solo per chi ha già confidenza con la tecnologia. Per altri, è una fonte di ansia e incertezza. È quindi fondamentale accompagnare l’introduzione dell’AI con formazione e supporto umano, altrimenti rischia di rallentare, anziché accelerare, i processi.

151 – continua

Puntate precedenti

1 – DALLO HUMANISTIC AL POP MANAGEMENT
2 – MANIFESTI, ATLANTI, MAPPE E TERRITORI
3 – IL MANAGER PORTMANTEAU
4 – WHICH WAY, WHICH WAY?
5 – LEADERSHIP POP (LEZIONI SHAKESPEARIANE)
6 – OPINION PIECE DI RICCARDO MAGGIOLO
7 – LEADERSHIP POP (APERTURA, AUTONOMIA, AGIO, AUTO-ESPRESSIONE)
8 – OPINION PIECE DI JOSEPH SASSOON
9 – OPINION PIECE DI CESARE CATANIA
10 – OPINION PIECE DI VANNI CODELUPPI
11 – OPINION PIECE DI ALESSANDRO GIAUME
12 – COLLABORAZIONE POP. L’IRRESISTIBILE ASCESA DELLE COMMUNITY INTERNE
13 – COLLABORAZIONE POP. L’EMPATIA SISTEMICA
14 – COLLABORAZIONE POP. LE COMMUNITY AZIENDALI: UNO STATO DELL’ARTE, PARTE PRIMA
15 – COLLABORAZIONE POP. LE COMMUNITY AZIENDALI: UNO STATO DELL’ARTE, PARTE SECONDA
16 – OPINION PIECE DI MATTEO LUSIANI
17 – OPINION PIECE DI MARCO MILONE
18 – OPINION PIECE DI ALESSIO MAZZUCCO
19 – OPINION PIECE DI ALESSANDRA STRANGES
20 – OPINION PIECE DI FRANCESCO VARANINI
21 – ORGANIZZAZIONE  POP. COMANDO, CONTROLLO, PAURA, DISORIENTAMENTO
22 – OPINION PIECE DI ROBERTO VERONESI
23 – OPINION PIECE DI FRANCESCO GORI
24 – OPINION PIECE DI NELLO BARILE
25 – OPINION PIECE DI LUCA MONACO
26 – OPINION PIECE DI RICCARDO MILANESI
27 – OPINION PIECE DI LUCA CAVALLINI
28 – OPINION PIECE DI ROBERTA PROFETA
29 – UN PUNTO NAVE
30 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CURA)
31 – OPINION PIECE DI NICHOLAS NAPOLITANO
32 – LEADERSHIP POP. VERSO L’YPERMEDIA PLATIFIRM (CONTENT CURATION)
33 – OPINION PIECE DI FRANCESCO TONIOLO
34 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CONVIVIALITA’)
35 – OPINION PIECE DI LUANA ZANELLATO
36 – OPINION PIECE DI ANDREA BENEDETTI E ISABELLA PACIFICO
37 – OPINION PIECE DI STEFANO TROILO
38 – OPINION PIECE DI DAVIDE GENTA
39 – OPINION PIECE DI ANNAMARIA GALLO
40 – INNOVAZIONE POP. ARIMINUM CIRCUS: IL READING!
41 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CONVOCAZIONE)
42 – OPINION PIECE DI EDOARDO MORELLI
43 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CO-CREAZIONE DI VALORE)
44 – OPINION PIECE DI MARIANNA PORCARO
45 – OPINION PIECE DI DONATO IACOVONE
46 – OPINION PIECE DI DENNIS TONON
47 – OPINION PIECE DI LAURA FACCHIN
48 – OPINION PIECE DI CARLO CUOMO
49 – OPINION PIECE DI CARLO MARIA PICOGNA
50 – OPINION PIECE DI ROBERTO RAZETO
51 – OPINION PIECE DI ALBERTO CHIAPPONI
52 – OPINION PIECE DI ALESSANDRO ANTONINI
53 – OPINION PIECE DI ALESSANDRA PILIA
54 – OPINION PIECE DI CLEMENTE PERRONE
55 – OPINION PIECE DI FABRIZIO RAUSO
56 – OPINION PIECE DI LORENZO TEDESCHI
57 – OPINION PIECE DI EUGENIO LANZETTA
58 – OPINION PIECE DI GIOLE GAMBARO
59 – OPINION PIECE DI DANTE LAUDISA
60 – OPINION PIECE DI GIAMPIERO MOIOLI
61 – OPINION PIECE DI GIOVANNI AMODEO
62 – OPINION PIECE DI ALESSANDRO LOTTO
63 – OPINION PIECE DI GIANLUCA BOTTINI
65– OPINION PIECE DI SIMONE FARINELLI
66– OPINION PIECE DI FRANCESCA ANNALISA PETRELLA
67– OPINION PIECE DI VALERIO FLAVIO GHIZZONI
68– OPINION PIECE DI STEFANO MAGNI
69– OPINION PIECE DI LUCA LA BARBERA
70 – INNOVAZIONE POP. ARIMINUM CIRCUS: LA GRAPHIC NOVEL!
71 – LEADERSHIP POP. APOFATICA E CATAFATICA DELLA COMUNICAZIONE
72 – OPINION PIECE DI FEDERICA CRUDELI
73– OPINION PIECE DI MELANIA TESTI
74 – OPINION PIECE DI GIANMARCO GOVONI
75– OPINION PIECE DI MARIACHIARA TIRINZONI
76 – SENSEMAKING POP. LODE DELLA CATTIVA CONSIDERAZIONE DI SE’
77 – OPINION PIECE DI ALESSANDRA CAPPELLO E ALESSANDRA MAZZEI
78 – OPINION PIECE DI JOE CASINI
79 – OPINION PIECE DI MARTA CIOFFI
80 – STORYTELLING POP. VERSO IL POP BRANDING (PARTE PRIMA)
81 – STORYTELLING POP. VERSO IL POP BRANDING (PARTE SECONDA)
82 – STORYTELLING POP. VERSO IL POP BRANDING (NOTE A MARGINE)
83 – ENGAGEMENT POP. IL MANAGER INGAGGIANTE IMPARA DAI POKEMON
84 – ENGAGEMENT POP. DARE VOCE IN CAPITOLO
85 – ENGAGEMENT POP. COMUNICARE, VALUTARE, TRASFORMARE
86 – SENSEMAKING POP. MALATTIA MENTALE E BENESSERE PSICOLOGICO SUL LAVORO
87 – SENSEMAKING POP. FOLLIA O DIVERSITA’?
88 – OPINION PIECE DI LUIGIA TAURO
89 – OPINION PIECE DI NILO MISURACA
90 – OPINION PIECE DI FRANCESCO DE SANTIS
91 – INNOVAZIONE POP. REMIX, RI-USO, RETELLING
92 – STORYTELLING POP. ARIMINUM CIRCUS AL BOOK PRIDE 2025
93 – OPINION PIECE DI SIMONE VIGEVANO
94 – OPINION PIECE DI LORENZO FARISELLI
95 – OPINION PIECE DI MARTINA FRANZINI
96 – OPINION PIECE DI EMANUELA RIZZO
97 – INNOVAZIONE POP. OLTRE LA PRE-INTERPRETAZIONE
98 – INNOVAZIONE POP. FORMAZIONE: ANALOGICA, METAVERSALE, IBRIDA
99 – ARIMINUM CIRCUS: LA VISUAL NOVEL!
100 – La (P) AI INTELLIGENCE (PARTE PRIMA)
101 – La (P) AI INTELLIGENCE (PARTE SECONDA)
102 – La (P) AI INTELLIGENCE (PARTE TERZA)
103– La (P) AI INTELLIGENCE (PARTE QUARTA)
104– La (P) AI INTELLIGENCE (PARTE QUINTA)
105– OPINION PIECE DI ALEXANDRA NISTOR
106– FORMAZIONE POP. PARTE PRIMA
107– FORMAZIONE POP. PARTE SECONDA
108– OPINION PIECE DI FEDERICA GRAZIA BARTOLINI
109– OPINION PIECE DI FEDERICO PLATANIA
110– OPINION PIECE DANIELA DI CIACCIO
111– OPINION PIECE DI LUCIANA MALARA E DONATELLA MONGERA
112– IL RITORNO DEL CEOPOP
113– LA VISIONE DEI CEOPOP (VOLUME 1)
114– LA VISIONE DEI CEOPOP (VOLUME 2)
115 – LA COMUNICAZIONE DEL CEOPOP
116– CEOPOP E PARTI SOCIALI
117– CHE POP MANAGER SEI? L’ESTETA
118– STORYTELLING POP. UNA COMUNICAZIONE POP PER IL NON PROFIT
119– CHE POP MANAGER SEI? VISIONARIO/VISIONARIA
120– OPINION PIECE DI REMO PONTI
121– CHE POP MANAGER SEI? EMPATICA/EMPATICO
122– OPINION PIECE DI GIACOMO GRASSI
123– CHE POP MANAGER SEI? INNOVATORE/INNOVATRICE
124– SECONDA CONVERSAZIONE COLLABORATIVA SUL POP BRANDING
125– CHE POP MANAGER SEI? SIMPOSIARCA
126– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (1)
127– CHE POP MANAGER SEI? ESPLORATORE/ESPLORATRICE
128– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (2)
129– CHE POP MANAGER SEI? IRONIC DIVA/DIVO
130– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (3)
131– CHIUSI PER FERIE
132– OPINION PIECE DI ELENA BOBBOLA E MARIE LOUISE DENTI
133– CHE POP MANAGER SEI? PRATICO/PRATICA
134- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – INDUSTRIA
135- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – NO SERVIZI
136- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – NO PROFIT
137- LEADERSHIP POP E VIDEOGIOCHI. PARTE PRIMA
138- LEADERSHIP POP E VIDEOGIOCHI. PARTE SECONDA
139- LA CONSULENZA NELL’ERA DELL’AI AGENT
140- INNOVAZIONE POP NEL RETAIL
141- LA NUOVA ERA MEDIATICA
142- BRAND FORWARD!
143- OPINION PIECE DI ALESSANDRA LAZZAZARA E STEFANO ZA
144- LA FORZA DELLA GENTILEZZA. PARTE PRIMA
145- LA FORZA DELLA GENTILEZZA. PARTE SECONDA
146 – NELLO BARILE E LE IMMAGINI DI UN MONDO IN FRANTUMI
147 – INNOVARE NELLA PA
148 – OPINION PIECE DI SALVATORE RICCO
149 – OPINION PIECE DI LUCA MAGNI
150 – INNOVAZIONE POP. DISTANT WRITING E SOCIAL READING