Prolegomeni al Manifesto del Pop Management 161. Innovazione Pop. L’adozione lenta dell’AI in azienda: le cause e le opportunità mancate – 2

Introduzione

Marco Minghetti

Nella prima parte di questa Conversazione, il panel composto da Luca Solari, Daniel Smulevich, Luciano Pilotti e Andrea Boscaro aveva già messo in luce il paradosso fondamentale: l’AI è democratizzata nell’uso individuale, eppure fatica a generare impatto sistemico nelle organizzazioni. Incertezze normative, rigidità strutturali, formazione spontanea ma non orchestrata, e soprattutto un gap tra early adopters dal basso e inerzia delle governance aziendali.

Proseguiamo ora l’indagine spostandoci ancora più vicino alla quotidianità operativa: non più solo accademici e consulenti strategici, ma chi vive l’AI come strumento di lavoro concreto. Head hunter, manager dell’innovazione tecnologica, leader di analisi e innovazione. Persone che ogni giorno devono rispondere alla domanda: questa tecnologia funziona davvero? E se sì, perché non decolla?

È un passaggio importante perché ci porta dentro le faglie dell’adozione reale: Andrea Policardi ci racconta come nel recruiting l’AI acceleri alcuni task ma resti ferma davanti alla complessità relazionale. Giuseppe Miriello documenta l’illusione dell’agente autonomo: funziona benissimo su task specifici, ma si inceppa appena cambia il contesto o mancano le API strutturate. Massimiliano Sighinolfi porta la prospettiva dell’imprenditore tech che vede il potenziale ma anche i limiti sistemici. Vanessa Li Puma offre lo sguardo di chi nella grande distribuzione deve integrare AI e operations. Michele Carriero ci restituisce il punto di vista di chi seleziona talenti e si interroga: tra tre anni l’AI sarà discriminante nei colloqui? E oggi, quante aziende hanno davvero processi abbastanza maturi per accoglierla?

Emergono conferme e nuove frizioni. Il Paradosso di Jevons – più produciamo contenuti a basso costo, più ne aumenta la domanda – ci ricorda che l’AI non ridurrà necessariamente il lavoro, ma lo trasformerà. Il tema della regolamentazione ritorna con forza: privacy, copyright, responsabilità degli agenti autonomi sono ancora terreni aperti. E soprattutto emerge il problema della maturità organizzativa: senza processi mappati, senza API, senza formazione strutturata, l’agente AI diventa uno strumento costoso ma inutilizzabile.

Sono temi che attraversano molti dei nostri Prolegomeni precedenti. Nel Prolegomeno 18, con Alessio Mazzucco, avevamo già osservato come la penetrazione “pop” della tecnologia stesse cambiando linguaggi e pratiche. Nei Prolegomeni 100-102 sulla Pop Ape Intelligence avevamo costruito una cornice teorica che intreccia AI, mindset pop e intelligenza collaborativa. Nel Prolegomeno 139 avevamo affrontato orchestrazione e governance nell’era degli AI agent. Nel Prolegomeno 143, con Alessandra Lazazzara e Stefano Za, eravamo entrati nei processi HR con tutta l’ambivalenza tra produttività e responsabilità d’uso.

E nel Prolegomeno 150 avevamo introdotto il distant writing collaborativo – seguendo il paper di Luciano Floridi – come metodologia che trasforma l’autore in narrative designer: non più semplice produttore di testi, ma progettista di contesti, vincoli, criteri. Un approccio che richiede esattamente ciò che questa Conversazione evidenzia come mancante nelle organizzazioni: la capacità di orchestrare complessità, di progettare ambienti dove l’AI diventi collaboratore efficace anziché tool isolato.

Le voci raccolte da Damiano Nargi e Gioele Gambaro in questa seconda parte ci restituiscono un quadro chiaro: l’AI è già qui, sta già cambiando il lavoro, ma le organizzazioni – nella stragrande maggioranza – non sono ancora attrezzate per accoglierla pienamente. Mancano processi, mancano competenze strutturate, mancano governance chiare. E soprattutto manca quella che potremmo chiamare “maturità convocativa”: la capacità di orchestrare strumenti, persone, dati e responsabilità attorno a obiettivi condivisi.

Indagine sui motivi della lenta adozione dell’AI in azienda. Quali le cause e quali le mancate opportunità? – Parte seconda

I due curatori di questa Conversazione sono:

Damiano Nargi, Regional Director Italia per Jellyfish. Keynoter ad eventi di settore e guest lecturer all’Università degli Studi di Milano.

Gioele Gambaro, Fractional Marketing Manager specializzato in start-up e scale-up. Guest lecturer all’Università Cattolica del Sacro Cuore e all’Università degli Studi di Milano.

Riprendiamo la nostra indagine dalla precedente conversazione collaborativa. Il panel ha evidenziato il paradosso di un’intelligenza artificiale ormai democratizzata ma incapace di generare la crescita di produttività attesa. Il fulcro del dibattito ha rilevato che il freno non sia tanto tecnologico, ma risieda in una resistenza sistemica: incertezze normative e strutture organizzative rigide hanno impedito di trasformare l’uso individuale e spontaneo in un valore economico strutturato. Un problema dunque di carenza organizzativa e di comunicazione interna debole (o forse poco pop?). Nello specifico

  • Luca Solari ha sostenuto che l’adozione è stata bloccata dalle funzioni legal e che il vero valore è emerso solo quando l’IA è intervenuta sui processi reali end-to-end.
  • Daniel Smulevich ha evidenziato come l’IA sia stata integrata da anni, ma ha avvertito che la natura probabilistica dei modelli ha richiesto nuovi trade-off tra rischi e benefici.
  • Luciano Pilotti ha invocato un “Piano Marshall della formazione” per colmare il divario tra uso “dal basso” e strategia, criticando l’impreparazione politica italiana di fronte a questo cambio di paradigma.
  • Andrea Boscaro ha rilevato che nella Pubblica Amministrazione i benefici sistemici sono stati frenati dalla scarsa digitalizzazione dei dati, rendendo necessari percorsi di accompagnamento e trasparenza.

Con questo secondo panel abbiamo voluto scendere ancora più nella pratica quotidiana, ascoltando chi queste innovazioni le vive ogni giorno come una nuova sfida al lavoro, dall’head hunter all’imprenditore.

A questo panel partecipano:

Andrea Policardi, partner di Page Executive

Giuseppe Miriello, direttore innovazione tecnologica di Miami

Massimiliano Sighinolfi, Partner di TP DIGITAL SA & Co-founder CompAI

Vanessa Li Puma, Analytics & Innovation Leader presso Decathlon

Michele Carriero, Manager – Practice Digital presso WeHunt

Andrea Policardi: “L’impatto è potenzialmente forte. I ruoli relazionali non sono automatizzabili”

Che spazi di miglioramento vedi nell’impatto dell’AI nelle aziende e quali sono i principali colli di bottiglia?

L’innovazione è potenzialmente molto forte, già in rapida diffusione sulle Fortune 500. Persistono però dei blocchi, a mio avviso causati dalla mancanza di regolamentazione, non ancora sufficientemente presente. Questo genera immobilismo. Bisognerà soprattutto capire quanto le aziende continueranno a dipendere dalla consulenza esterna e quanto invece internalizzeranno nuovi modelli, quanto il tessuto delle aziende si rivelerà quindi “permeabile” all’innovazione.

Quale sarà il ruolo della consulenza rispetto allo sviluppo interno di competenze AI?

Andrea Policardi: Le società di consulenza sono quelle che stanno annunciando i tagli più importanti relativamente all’impatto dell’AI sulla loro struttura organizzativa. Detto questo, il tema fondamentale da capire è quanto si assisterà ad un processo di “insourcing” rispetto allo stato attuale. Non sempre grandi innovazioni tecnologiche producono effetti strutturali sulle filiere coinvolte. Prendiamo l’esempio Linkedin rispetto al mercato delle società di ricerca e selezione: molti avrebbero scommesso su un calo del volume dei nostri servizi ma il risultato non è stato altro che quello di aumentare il livello qualitativo del nostro output generando anni di ulteriore sviluppo della Industry.

In che modo la regolamentazione potrà influire sull’evoluzione dell’AI nelle imprese?

Andrea Policardi: Le nuove normative – ancora in definizione – potranno favorire una transizione più ordinata. Aiuteranno a definire le regole del gioco e, conseguentemente, rassicurare gli investitori.

Che tipo di evoluzione organizzativa prevedi nei prossimi anni?

Andrea Policardi: Domanda difficile alla quale non riesco a rispondere in modo serio. Posso però dirti cosa mi sembra più curioso ed interessante al momento: stiamo osservando modelli organizzativi più piatti e trasversali rispetto al passato. Ad esempio, stanno nascendo nuove aziende lanciate e finanziate con pochissime persone al loro interno che raccolgono capitali ingenti. Immagina di avere un’azienda unicorno unipersonale, milioni di fatturato gestiti da una sola persona, magari part-time. Impensabile qualche anno fa. Questi fenomeni, al momento straordinari, credo ci stupiranno molto nei prossimi mesi.

Perché alcuni settori risultano più colpiti dall’impatto dell’AI rispetto ad altri?

Andrea Policardi: Dipende da molte cose: dal tipo di mansioni, dall’output della figura professionale in analisi e da altri fattori legati alla “replicabilità”. Ruoli fortemente relazionali o con un preponderante “human touch” risultano meno automatizzabili.

Quali attività HR sono più interessate dall’automazione tramite ATS e AI?

Andrea Policardi: L’automazione dell’AI, intesa come machine learning, viene utilizzata da oltre vent’anni ed è impiegata prevalentemente nell’automatizzazione dello screening dei CV (ATS, tassonomia e gestione delle informazioni nei database). L’area generativa viene invece utilizzata di supporto allo studio di mercato, alla costruzione di un profilo professionale da ricercare (Job Description) oppure su elementi di reporting. Ma siamo solo all’inizio, credo che giocherà un ruolo molto interessante nelle dinamiche HR e di ricerca e selezione, lavorando sempre di concerto all’intervento umano.

Quanto può incidere l’AI generativa nelle attività quotidiane delle risorse umane?

Andrea Policardi: L’AI generativa è di supporto, aiuta soprattutto nel riassumere appunti, redigere job description e produrre tutta la documentazione utile in un processo di selezione. Tuttavia, le attività principali del nostro lavoro, ovvero quelle basate sulla relazione personale, credo siano meno predisposte all’automazione.

Guardando al futuro, qual è il principale fattore che influenzerà l’adozione dell’AI nelle aziende?

Andrea Policardi: Ad oggi notiamo una mancanza di un modello uniforme di adozione. Alcuni nostri clienti credono che sia necessario ripensare ai processi, modelli di business e modelli organizzativi. Altri stanno pensando in modo più graduale e “tattico”. Una nostra recente ricerca, Talent trends 2025, evidenzia quanto l’adozione stia avvenendo “bottom-up”, poco guidata dalle organizzazioni e più in mano alla curiosità del singolo. Registriamo comunque un aumento importante rispetto all’anno scorso e credo che l’intervento della leadership aziendale sarà fondamentale a garantirne lo sviluppo importante che ci attendiamo.

L’AI può sostituire anche ruoli relazionali o con forte componente umana?

Andrea Policardi: Ad oggi no: i ruoli con forte dimensione relazionale, che si muovono in un sistema di informazioni ambiguo e destrutturato, restano difficilmente automatizzabili.

Se dal punto di vista HR l’impatto dell’AI appare ancora graduale e non sempre discriminante, il quadro cambia quando si osserva l’adozione tecnologica dall’interno delle organizzazioni.

Il tema non è più solo “chi” viene influenzato dall’AI, ma come le aziende stanno tentando di integrarla nei propri sistemi, spesso tra sperimentazioni, prototipi e soluzioni ancora immature.

La testimonianza di Giuseppe Miriello entra proprio in questa zona grigia, dove l’investimento è reale ma il ritorno non è ancora pienamente consolidato.

Giuseppe Miriello: “L’agente accelera il lavoro, ma non può automatizzarlo interamente”

Alcuni osservatori parlano di una possibile mancata corrispondenza tra aspettative macroeconomiche sull’AI generativa e impatti reali. Condividi questa idea? E come la spieghi?

Giuseppe Miriello: Esiste un paradosso economico che sostiene che più si accelera la produzione di un bene, più ne aumenta la domanda (ndr si fa riferimento al Paradosso di Jevons). L’AI velocizza la creazione di contenuti, immagini, codice, e controintuitivamente, la domanda di questi beni aumenterà nel tempo invece di diminuire.

Il punto è che, l’AI non so sostituisce il pensiero umano, richiede comunque persone, e come risultato abbassando il costo di produzione di immagini, codice, contenuti, aumenti consumo e domanda, anche di risorse umane.

È lo stesso meccanismo visto con l’automobile: non ha distrutto tutto, ha semplicemente reso più accessibile la mobilità, e il consumo è esploso.

Perciò non si è verificata la “dissoluzione” del lavoro che molti prevedevano: è una legge economica a suggerire che accada il contrario.

L’abbassamento delle soglie d’ingresso nella produzione di contenuti. L’abbiamo già visto con Internet, con l’e-commerce, con la scrittura online aperta a tutti. Con l’AI l’esplosione sarà ancora maggiore. Quali sfide vedi per regolatori e operatori economici?

Giuseppe Miriello Le sfide sono moltissime. La prima è la regolamentazione: come gestisci privacy e copyright quando i modelli vengono addestrati su dati che non controlli? Ci sono già cause come quella del New York Times contro OpenAI. Poi c’è la responsabilità: cosa succede quando un agente autonomo pubblica un’offerta sbagliata? È già capitato in Canada con una compagnia aerea: il giudice ha dato ragione al cliente. E se un agente genera codice che causa un incidente grave? In teoria la responsabilità ricade sugli umani che controllano, ma la giurisprudenza non si è ancora formata. Un’altra sfida enorme è il reskilling, non solo delle persone, ma dei processi. Gli agenti AI, oggi, possono operare solo agganciandosi a sistemi API (ndr insieme di regole e protocolli che permette a diverse applicazioni software di comunicare tra loro). Se un’azienda non ha API e processi strutturati, gli agenti non hanno nulla su cui lavorare.
Ho costruito agenti in azienda: funzionano molto bene su un task specifico, ma diventano inutili se cambi anche di poco il contesto. Quindi, senza processi mappati e API disponibili, l’agente non può sostituire un essere umano.

Puoi fare un esempio concreto del perché oggi un agente non può sostituire davvero una persona in ruoli come il customer care?

Giuseppe Miriello: Prendiamo un operatore che gestisce resi e sostituzioni. Un processo tipico comprende: capire il problema, verificare le foto, stabilire la responsabilità, generare una bolla di prelievo, predisporre l’airway bill, coordinare il corriere, mandare la documentazione al cliente.
Ogni passaggio è un task specifico. Per sostituire l’operatore, servirebbe un agente “supervisore” con tanti agenti specializzati sotto.
Questo è possibile solo in aziende già strutturatissime (Amazon, Microsoft ad esempio) … non certo la media delle aziende italiane). Nella maggior parte dei casi, l’agente accelera il lavoro, ma non può automatizzarlo interamente.

Hai citato anche il ruolo del contesto negli agenti. Perché è un limite così forte?

Giuseppe Miriello; Il contesto negli agenti è una memoria vettoriale limitata a poche decine di migliaia di caratteri. Se devono leggere documenti lunghi (ad esempio un contratto complesso), devono scorrerli a pezzi, riassumendo man mano. Alla fine lavorano non sul documento intero, ma sul riassunto dei riassunti. La stessa cosa vale nelle interazioni: tra una sessione e l’altra devi continuare a ricordargli cosa è stato detto. Questo fa sì che, mentre la complessità dei task cresce linearmente, il bisogno di contesto cresce esponenzialmente.

Di conseguenza:

  • gli agenti funzionano molto bene solo quando i task sono semplici;
  • per compiti complessi serve un “pettine” composto da molti agenti piccoli e un supervisore;
  • ma anche il supervisore ha limiti di memoria di contesto.

Le considerazioni sulla maturità incompleta delle soluzioni AI aprono una domanda cruciale: dove si sta realmente spostando il valore?

Se i modelli tendono a commoditizzarsi e la corsa tecnologica appare sempre più caotica, diventa centrale il tema della governance, dell’orchestrazione e dell’integrazione nei processi di lavoro.

È su questo piano che si inserisce la riflessione di Massimiliano Sighinolfi, che sposta l’attenzione dal singolo strumento alla costruzione di un’infrastruttura operativa dell’AI.

Massimiliano Sighinolfi: “In Cina l’IA è già completamente integrata nei processi quotidiani”

Sembra che Europa, Cina e Stati Uniti stiano giocando tre partite diverse sull’AI, e che da noi non arrivino i dividendi sperati. Che riflessione ti viene?

Massimiliano Sighinolfi: Oggi la vera competizione sull’AI è principalmente tra Cina e Stati Uniti. L’Europa, oggettivamente, è in ritardo: pochi modelli proprietari, investimenti più limitati e una difficoltà strutturale a scalare. Ma il problema europeo non è solo tecnologico, è sistemico.

Siamo estremamente frammentati: troppi attori, troppe iniziative scollegate, normative diverse, infrastrutture non armonizzate. Questo rende molto difficile trasformare l’innovazione in valore reale e diffuso.

In Cina, invece, l’approccio è opposto. Il governo definisce standard, infrastrutture e direzione, e l’AI viene integrata in modo verticale e capillare: dalla pubblica amministrazione alle aziende, fino al retail. È un’adozione top-down, che crea un ecosistema uniforme, coerente e molto più efficiente dal punto di vista operativo.

Gli Stati Uniti giocano ancora un’altra partita: eccellenza nei modelli, nel capitale privato e nella capacità di creare piattaforme globali.

L’Europa, se vuole recuperare, non deve cercare di copiare né la Cina né gli USA. Deve invece trovare il suo spazio: meno modelli, più integrazione; meno frammentazione, più orchestrazione; meno sperimentazione fine a sé stessa, più impatto reale sui processi. È lì che si giocherà la possibilità di tornare competitivi.

Tu però hai avuto esperienza diretta in Cina. Come ti sei fatto quest’idea così chiara sull’integrazione dell’AI?

Massimiliano Sighinolfi: Dall’esperienza sul campo. Abbiamo trascorso oltre un mese in Cina, visitando clienti, aziende e realtà operative molto diverse tra loro. Ed è lì che ti rendi conto subito della differenza. Girando tra uffici, fabbriche e perfino nei negozi, vedi quanto l’AI sia già completamente integrata nei processi quotidiani. È parte del funzionamento normale delle aziende.

Parliamo di CRM, videoconferenze, customer service, magazzini, logistica: tutto è connesso, automatizzato e orchestrato. Soluzioni come DeepSeek non vengono “usate”, ma sono native dentro i flussi di lavoro.

Ed è questo che ti cambia la prospettiva: capisci che il vero salto non è avere l’AI più avanzata, ma integrarla in modo invisibile, continuo e operativo. In Cina questa fase, in molti settori, è già realtà.

C’è un esempio concreto di questa integrazione che ti ha colpito più di tutti?

Massimiliano Sighinolfi: Sì: i prodotti educativi per bambini.
Parliamo di smartwatch e tablet che integrano DeepSeek in modo nativo, non come app aggiuntiva ma come parte del sistema.
Ricordo di un tablet, per esempio, che scansiona automaticamente la scrivania: se rileva un libro aperto o un esercizio, capisce il contesto e interviene.
In tempo reale genera aiuti personalizzati, spiegazioni passo-passo e persino nuovi esercizi, calibrati sul livello del bambino.

La cosa che mi ha colpito di più è stata questa: davanti a una risposta corretta, il sistema ha creato in pochi secondi un video di spiegazione che mostrava perché quella soluzione fosse giusta. Non solo il risultato quindi, ma mostrava il ragionamento.

Ecco, per me questa è integrazione vera.

E nelle aziende, com’è la situazione?

Massimiliano Sighinolfi: È ancora più evidente. Video call con traduzione automatica, magazzini integrati, CRM che parlano con l’AI nativamente. Tutto è collegato. Ed è un modello che in Occidente, realisticamente, non riusciremo a replicare: manca un ente centrale che pianifichi l’integrazione.

Hai citato anche un’azienda a Lugano con smart glasses integrati. Che cosa fanno esattamente?

Massimiliano Sighinolfi: Si tratta di un’azienda di origine cinese, ma con una presenza anche a Lugano. Ha sviluppato occhiali intelligenti con un micro-display integrato direttamente nella lente, anche in versione graduabile.
Lo schermo è volutamente essenziale: mostra solo testo. Gli occhiali forniscono indicazioni contestuali, rispondono a domande in tempo reale e, soprattutto, offrono sottotitoli con traduzione simultanea del parlato.
Loro stessi, in azienda li utilizzano nelle videocall internazionali: i manager in Cina parlano esclusivamente cinese, mentre dall’altra parte del mondo ciascuno parla la propria lingua madre. Grazie agli occhiali, però, tutti si comprendono perfettamente, senza barriere linguistiche.

Poco tempo fa anche Meta, in collaborazione con Ray-Ban, ha presentato smart glasses con display a colori e funzionalità AI ancora più avanzate. Segno che la direzione del mercato è chiara.

Detto questo, i prodotti oggi esistono, ma mostrano ancora diversi limiti. La mia sensazione è che siamo in una fase in cui si stanno portando sul mercato prototipi evoluti, più che prodotti realmente maturi. Sembra quasi che, in questo momento, conti di più dimostrare di “essere nell’AI” che arrivare con soluzioni completamente rifinite e affidabili.

È una fase di transizione inevitabile, ma è anche quella in cui si capirà chi riuscirà davvero a trasformare queste tecnologie in strumenti quotidiani e non solo in dimostrazioni di futuro.

Quindi il punto è: stiamo investendo, ma qual è davvero il cavallo vincente?

Massimiliano Sighinolfi: Esatto, è la domanda giusta. Oggi stiamo investendo moltissimo in AI, ma la verità è che non è ancora chiaro chi – o cosa – vincerà davvero. Probabilmente non ci sarà un unico campione: vinceranno più attori, ognuno su un livello diverso della catena del valore.

Quello che però vedo oggi, è dove si sta spostando il valore: non tanto nei modelli in sé, ma nella capacità di rendere l’AI utile, governabile e accessibile alle persone e alle aziende.

Oggi la tecnologia c’è, ed è potentissima. Il problema è che resta spesso troppo tecnica, frammentata o isolata dai processi reali.
Questa è una delle riflessioni che ci ha portato poi a creare la nostra piattaforma CompAI: una piattaforma che permette di trasformare modelli e agenti in team operativi, integrati nei flussi di lavoro, supervisionabili dall’uomo e adattabili ai bisogni concreti delle aziende.

Se devo indicare il vero cavallo vincente oggi, non è il singolo modello.
È chi riuscirà a costruire lo strato di orchestrazione e governance dell’AI, rendendola finalmente uno strumento quotidiano, scalabile e sicuro.

Il passaggio dall’innovazione tecnologica alla sua applicazione nei processi core aziendali riporta inevitabilmente il tema del controllo, della trasparenza e della responsabilità.

Se l’AI entra sempre più in decisioni che hanno impatti concreti su clienti e risultati economici, il rischio è quello di affidarsi a sistemi opachi, difficili da interpretare e governare.

La prospettiva di Vanessa Li Puma mette a fuoco proprio questa tensione, osservando l’adozione dell’AI nei contesti retail e data-driven, dove scala e affidabilità diventano fattori critici.

Vanessa Li Puma: “Le aziende rischiano di affidarsi a black box senza controllo”

A livello macro-economico gli impatti dell’AI non sono ancora evidenti. È legato alla maturità delle aziende italiane?

Vanessa Li Puma: Sì, la maturità delle aziende italiane è un elemento chiave a mio avviso. L’AI sta già trasformando settori come retail, finanza e manufacturing, offrendo capacità predittive avanzate, automazione intelligente e personalizzazione su larga scala. Ma perché questa trasformazione generi effetti macro-economici visibili, serve un’adozione diffusa e soprattutto integrata nei processi core.

In Italia molte realtà stanno sperimentando l’AI con proof of concept, progetti pilota non scalati, iniziative isolate e investimenti guidati più dalla pressione del trend che da una strategia chiara. In ambito e-commerce, ad esempio, l’AI potrebbe rivoluzionare l’allocazione dei budget media, la previsione della domanda, la gestione delle scorte e la personalizzazione dei percorsi utente. Per far sì che queste iniziative possano essere correlate alla crescita del business serve una base tecnologica solida e che l’adozione dell’AI sia correlata alla competitività del settore.

Il nodo è infrastrutturale: servono governance dei dati, metriche condivise, processi di misurazione avanzati e figure in grado di interpretare i modelli. Senza queste fondamenta, l’AI potrebbe rimanere una promessa e non un motore di crescita. Finché la maturità digitale non raggiungerà una soglia critica, l’impatto sull’economia sarà inevitabilmente limitato.

Infine, serve un cambiamento culturale. L’AI funziona quando c’è cultura del dato, capacità di misurare il valore generato, e un approccio proattivo all’innovazione. Senza questi presupposti, la tecnologia rimane “promettente ma non trasformativa”. Solo quando questi elementi saranno più diffusi potremo osservare un impatto macro-economico più netto.

Quali sono le sfide più grandi per le aziende nell’adottare soluzioni AI?

Vanessa Li Puma: La prima grande sfida riguarda la comprensione della tecnologia. L’AI non è un semplice upgrade digitale: è un insieme di modelli, logiche probabilistiche e processi che richiedono competenze aggiornate. Oggi molte organizzazioni adottano strumenti avanzati senza conoscere come funzionino, affidandosi a modelli “black box” senza alcun controllo. La mancanza di alfabetizzazione tecnologica rappresenta un rischio sia operativo sia strategico.

Un’altro tema riguarda la qualità e la disponibilità dei dati. L’AI funziona solo se alimentata da dati coerenti, completi e ben strutturati. Ma molte aziende italiane lavorano ancora con database frammentati, dati non integrati tra marketing, CRM, e-commerce e prodotto, e un approccio poco maturo alla data governance. Questo impedisce ad esempio analisi predittive solide e porta a modelli incapaci di generare valore reale. L’espressione “garbage in, garbage out” oggi descrive perfettamente la sfida di molte realtà italiane.

Infine, c’è il tema del debito tecnologico. La riduzione degli investimenti interni a favore di soluzioni cloud “plug-and-play” ha semplificato l’adozione, ma ha anche indebolito la capacità delle aziende di costruire architetture robuste, scalabili e realmente integrate. E questo è un limite quando si vuole fare AI non come progetto isolato, ma come abilitatore trasversale del business.

Quali difficoltà emergono nell’applicare l’AI a processi e attività strategiche?

Vanessa Li Puma: Nell’applicare l’AI a processi strategici la difficoltà principale è poterne misurare correttamente l’impatto. Senza metriche robuste, test controllati e una chiara definizione dei KPI, è impossibile capire se un modello stia realmente migliorando conversioni, marginalità, retention o efficienza operativa. Le metriche servono non solo per misurare i benefici ma anche rischi e limiti dei modelli. E senza misurazione, l’AI diventa un esercizio di stile, ne derivano aspettative irrealistiche e una fiducia eccessiva negli algoritmi, senza considerare bias, errori o impatti sulle decisioni critiche.

Un’altra criticità riguarda l’allineamento tra tecnologia e strategia. Per creare valore, l’AI deve rispondere a obiettivi precisi: migliorare efficienza, prevedere la domanda, ottimizzare customer journey, aumentare la redditività. Ma spesso i progetti nascono guidati dalla tecnologia e non dal problema da risolvere. Il risultato sono soluzioni sofisticate dal punto di vista tecnico ma poco utili, o sperimentazioni che non creano valore per il business.

Infine, portare l’AI nei processi strategici significa gestire un cambiamento di paradigma: ridefinire ruoli e processi decisionali. Inoltre richiede una cultura di testing continuo, una maggiore integrazione tra marketing, prodotto, tecnologia e data e una visione sul medio-lungo periodo, perché l’AI non si limita a migliorare ciò che già esiste, ma introduce nuovi modi di analizzare, prevedere e decidere. In futuro l’automazione la capacità predittiva e analisi in tempo reale avranno un ruolo sempre più centrale.

È questo è un cambiamento che richiede tempo, formazione e una governance chiara.

L’AI rappresenta una leva di trasformazione reale, ma solo se integrata in modo consapevole in un contesto in cui dati, competenze e strategia lavorano nella stessa direzione può creare un vero vantaggio competitivo.

Le riflessioni di Vanessa Li Puma mettono in evidenza un punto cruciale: quando l’AI entra nei processi core, il tema non è più solo l’efficienza, ma il governo delle decisioni.

Il rischio di affidarsi a sistemi opachi, difficili da interpretare e da controllare, diventa particolarmente rilevante quando l’adozione cresce di scala e impatta direttamente su clienti, performance e organizzazione interna.

Questo apre una domanda ulteriore: come si traduce tutto ciò nel lavoro quotidiano delle aziende e delle persone? Qual è il confine reale, oggi, tra supporto dell’AI e delega eccessiva alla tecnologia?

Per rispondere, torniamo a una prospettiva ancora più operativa, osservando come queste tensioni emergano nel concreto dell’attività professionale.

Michele Carriero: “L’hype ha creato una bolla; ma il vero impatto arriva sempre dopo”

Partiamo da un punto iniziale: se consideriamo il 2022 come “anno 0” con l’arrivo di ChatGPT, oggi siamo praticamente a Capodanno 2026. Eppure:
 – nessuna disoccupazione tecnologica,
 – nessun aumento della produttività,
 – nessuna crescita del PIL dovuta all’AI.

In teoria, questa tecnologia dovrebbe generare un impatto paragonabile alla rivoluzione della macchina a vapore. In pratica, non sta accadendo. Anche i dati finanziari sembrano vivere di aspettative (OpenAI scambiata a 40x il fatturato).

Dal tuo punto di vista, quali sono i fattori che stanno frenando l’impatto reale?

Michele Carriero: Secondo me siamo ancora agli albori. Come per ogni tecnologia nuova, se ne parla tantissimo, si crea una bolla, ma il vero impatto arriva dopo.

L’intelligenza artificiale, da quando è esplosa nel 2022 a oggi, la si vede principalmente nell’uso quotidiano. Nelle società di ricerca e selezione, per esempio, aiuta nello screening o in alcuni test tecnici.

Ma non è ancora qualcosa che possa sostituire l’uomo.
Ci arriverà, secondo me entro tre anni al massimo, perché ora sta entrando davvero nelle aziende e nella quotidianità.

Le query su ChatGPT sono aumentate in modo vertiginoso, e questo fa migliorare l’algoritmo. Anche nell’uso personale lo vedo: risponde molto meglio rispetto agli inizi, quando spesso non capiva e chiedeva di riformulare.

Quindi sì, c’è una “bolla”, ma ci si sta lavorando seriamente. Il vero impatto si vedrà fra tre anni, non adesso.

C’è qualcosa che ti porta a individuare proprio questo intervallo temporale così breve come punto di svolta?

Michele Carriero: Tutto è esploso nel 2022, e ora siamo quasi nel 2026: il tempo di apprendimento c’è già stato. Ora è il momento della messa a terra.

Secondo me, entro tre anni vedremo i risultati concreti. In generale, tutte le tecnologie hanno questo ciclo: magari arrivano negli USA, si testano per 3–4 anni e poi arrivano in Italia. Qui siamo su una scala globale, quindi il processo è più evidente.

Non significa che sparirà lo human touch: l’AI ti dà risposte, ma devi essere tu a impostare, indirizzare, interpretare.

Lato advertising o anche in altri contesti aziendali, qual è il tuo polso della situazione?

Nel mondo dell’advertising l’AI sta entrando soprattutto per migliorare l’allocazione dei budget:
– capire quando spendere,
– come spendere,
– quanto spendere,

in base a come l’algoritmo legge il mercato.

Non è ancora predominante perché non esistono tecnologie affidabili al 100%, anche per mancanza di storico sufficiente.

Ma sta iniziando a entrare, e l’algoritmo effettivamente aiuta.

Sulla stampa finanziaria anglosassone si evidenzia che:
 – l’80% dei pilota AI fallisce,
 – i manager non hanno voglia di “segarsi la sedia” da soli,
 – spesso l’AI viene implementata come cosmetica,
 – alla fine a usarla davvero sono pochi early adopters paganti.

E un professore ci diceva: “hai mai sentito di qualcuno scartato a un colloquio perché non usa ChatGPT?”. No, mai.

Che ne pensi?

Michele Carriero: Ci ricolleghiamo a quello di prima: non siamo ancora nella fase in cui l’AI è una discriminante.

Dipende dal tipo di manager e dall’azienda: chi punta all’evoluzione la usa per migliorare l’efficienza, non per togliere lavoro.

Io la uso per farmi aiutare in alcune attività: velocizza, ma poi devo comunque rivedere e rielaborare.
L’AI supporta, ma non fa il lavoro al posto tuo.

Oggi può essere un indicatore utile in un colloquio — per capire se una persona è tecnologicamente allineata — ma non può essere una discriminante. Non ancora.

A proposito di ritardi: parlando con Andrea Boscaro, che si occupa di integrazione AI nella PA, lui raccontava di persone che ancora non usano il PC e scrivono tutto su quaderni a mano…

Michele Carriero: Nella pubblica amministrazione c’è ancora una grossa transizione digitale in corso.
Prima la digitalizzazione, poi arriverà quella dell’AI.

C’è un ministero dedicato, e già dallo SPID in poi molti passi avanti sono stati fatti.
Ma parliamo di decine e decine di migliaia di dipendenti: coordinarli non è semplice.

E nel privato invece? Stesso ritardo o situazione diversa?

Non parlerei tanto di ritardo, quanto del fatto che la tecnologia non nasce in Italia.
Dai tempi di Olivetti non abbiamo grandi innovazioni “made in Italy”, quindi è normale ricevere tutto dopo.

Quando arriva una tecnologia dagli USA, devi:
– capirla,
– testarla,
– capire come integrarla,
– capire quanto investire.

Nel privato dipende molto dall’azienda:
– chi vede l’opportunità la adotta,
– chi è più conservatore (specie tra le PMI) fatica di più.

L’AI può applicarsi ovunque: produzione, HR, marketing.
Dipende tutto da imprenditore, GM, board.

Nella tua esperienza quotidiana, hai visto casi di implementazione più felici e altri meno felici?

Michele Carriero: Sì, ti posso fare un esempio senza entrare nei dettagli sensibili.
Un cliente con cui collaboro da anni ha inserito un algoritmo di AI per migliorare l’allocazione dei budget media nelle campagne performance.

Non sull’awareness — lì non serve — ma sulla performance è utile.
È un’azienda italiana che sviluppa internamente la propria tecnologia e sta vedendo risultati incoraggianti.

Conclusione
di Marco Minghetti

Questa seconda parte della Conversazione conferma quanto emerso nella prima, ma lo rende ancora più concreto: l’adozione lenta dell’AI non è un problema tecnologico, è un problema di maturità organizzativa.

Andrea Policardi ci ha ricordato che i ruoli relazionali restano difficilmente automatizzabili, e che l’AI nel recruiting è ancora soprattutto supporto, non sostituzione. Giuseppe Miriello ha documentato l’illusione dell’agente autonomo: funziona su task specifici, ma senza processi strutturati e API disponibili non può sostituire un essere umano. Massimiliano Sighinolfi ha evidenziato come la governance dei dati resti il vero collo di bottiglia. Vanessa Li Puma ha mostrato che anche nelle grandi organizzazioni l’AI entra gradualmente, sperimentalmente, senza ancora trasformare i processi end-to-end. E Michele Carriero ha posto la domanda cruciale: tra tre anni l’AI sarà discriminante nei colloqui? Oggi, la risposta è ancora no.

Il quadro è chiaro: le aziende che vedono risultati sono quelle che hanno fatto il lavoro preparatorio. Hanno mappato i processi, digitalizzato i dati, formato le persone, chiarito responsabilità e governance. Per le altre – la maggioranza – l’AI resta uno strumento potente ma inutilizzabile, come un’automobile di Formula 1 su una strada sterrata.

Forse il vero tema non è “come adottare l’AI”, ma “come costruire le condizioni organizzative perché l’AI possa funzionare”. E questo significa tornare ai fondamentali del Pop Management: convocazione, orchestrazione, intelligenza collaborativa, progettazione di contesti. Significa passare dall’entusiasmo per il tool alla pazienza della trasformazione culturale.

Significa, soprattutto, accettare che l’innovazione vera non è quella che si annuncia nei comunicati stampa, ma quella che si sedimenta lentamente nelle pratiche quotidiane, nei processi ridisegnati, nelle competenze acquisite, nelle responsabilità condivise.

Come sempre, questa Conversazione resta aperta. Attendiamo contributi, integrazioni, dissensi. Perché solo attraverso il confronto – come nel gruppo di social reading scaturito dal Prolegomeno 150, che oggi conta quasi 500 aderenti – possiamo trasformare l’analisi in prassi, la riflessione in azione.

161 – continua

Puntate precedenti

1 – DALLO HUMANISTIC AL POP MANAGEMENT
2 – MANIFESTI, ATLANTI, MAPPE E TERRITORI
3 – IL MANAGER PORTMANTEAU
4 – WHICH WAY, WHICH WAY?
5 – LEADERSHIP POP (LEZIONI SHAKESPEARIANE)
6 – OPINION PIECE DI RICCARDO MAGGIOLO
7 – LEADERSHIP POP (APERTURA, AUTONOMIA, AGIO, AUTO-ESPRESSIONE)
8 – OPINION PIECE DI JOSEPH SASSOON
9 – OPINION PIECE DI CESARE CATANIA
10 – OPINION PIECE DI VANNI CODELUPPI
11 – OPINION PIECE DI ALESSANDRO GIAUME
12 – COLLABORAZIONE POP. L’IRRESISTIBILE ASCESA DELLE COMMUNITY INTERNE
13 – COLLABORAZIONE POP. L’EMPATIA SISTEMICA
14 – COLLABORAZIONE POP. LE COMMUNITY AZIENDALI: UNO STATO DELL’ARTE, PARTE PRIMA
15 – COLLABORAZIONE POP. LE COMMUNITY AZIENDALI: UNO STATO DELL’ARTE, PARTE SECONDA
16 – OPINION PIECE DI MATTEO LUSIANI
17 – OPINION PIECE DI MARCO MILONE
18 – OPINION PIECE DI ALESSIO MAZZUCCO
19 – OPINION PIECE DI ALESSANDRA STRANGES
20 – OPINION PIECE DI FRANCESCO VARANINI
21 – ORGANIZZAZIONE  POP. COMANDO, CONTROLLO, PAURA, DISORIENTAMENTO
22 – OPINION PIECE DI ROBERTO VERONESI
23 – OPINION PIECE DI FRANCESCO GORI
24 – OPINION PIECE DI NELLO BARILE
25 – OPINION PIECE DI LUCA MONACO
26 – OPINION PIECE DI RICCARDO MILANESI
27 – OPINION PIECE DI LUCA CAVALLINI
28 – OPINION PIECE DI ROBERTA PROFETA
29 – UN PUNTO NAVE
30 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CURA)
31 – OPINION PIECE DI NICHOLAS NAPOLITANO
32 – LEADERSHIP POP. VERSO L’YPERMEDIA PLATIFIRM (CONTENT CURATION)
33 – OPINION PIECE DI FRANCESCO TONIOLO
34 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CONVIVIALITA’)
35 – OPINION PIECE DI LUANA ZANELLATO
36 – OPINION PIECE DI ANDREA BENEDETTI E ISABELLA PACIFICO
37 – OPINION PIECE DI STEFANO TROILO
38 – OPINION PIECE DI DAVIDE GENTA
39 – OPINION PIECE DI ANNAMARIA GALLO
40 – INNOVAZIONE POP. ARIMINUM CIRCUS: IL READING!
41 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CONVOCAZIONE)
42 – OPINION PIECE DI EDOARDO MORELLI
43 – ORGANIZZAZIONE  POP. VERSO L’HYPERMEDIA PLATFIRM (CO-CREAZIONE DI VALORE)
44 – OPINION PIECE DI MARIANNA PORCARO
45 – OPINION PIECE DI DONATO IACOVONE
46 – OPINION PIECE DI DENNIS TONON
47 – OPINION PIECE DI LAURA FACCHIN
48 – OPINION PIECE DI CARLO CUOMO
49 – OPINION PIECE DI CARLO MARIA PICOGNA
50 – OPINION PIECE DI ROBERTO RAZETO
51 – OPINION PIECE DI ALBERTO CHIAPPONI
52 – OPINION PIECE DI ALESSANDRO ANTONINI
53 – OPINION PIECE DI ALESSANDRA PILIA
54 – OPINION PIECE DI CLEMENTE PERRONE
55 – OPINION PIECE DI FABRIZIO RAUSO
56 – OPINION PIECE DI LORENZO TEDESCHI
57 – OPINION PIECE DI EUGENIO LANZETTA
58 – OPINION PIECE DI GIOLE GAMBARO
59 – OPINION PIECE DI DANTE LAUDISA
60 – OPINION PIECE DI GIAMPIERO MOIOLI
61 – OPINION PIECE DI GIOVANNI AMODEO
62 – OPINION PIECE DI ALESSANDRO LOTTO
63 – OPINION PIECE DI GIANLUCA BOTTINI
65– OPINION PIECE DI SIMONE FARINELLI
66– OPINION PIECE DI FRANCESCA ANNALISA PETRELLA
67– OPINION PIECE DI VALERIO FLAVIO GHIZZONI
68– OPINION PIECE DI STEFANO MAGNI
69– OPINION PIECE DI LUCA LA BARBERA
70 – INNOVAZIONE POP. ARIMINUM CIRCUS: LA GRAPHIC NOVEL!
71 – LEADERSHIP POP. APOFATICA E CATAFATICA DELLA COMUNICAZIONE
72 – OPINION PIECE DI FEDERICA CRUDELI
73– OPINION PIECE DI MELANIA TESTI
74 – OPINION PIECE DI GIANMARCO GOVONI
75– OPINION PIECE DI MARIACHIARA TIRINZONI
76 – SENSEMAKING POP. LODE DELLA CATTIVA CONSIDERAZIONE DI SE’
77 – OPINION PIECE DI ALESSANDRA CAPPELLO E ALESSANDRA MAZZEI
78 – OPINION PIECE DI JOE CASINI
79 – OPINION PIECE DI MARTA CIOFFI
80 – STORYTELLING POP. VERSO IL POP BRANDING (PARTE PRIMA)
81 – STORYTELLING POP. VERSO IL POP BRANDING (PARTE SECONDA)
82 – STORYTELLING POP. VERSO IL POP BRANDING (NOTE A MARGINE)
83 – ENGAGEMENT POP. IL MANAGER INGAGGIANTE IMPARA DAI POKEMON
84 – ENGAGEMENT POP. DARE VOCE IN CAPITOLO
85 – ENGAGEMENT POP. COMUNICARE, VALUTARE, TRASFORMARE
86 – SENSEMAKING POP. MALATTIA MENTALE E BENESSERE PSICOLOGICO SUL LAVORO
87 – SENSEMAKING POP. FOLLIA O DIVERSITA’?
88 – OPINION PIECE DI LUIGIA TAURO
89 – OPINION PIECE DI NILO MISURACA
90 – OPINION PIECE DI FRANCESCO DE SANTIS
91 – INNOVAZIONE POP. REMIX, RI-USO, RETELLING
92 – STORYTELLING POP. ARIMINUM CIRCUS AL BOOK PRIDE 2025
93 – OPINION PIECE DI SIMONE VIGEVANO
94 – OPINION PIECE DI LORENZO FARISELLI
95 – OPINION PIECE DI MARTINA FRANZINI
96 – OPINION PIECE DI EMANUELA RIZZO
97 – INNOVAZIONE POP. OLTRE LA PRE-INTERPRETAZIONE
98 – INNOVAZIONE POP. FORMAZIONE: ANALOGICA, METAVERSALE, IBRIDA
99 – ARIMINUM CIRCUS: LA VISUAL NOVEL!
100 – La (P) AI INTELLIGENCE (PARTE PRIMA)
101 – La (P) AI INTELLIGENCE (PARTE SECONDA)
102 – La (P) AI INTELLIGENCE (PARTE TERZA)
103– La (P) AI INTELLIGENCE (PARTE QUARTA)
104– La (P) AI INTELLIGENCE (PARTE QUINTA)
105– OPINION PIECE DI ALEXANDRA NISTOR
106– FORMAZIONE POP. PARTE PRIMA
107– FORMAZIONE POP. PARTE SECONDA
108– OPINION PIECE DI FEDERICA GRAZIA BARTOLINI
109– OPINION PIECE DI FEDERICO PLATANIA
110– OPINION PIECE DANIELA DI CIACCIO
111– OPINION PIECE DI LUCIANA MALARA E DONATELLA MONGERA
112– IL RITORNO DEL CEOPOP
113– LA VISIONE DEI CEOPOP (VOLUME 1)
114– LA VISIONE DEI CEOPOP (VOLUME 2)
115 – LA COMUNICAZIONE DEL CEOPOP
116– CEOPOP E PARTI SOCIALI
117– CHE POP MANAGER SEI? L’ESTETA
118– STORYTELLING POP. UNA COMUNICAZIONE POP PER IL NON PROFIT
119– CHE POP MANAGER SEI? VISIONARIO/VISIONARIA
120– OPINION PIECE DI REMO PONTI
121– CHE POP MANAGER SEI? EMPATICA/EMPATICO
122– OPINION PIECE DI GIACOMO GRASSI
123– CHE POP MANAGER SEI? INNOVATORE/INNOVATRICE
124– SECONDA CONVERSAZIONE COLLABORATIVA SUL POP BRANDING
125– CHE POP MANAGER SEI? SIMPOSIARCA
126– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (1)
127– CHE POP MANAGER SEI? ESPLORATORE/ESPLORATRICE
128– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (2)
129– CHE POP MANAGER SEI? IRONIC DIVA/DIVO
130– SENSEMAKING POP. UNA NUOVA GRAMMATICA DEL LAVORO (3)
131– CHIUSI PER FERIE
132– OPINION PIECE DI ELENA BOBBOLA E MARIE LOUISE DENTI
133– CHE POP MANAGER SEI? PRATICO/PRATICA
134- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – INDUSTRIA
135- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – NO SERVIZI
136- L’INTELLIGENZA COLLABORATIVA MOTORE POP DEL CHANGE MANAGEMENT – NO PROFIT
137- LEADERSHIP POP E VIDEOGIOCHI. PARTE PRIMA
138- LEADERSHIP POP E VIDEOGIOCHI. PARTE SECONDA
139- LA CONSULENZA NELL’ERA DELL’AI AGENT
140- INNOVAZIONE POP NEL RETAIL
141- LA NUOVA ERA MEDIATICA
142- BRAND FORWARD!
143- OPINION PIECE DI ALESSANDRA LAZZAZARA E STEFANO ZA
144- LA FORZA DELLA GENTILEZZA. PARTE PRIMA
145- LA FORZA DELLA GENTILEZZA. PARTE SECONDA
146 – NELLO BARILE E LE IMMAGINI DI UN MONDO IN FRANTUMI
147 – INNOVARE NELLA PA
148 – OPINION PIECE DI SALVATORE RICCO
149 – OPINION PIECE DI LUCA MAGNI
150 – INNOVAZIONE POP. DISTANT WRITING E SOCIAL READING
151 – L’ADOZIONE LENTA DELLA AI IN AZIENDA – 1
152 – OPINION PIECE DI CRISTIANO GHIRINGHELLI, RAOUL NACAMULLI, LUCA QUARATINO 
153 – OPINION PIECE DI MICHELA MATARAZZO
154 – OPINION PIECE DI MARIA FRANCESCA IANNONE
155– OPINION PIECE DI MOIRA BUZZOLANI
156– OPINION PIECE DI LUCA GUERRASIO
157 – IMPARARE LA LEADERSHIP DALLE SERIE TV
158 – DA HAMLET A E: GENEALOGIA DEL DISTANT WRITING COLLABORATIVO
159 – OPINION PIECE DI PAOLO BORTOLOTTI
160 – DAL DISTANT WRITING AL SOCIAL READING: TRE LIVELLI DI INTELLIGENZA COLLABORATIVA