Introduzione
di Marco Minghetti
Negli anni Sessanta i manager americani scoprirono che il costo del personale specializzato stava diventando il loro problema principale. La risposta fu la job description analitica: spezzare ogni ruolo in compiti misurabili, selezionare chi li eseguiva meglio, pagare i risultati. Era una soluzione razionale a un problema reale. E ha governato l’architettura organizzativa per sessant’anni.
Il problema è che quella soluzione presupponeva qualcosa che nessuno aveva messo per iscritto: che ciò che vale di più in un essere umano sia ciò che può essere scomposto in compiti e misurato in output. Federico Mattia Dolci, consulente con una lunga pratica nelle PMI italiane, porta in questo contributo la domanda che quella presupposizione aveva silenziato. E la porta con un alleato inaspettato: Aristotele.
La distinzione che Dolci recupera dalla Nicomachea è antica e, nel contesto attuale, più operativa di quanto sembri. La poiesis è il produrre: l’azione che si esaurisce nel risultato, separabile da chi l’ha compiuta. Una relazione contabile ben fatta vale quanto un’altra relazione ben fatta, indipendentemente da chi l’ha scritta. La praxis è l’agire che porta giudizio in condizioni che cambiano mentre si è ancora in mezzo a esse. Non si separa dall’agente: il suo valore sta nel soggetto che porta sulle proprie spalle la responsabilità di avere scelto. Il management moderno ha costruito i suoi strumenti — KPI, organigrammi, sistemi di incentivo — quasi interamente sulla prima. Gli agenti AI stanno rendendo la prima gratuita. E questo trasforma la seconda nel terreno su cui si gioca il vantaggio competitivo reale.
Questo contributo prolunga una linea già aperta dalla serie. Il Prolegomeno 151 e il Prolegomeno 161 avevano già messo a fuoco il paradosso dell’adozione lenta: le imprese che usano l’AI generativa per accelerare ciò che già facevano hanno comprato la macchina da cucire ma organizzano il lavoro come se ogni capo venisse cucito a mano. Dolci estende quella diagnosi un passo più in fondo: il nodo non è la lentezza dell’adozione, è l’assenza di una domanda preliminare — dove si trova il giudizio insostituibile nella mia catena del valore? Il metodo per rispondervi è sempre lo stesso: mappare i processi per tipo di attività nel senso aristotelico, non per funzione o dipartimento.
Il dialogo con il corpus recente è fitto. Lorenzo Tedeschi nel Prolegomeno 56 aveva sostenuto che lavorare è un atto politico nel senso che costruisce relazioni, distribuisce potere, assegna responsabilità. Dolci radica quella tesi nel principio che la praxis non si separa dall’agente: non si può cedere a ciò che ottimizza la capacità di ridefinire il problema prima che l’ottimizzazione cominci. Gianmarco Govoni nel Prolegomeno 74 chiedeva se il dubbio fosse Pop. La risposta che emerge da questo testo è sì, per una ragione strutturale: i sistemi AI convergono verso risposte, la praxis richiede di restare nella domanda più a lungo di quanto sia comodo. È una capacità che si perde con l’inutilizzo. Luca Magni nel Prolegomeno 149 descriveva il leader come architetto di mondi simbolici, con i quattro atti Naming, Framing, Anchoring, Expanding come forme di praxis nella sua espressione più alta. Borgonovi, Abramo e Meda nel Prolegomeno 176 identificavano nel criterio del “quando” la vera competenza distintiva del manager nell’epoca dell’AI. Dolci offre a quella diagnosi la sua giustificazione di principio: il “quando” è praxis, e la praxis non si delega.
La radice aristotelica di ciò che il framework del Distant Writing Collaborativo chiama criterio non delegabile merita di essere esplicitata. Il Supervisor del distant writing — come descritto nel Prolegomeno 177 di Filippo Poletti — delega l’esecuzione, non il giudizio. Delega la poiesis, non la praxis. Due millenni e mezzo di distanza non cambiano la sostanza: Aristotele aveva già capito che il problema non era tecnico.
Da qui in avanti il tema non è più quale tecnologia adottare. Il tema è un altro, e tocca il cuore dell’organizzazione: riconoscere dove finisce il compito e dove comincia la responsabilità.
Smettiamo di chiederci cosa farà l’AI al lavoro. Aristotele lo sapeva già.
Federico Mattia Dolci
C’è una domanda che ogni trimestre torna puntuale come le rondini, accompagnata da grafici e sigle roboanti di istituti di ricerca: quanti posti di lavoro distruggerà l’intelligenza artificiale?
È una domanda seria. Merita analisi serie. E quasi sempre le ricerche che producono numeri e raccomandazioni, poi scompaiono nel flusso di notizie fino al trimestre successivo, quando arrivano nuovi numeri e raccomandazioni. Il problema non è la risposta. È la domanda.
Perché quella domanda presuppone che il lavoro sia solo una quantità misurabile di compiti, e che il problema sia capire quanti passeranno dalle mani umane alle mani, se così le vogliamo chiamare, delle macchine. Una domanda ragionevole, ma che Aristotele avrebbe trovato un po’ rozza.
Il problema del dibattito italiano
Prima di arrivare ad Aristotele, vale fermarsi un momento sul contesto in cui questa domanda circola. In Italia il dibattito sul futuro del lavoro oscilla tra due posizioni che si escludono e che, insieme, producono una strana forma di immobilità.
Da un lato il catastrofismo: l’AI distruggerà posti, le PMI sono troppo analogiche, siamo in ritardo. Dall’altro il trionfalismo: abbiamo la creatività, il Made in Italy, la cultura del fatto bene che nessun algoritmo replica.
Entrambe hanno qualcosa di vero. Entrambe condividono un difetto: parlano di lavoro senza definire cosa sia il lavoro. Fanno previsioni su cosa l’AI farà senza chiedersi cosa l’AI non possa fare per ragioni di principio, non di tecnologia attuale.
Lorenzo Tedeschi, nel Prolegomeno 56 della serie Prolegomeni al Manifesto del Pop Management, propone una lettura più precisa: lavorare è un atto politico. Non nel senso partitico, nel senso che il lavoro costruisce relazioni, distribuisce potere, assegna responsabilità.
La transizione in corso non è prima di tutto tecnologica. È una ridefinizione del contratto implicito che organizza come le persone contribuiscono, vengono riconosciute e si assumono la responsabilità di ciò che producono insieme.
Quella ridefinizione richiede imprenditori disposti a fare domande scomode prima di comprare strumenti. È un atto di costruzione, non di difesa. E comincia da una distinzione che il management moderno ha dimenticato.
La distinzione dimenticata
Aristotele aveva capito una cosa che due secoli di ottimizzazione manageriale hanno messo da parte con costanza. Esistono due modi diversi, nel principio, di fare qualcosa.
Il primo si chiama poiesis. È il produrre: trasformare materia o informazione in un risultato definito in anticipo. Il falegname che fa una sedia. Il commerciale che compila il CRM, il contabile che chiude il bilancio. La poiesis ha una caratteristica precisa: si esaurisce nel prodotto. Quando la sedia è pronta, l’azione è finita. Chi l’ha fatta diventa irrilevante rispetto alla sedia.
Il secondo si chiama praxis. È l’agire: muoversi nel mondo portando giudizio, responsabilità, la capacità di orientarsi in condizioni che cambiano mentre si è ancora in mezzo a esse. Il medico che decide una diagnosi con dati incompleti. Il leader che sceglie una direzione strategica quando i segnali si contraddicono. Il negoziatore che legge una stanza e cambia approccio in tempo reale. L’imprenditore che decide di abbandonare un mercato prima che i numeri lo convincano del tutto. La praxis non si esaurisce nel risultato: il suo valore sta nel soggetto che agisce, nella qualità del suo giudizio, nel fatto che qualcuno porta sulle proprie spalle la responsabilità di avere scelto.
Vale la pena spingere un po’ più a fondo sulla differenza, perché è lì che si gioca tutto.
La poiesis ha un fine esterno: il prodotto. La bontà dell’azione si misura sulla qualità del risultato, e il risultato è separabile da chi lo ha prodotto. Una relazione contabile ben redatta vale quanto un’altra relazione contabile ben redatta, a prescindere da chi l’ha scritta. Questo è proprio il punto di forza dei sistemi AI: producono poiesis a qualità costante, senza varianza legata all’umore o alla stanchezza..
La praxis, al contrario, ha un fine interno: agire bene, giudicare bene, in quella situazione, con quelle persone, in quel momento. Non si può separare dall’agente. Un negoziatore che chiude un accordo difficile non ha prodotto un “accordo” nel senso in cui un contabile produce un bilancio: ha esercitato giudizio in condizioni irripetibili, e quel giudizio portava con sé la sua storia, la sua lettura delle persone, la sua disponibilità a prendersi la responsabilità di una scelta che poteva andare in altro modo.
La distinzione ha una conseguenza pratica immediata: la poiesis si valuta sul prodotto finito, la praxis si valuta sul processo. E questa asimmetria è proprio ciò che il management tradizionale ha faticato a gestire, preferendo quasi sempre misurare l’output perché è più semplice, più oggettivo, più difendibile in una riunione di board. Il risultato è stato costruire sistemi produttivi dove il giudizio viene mortificato in favore dell’esecuzione, e dove le persone più capaci di praxis erano spesso le meno visibili, perché il loro contributo non si misurava in numeri puliti.
Ora che la poiesis ha smesso di essere cara, questa scelta pesa.
Per secoli le organizzazioni hanno pagato le persone quasi solo per la poiesis. Non per cattiveria né per errore: per necessità strutturale. La poiesis era cara, richiedeva tempo, dipendeva dalla presenza e dall’abilità di esseri umani. L’intera architettura del management moderno – organigrammi, KPI, job description, sistemi di incentivo – è stata costruita per rispondere a un problema preciso: come gestire la poiesis umana nel modo più efficiente possibile.
Gli AI agents stanno risolvendo quel problema. In modo definitivo. E questo rende la praxis, quella che il management ha quasi sempre dato per scontata, il nuovo terreno su cui si gioca il vantaggio competitivo.
Il momento in cui il costo di un pensiero tende a zero
C’è una differenza che vale la pena fissare. L’automazione tradizionale, macchine che assemblano, software che elabora transazioni, algoritmi che ordinano risultati, sostituisce la poiesis fisica e routinaria. Funziona bene su task precisi, ripetibili, separabili dal contesto.
Gli AI agents fanno qualcosa di diverso e, in un certo senso, di più radicale. Eseguono poiesis su task che fino a ieri richiedevano un umano non perché fossero fisici, ma perché sembravano richiedere comprensione del linguaggio, sintesi, adattamento al contesto. Analizzare documenti complessi. Qualificare lead commerciali. Produrre report. Rispondere a domande di customer service che non seguono script predefiniti.
Il punto non è che lo facciano meglio. È che lo fanno a costo marginale tendente a zero. Un sistema AI che gestisce la pipeline commerciale di dieci imprese costa quasi lo stesso di uno che la gestisce per una. Non c’è un ufficio da affittare per la decima impresa, non c’è un nuovo commerciale da assumere, non c’è un onboarding da fare. Il costo per unità di poiesis non scala con il volume. Si avvicina alla struttura dei costi del software, non dei servizi, non delle persone.
Questo non è un dettaglio tecnico. È la trasformazione della struttura economica fondamentale di qualsiasi organizzazione che produce valore attraverso processi cognitivi ripetibili. Ma la trasformazione che conta non è quella economica.
Il paradosso che nessuno sa spiegare
C’è un dato che torna in quasi tutti i report sull’AI nelle imprese e su cui pochi si soffermano.
Nonostante gli investimenti massicci in strumenti AI, il salto di produttività atteso, quello grande, quello trasformativo, quello che dovrebbe far sembrare l’era pre-AI come l’era pre-elettricità, non si vede ancora. Le imprese adottano strumenti. Li usano per fare più veloce ciò che già facevano. I processi accelerano. I costi scendono ai margini. Ma la trasformazione di categoria non avviene.
Perché?
Una parte della risposta è tecnica, ed è più sottile di quanto sembri. Esiste una differenza sostanziale tra AI generativa e AI agentica che molte organizzazioni non hanno ancora internalizzato e che spiega molto del divario tra aspettative e risultati.
L’AI generativa produce output: un testo, un’analisi, una risposta. È potente, ma rimane uno strumento reattivo. Dai un input, ottieni un output. Il lavoro di orchestrazione, ovvero il decidere cosa chiedere, quando, in quale sequenza, con quali dati, resta tutto sulle spalle dell’umano. È come avere un consulente brillante in ufficio: rende molto se sai già cosa chiedergli. Rende poco se non hai ancora ridisegnato i tuoi processi attorno alle sue capacità.
L’AI agentica fa qualcosa di diverso: esegue sequenze di azioni in autonomia, interagisce con sistemi esterni, prende micro-decisioni lungo il percorso, si adatta ai risultati intermedi. Non aspetta un input per ogni passo, porta avanti un processo. Qui il salto di produttività diventa strutturale, non incrementale.
La distinzione conta perché la maggior parte delle imprese oggi ha adottato AI generativa e la sta usando come uno strumento più veloce per fare le cose che già faceva. Hanno comprato la macchina da cucire, ma organizzano ancora il lavoro come se ogni capo venisse cucito a mano (per usare la metafora che Marco Minghetti introduce nei Prolegomeni 151 e 161 analizzando l’adozione lenta dell’AI in azienda). Il problema non è tecnologico, è organizzativo: non è l’accesso agli strumenti, è la capacità di ridisegnare processi, ruoli e responsabilità attorno a ciò che la tecnologia ha reso possibile.
Il passaggio dall’AI generativa all’AI agentica non è un aggiornamento di software. È una trasformazione del modello operativo e richiede di aver già risposto a una domanda che poche organizzazioni si sono ancora poste con rigore: dove si trova il giudizio umano insostituibile nella mia catena del valore, e come lo libero dalla poiesis che lo occupa?
La risposta a questa domanda non è universale. Dipende dal settore, dal modello di business, dalla natura delle relazioni con clienti e fornitori. Ma il metodo per trovarla è sempre lo stesso: mappare i processi non per funzione o per dipartimento, ma per tipo di attività nel senso aristotelico. Qual è poiesis? Qual è praxis? Dove il giudizio fa la differenza tra una decisione mediocre e una che crea valore reale? Le organizzazioni che stanno iniziando questo processo sono quelle che ne vedranno i ritorni. Le altre accumuleranno strumenti senza trasformare nulla.
Un caso concreto: un commerciale e Aristotele
Proviamo a portare questa distinzione su un caso reale. Una PMI, dieci commerciali. Prima degli AI agents, una giornata tipo include: aggiornamento CRM, qualificazione lead, ricerca informazioni sui prospect, email di primo contatto, presentazioni standard, follow-up, reportistica.
Smistiamo con il criterio aristotelico. Aggiornamento CRM: poiesis. Qualificazione lead su criteri definiti: poiesis. Email standard: poiesis. Presentazioni template: poiesis.
Follow-up su trattative complesse: praxis. Lettura del momento giusto per chiudere: praxis. Gestione di un interlocutore difficile: praxis. Diagnosi di perché una trattativa si è bloccata: praxis. Costruzione di fiducia con un decision maker scottato da un fornitore precedente: praxis.
Nei casi migliori, un commerciale bravo dedica il quaranta percento del tempo a praxis. Il resto è poiesis che un sistema AI esegue oggi, con qualità uguale o superiore, a una frazione del costo. La trasformazione non consiste nel ridurre la forza commerciale e aspettarsi lo stesso fatturato. Consiste nel ridisegnare il ruolo: da “persona che gestisce l’intero processo” a “persona che porta giudizio dove il giudizio serve”. E pone una domanda non banale: se il commerciale non qualifica più i lead, chi governa il sistema che lo fa? Chi aggiorna i criteri di qualificazione quando le condizioni di mercato cambiano? Questa è praxis di secondo livello, il giudizio su come governare i sistemi che eseguono la poiesis. È, forse, la forma di lavoro più umana che l’era degli AI agents ci sta restituendo.
Il costo che non appare in nessun bilancio
Il costo cognitivo del commerciale è un caso particolare di un problema più generale. Le organizzazioni costruite attorno alla poiesis sviluppano nel tempo sistemi di incentivo ottimizzati per misurare l’output, non il giudizio. Si contano le email inviate, non la qualità della lettura di una situazione complessa. Si misura la velocità di esecuzione, non la precisione di una diagnosi strategica.
Questo crea una cultura che diventa un ostacolo nel momento in cui la poiesis diventa “gratuita”. Le organizzazioni si trovano con strutture di valutazione costruite per misurare ciò che non ha più valore differenziale e senza strumenti per misurare ciò che ce l’ha.
Il problema non è solo di metriche. È di attenzione manageriale. Un’organizzazione che ha sempre premiato la velocità di esecuzione fatica a riconoscere il valore del rallentamento deliberato di chi si ferma a ridefinire il problema invece di ottimizzare la soluzione sbagliata. Fatica a remunerare il dubbio, la diagnosi, la capacità di leggere ciò che non viene detto.
Govoni nel Prolegomeno 74 dei Prolegomeni al Manifesto del Pop Management pone la domanda in modo diretto: il dubbio è Pop? La risposta implicita è sì e non è una questione stilistica. I sistemi AI convergono verso risposte. La praxis richiede di restare nella domanda più a lungo di quanto sia confortevole. È una competenza che si perde con l’inutilizzo, come un muscolo. Le organizzazioni che la premiano adesso stanno costruendo un vantaggio che non si replica comprando un abbonamento.
Cosa rimane all’uomo (e perché è la parte più interessante)
Praxis pura. Che resiste all’automazione non per limiti tecnologici, ma per ragioni di principio.
La responsabilità richiede un soggetto. Un agente AI produce un’analisi eccellente. Non risponde delle conseguenze della decisione che quella analisi informa. Senza qualcuno che ci perde il sonno, che ci ragiona ancora tre anni dopo, la responsabilità non esiste, non si delega, non si installa.
I sistemi AI ottimizzano rispetto a obiettivi dati. La praxis eccelle quando quegli obiettivi devono essere ridefiniti, quando i dati non dicono nulla di utile perché la situazione è davvero nuova. Definire il problema precede qualsiasi ottimizzazione. Non si può delegare a ciò che ottimizza.
L’empatia sistemica è la capacità di leggere non solo la persona, ma le pressioni che non dice, i bisogni che non sa ancora di avere. Minghetti la descrive nei Prolegomeni come architettura relazionale, non qualità personale: si costruisce con metodo.
Queste non sono competenze soft in senso ornamentale. Sono le competenze che, in un’organizzazione che ha delegato la poiesis alle macchine, diventano il vero differenziale competitivo.
Il profilo del leader nell’era degli agenti
Il management tradizionale ha premiato il leader come ottimizzatore: qualcuno capace di portare ordine in sistemi complessi, definire processi ripetibili, misurare output con precisione. Sono competenze reali. Diventano meno differenzianti nel momento in cui i sistemi AI ottimizzano processi definiti con una precisione che nessun umano raggiunge.
Il leader che serve adesso ha un profilo diverso, e per molti versi più interessante. Deve saper operare in condizioni di ambiguità strutturale: quando il problema non è ancora definito, quando la risposta giusta non è ottimizzare un processo esistente ma capire quale processo sia quello giusto. Deve saper costruire contesto: trasformare informazioni frammentate in una narrazione che orienta le decisioni del team. Non storytelling cosmetico. Un’operazione cognitiva precisa su quali variabili contano, quali connessioni sono causali, quale orizzonte temporale è rilevante per la decisione in corso.
E deve saper tenere la responsabilità. Nel momento in cui i sistemi AI eseguono sempre più operazioni, la tentazione di deresponsabilizzarsi — “l’algoritmo ha detto così” — diventa strutturale. La praxis richiede di resistere: portare in prima persona le conseguenze delle proprie scelte, sapendo che ricadono su persone reali.
Luca Magni, in uno degli interventi dei Prolegomeni al Manifesto del Pop Management, propone di ridefinire il ruolo del leader come “architetto di mondi simbolici”: qualcuno che non ottimizza processi ma costruisce le cornici interpretative dentro cui i team possono operare con autonomia e orientamento. I quattro atti che descrive (Naming, Framing, Anchoring, Expanding) sono praxis nella sua forma più alta. Richiedono giudizio su come denominare i problemi, quali prospettive aprire, dove ancorare il senso collettivo, come espandere il campo di ciò che il team considera possibile.
È una descrizione che risuona con la praxis aristotelica nella sua forma più alta: il leader non porta soluzioni preconfezionate, porta la capacità di costruire il contesto dentro cui le soluzioni giuste possono emergere. Non ottimizza, ma orienta. Non decide tutto, crea le condizioni perché le decisioni giuste vengano prese al livello giusto, da chi ha le informazioni contestuali necessarie.
Questo non è un framework soft. È la descrizione operativa di ciò che distingue un’organizzazione che usa l’AI come strumento da un’organizzazione che ha ridisegnato se stessa attorno alla distinzione aristotelica.
La struttura organizzativa che non esiste ancora
La maggior parte delle imprese italiane ha oggi una struttura progettata per la poiesis: organigrammi funzionali con ruoli definiti da output misurabili, sistemi di incentivo basati su metriche operative, processi di selezione che valutano la capacità di eseguire task specifici. Questa struttura era razionale quando la poiesis cognitiva richiedeva tempo e attenzione umana. Diventa un vincolo quando quella poiesis può essere delegata a sistemi a costo marginale zero.
L’organizzazione progettata per l’era degli AI agents ha un’architettura diversa: non organizzata per funzione (chi fa cosa) ma per livello di giudizio. Chi decide cosa, con quale autonomia, su quali basi. Non misura l’output della poiesis ma la qualità della praxis: la precisione delle diagnosi, la capacità di costruire orientamento nel team, la qualità delle decisioni in condizioni di incertezza.
In pratica, questo significa ridisegnare tre cose insieme. Le strutture di selezione: non cercare chi sa eseguire meglio i task che l’AI farà al posto suo, ma chi porta giudizio situato, capacità di stare nell’ambiguità, storia di decisioni difficili prese bene. Le strutture di valutazione: non misurare solo output ma qualità del processo decisionale, cosa ha considerato, quali alternative ha valutato, come ha gestito l’incertezza. Le strutture di sviluppo: non formare le persone sui tool, ma costruire la capacità di praxis attraverso l’esposizione a casi difficili, la riflessione strutturata sugli errori, il confronto con chi ha già attraversato quelle situazioni.
Nessuna di queste tre cose è semplice. Tutte e tre richiedono di rinunciare alla comodità delle metriche facili, quelle che misurano ciò che è misurabile, non ciò che conta. Ma sono proprio quelle che separano le organizzazioni che useranno l’AI per trasformarsi da quelle che la useranno per fare più veloce ciò che già facevano.
Negli ultimi anni questo schema sembra ripetersi in contesti diversi. Le PMI con i risultati più solidi non sono quelle con i budget tecnologici più alti. Sono quelle che, prima di adottare qualsiasi strumento, si sono poste la domanda giusta: dove si trova il giudizio insostituibile nella mia catena del valore?
La domanda da cui cominciare
Torno al punto di partenza, con la speranza di averlo spostato di qualche centimetro. I report continuano a produrre stime sui posti perduti e guadagnati. Sono utili ma non orientano l’azione, perché la domanda a cui rispondono non è quella che guida le scelte organizzative concrete.
La domanda da cui cominciare è questa: dove si trova il giudizio insostituibile nella mia catena del valore? Come lo libero dalla poiesis che lo occupa? Come lo misuro, come lo sviluppo, come lo remunero in modo che chi lo porta sappia che è quello che conta?
Non sono domande facili. Richiedono un cambio radicale che il management italiano sta appena cominciando a fare. Ma sono le domande giuste. E il fatto che Aristotele le avesse già poste duemilaquattrocento anni fa, in un’epoca senza algoritmi, senza cloud, senza agenti AI, senza nemmeno l’elettricità, non è una curiosità storica. È la dimostrazione che alcune domande sono più durature delle tecnologie che le rendono urgenti. E che ignorarle per due millenni non le ha rese meno necessarie. Anzi.
Fonti:
Prolegomeno 56 — Lorenzo Tedeschi, Lavorare è un atto politico https://marcominghetti.nova100.ilsole24ore.com/2024/11/18/prolegomeni-al-manifesto-del-pop-management-56-sensemaking-pop-opinion-piece-di-lorenzo-tedeschi/
Prolegomeno 74 — Gianmarco Govoni, Il dubbio è Pop? https://marcominghetti.nova100.ilsole24ore.com/2025/01/17/prolegomeni-al-manifesto-del-pop-management-74-sensemaking-pop-opinion-piece-di-gianmarco-govoni/
Prolegomeno 149 — Luca Magni, Leadership generativa https://marcominghetti.nova100.ilsole24ore.com/2025/12/09/prolegomeni-al-manifesto-del-pop-management-149-sensemaking-pop-opinion-piece-di-luca-magni/
Prolegomeni 151 e 161 — Minghetti, L’adozione lenta dell’AI in azienda https://marcominghetti.nova100.ilsole24ore.com/2025/12/16/prolegomeni-al-manifesto-del-pop-management-151-innovazione-pop-ladozione-lenta-dellai-in-azienda-le-cause-e-le-opportunita-mancate-1/ https://marcominghetti.nova100.ilsole24ore.com/2026/02/03/prolegomeni-al-manifesto-del-pop-management-161-innovazione-pop-ladozione-lenta-dellai-in-azienda-le-cause-e-le-opportunita-mancate-2/
L’Autore: Federico Mattia Dolci è imprenditore e CEO di Marte Group. Ha costruito e scalato imprese tecnologiche in mercati globali, con una visione concreta su come l’innovazione genera valore. Speaker al Web Summit e EU-Startups Summit, il suo lavoro è stato raccontato da TechCrunch, Fortune e Forbes, che lo ha incluso nella lista 30 Under 30 Europe. Filosofo di formazione.
180 – continua
Puntate precedenti