Introduzione
di Marco Minghetti
Massimiliano Böhm, co-autore de L‘intelligenza artificiale nelle vendite (Franco Angeli, 2024), apre il suo Opinion Piece con una scena di Black Mirror. Una scelta coerente con la Pop Filosofia di Gilles Deleuze che ispira questi Prolegomeni: un approccio al management che nasce dalla riflessione sui prodotti della cultura di massa — film, social media, fumetti. Il Prolegomeno 157 dedicato alla leadership appresa dalle serie tv ne è un esempio esplicito.
Sotto il profilo dei contenuti, il contributo di Böhm si inserisce nel quadro di un ragionamento collettivo che ha preso forma attraverso molteplici angolature. Nel Prolegomeno 139, dedicato alla consulenza nell’era degli AI agent, avevo osservato che “l’orchestrazione è prima di tutto una disciplina manageriale che coinvolge processi, ruoli, interfacce, metriche e meccanismi di audit”: non una questione di piattaforme, ma di chi decide cosa. Alessandra Lazazzara e Stefano Za, nel Prolegomeno 143 sull’AI nei processi HR, avevano già nominato l’augmentation-automation paradox — fino a che punto l’AI sostiene i professionisti, e quando invece li sostituisce? Böhm risponde a quella domanda nel contesto delle vendite, dove la posta è altissima perché le relazioni sono il prodotto.
Nel Prolegomeno 148, Salvatore Ricco aveva parlato dell’autenticità come “moneta preziosa”. Qui quel concetto torna sotto una nuova luce: il venditore che delega le proprie priorità a un algoritmo con i suoi default non perde efficienza — perde agency. E con l’agency perde la reputazione, quella costruita scelta dopo scelta, conversazione dopo conversazione. Böhm mostra come questo non sia un rischio futuro, ma un effetto già misurabile: il deal perso perché il sistema aveva messo quel prospect in fondo alla lista, e nessuno lo aveva messo in discussione.
La mossa più originale del suo ragionamento riguarda però il middle management. Le organizzazioni hanno trascorso trent’anni a svuotarlo di autonomia decisionale — in nome dell’efficienza, della coerenza, del controllo. L’AI ha trovato quel vuoto e ha cominciato a riempirlo. Il middle manager algoritmico ha sostituito il middle manager umano senza che nessuno lo eleggesse, senza che nessuno ne definisse i criteri, senza che nessuno rispondesse degli errori. Se nel Prolegomeno 156, Luca Guerrasio aveva parlato delle competenze come “strumenti vivi” che si affinano nell’uso, Böhm mostra l’altra faccia della medaglia: quando l’AI sottrae alle persone l’occasione di esercitare il giudizio, quelle competenze si atrofizzano — e con esse il patrimonio organizzativo che nessun algoritmo può ricreare.
Il Prolegomeno 160 aveva chiamato questo rischio “resa cognitiva”: ogni decisione delegata senza governance abbassa la soglia per la delega successiva, fino a un punto di non ritorno in cui l’opacità diventa proprietà emergente del sistema. Il venditore che segue i suggerimenti dell’AI senza interrogarli non sta solo perdendo un deal: sta perdendo la capacità di interrogarsi.
La via d’uscita che propone è tanto semplice quanto esigente: usare l’AI per restituire potere al middle management, invece di usarla per accentrare ulteriormente. Dargli gli strumenti per decidere meglio, non uno schermo su cui leggere le decisioni già prese da qualcun altro. Questo richiede fiducia — quella fiducia che le organizzazioni hanno eroso negli ultimi decenni, e che nessun fornitore di software può ricostituire al posto nostro.
È una prospettiva che dialoga in modo diretto con il framework dell’Intelligenza Collaborativa che guida la visione del Pop Management: la dimensione collettiva, connettiva ed emotiva non si delega. Si pratica. E la pratica richiede che le persone siano ancora là, nel momento della scelta, con la propria storia, il proprio giudizio, la propria responsabilità.
Queste riflessioni trovano un laboratorio concreto nel gruppo di Social Reading del romanzo E, che conta ormai oltre 500 lettori attivi: un esperimento di Intelligenza Collaborativa distribuita dove la domanda “chi decide cosa, e secondo quali criteri?” non è astratta, ma si pone ad ogni sessione. Invito tutti a unirsi alla conversazione: il link al gruppo è https://www.linkedin.com/groups/16452000/
L’intelligenza artificiale nelle vendite. Un caso di studio
Massimiliano Böhm
Black Mirror non parla del futuro
C’è un equivoco su Black Mirror che mi ha sempre infastidito.
La serie di Charlie Brooker viene trattata come una profezia, un avvertimento sul futuro tecnologico che ci attende se non stiamo attenti. Ma non è questo che Brooker fa. Brooker prende il presente e lo porta alle estreme conseguenze. Non inventa nulla; esagera ciò che già esiste.
In “Nosedive”, l’episodio con Bryce Dallas Howard, ogni interazione sociale viene valutata da una a cinque stelle. Il tuo rating determina dove puoi vivere, dove puoi viaggiare, chi ti frequenta. La protagonista si affanna per alzare il punteggio, calibra ogni sorriso, ogni parola. Quando il sistema le si rivolta contro, crolla tutto.
Distopia? Guardiamoci attorno.
Uber valuta passeggeri e autisti. Airbnb valuta ospiti e host. LinkedIn misura l’engagement. Le aziende assegnano score ai lead. I venditori vengono classificati per performance. Non siamo ancora nel mondo di Lacie Pound, ma ci siamo vicini più di quanto l’episodio, che è dell’ormai lontanissimo 2016, potesse immaginare.
Il punto però è un altro. In “Nosedive” la tecnologia non è la protagonista. È uno specchio. Quello che inquieta non è il sistema di rating, è il vuoto che il sistema rivela: la fragilità dell’identità, il bisogno di approvazione, l’incapacità di stabilire da soli il proprio valore. Il sistema non crea queste cose. Le sfrutta.
Perché parto da qui?
Perché questo schema — la tecnologia come specchio di vuoti preesistenti — è la chiave per capire come adottare l’intelligenza artificiale senza subirla.
E le vendite, per ragioni che spero diventeranno chiare, sono il luogo dove questo emerge con più evidenza.
Il momento giusto: era ieri? È oggi? O sarà domani?
C’è un vantaggio nell’arrivare all’AI adesso, mentre molti stanno ancora sperimentando.
Chi ha implementato per primo ha fatto errori che oggi possiamo studiare. Chi sta per cominciare può partire dalle domande giuste invece di farsele dopo, quando il sistema è già in produzione e nessuno sa più chi ha deciso cosa.
I numeri del report State of Sales 2024 di Salesforce: l’81% dei team commerciali sta investendo in AI, ma il 67% dei venditori non sa come usarla. Otto su dieci hanno comprato il biglietto, sette su dieci non sanno dove stanno andando. Significa che non sei in ritardo. Significa che partire con le idee chiare ti mette già davanti alla maggioranza.
Ma quali idee? Cosa distingue un’adozione che funziona da una che genera confusione?
Una storia che vale più di mille spiegazioni
Qualche mese fa vengo chiamato da un’azienda del settore tech, una media impresa B2B con una quarantina di commerciali sul territorio. Avevano implementato un CRM con funzionalità AI piuttosto avanzate (e non era nemmeno costato poco). Il sistema analizzava le interazioni, incrociava dati, e ogni mattina presentava a ciascun venditore una lista ordinata di azioni: chi richiamare, chi sollecitare, in che sequenza.
Adozione rapida, entusiasmo diffuso. I venditori apprezzavano non dover decidere da dove cominciare la giornata. I manager controllavano che le azioni fossero completate. I numeri, nei primi mesi, sembravano buoni.
Mi chiamano quando un deal importante salta. Prospect grosso, progetto discusso in dettaglio, budget praticamente approvato. Poi silenzio. Quando il venditore (c’è da dire: figura forse troppo junior) riesce a ricontattare il decisore, scopre che hanno firmato con un concorrente. Ricostruendo, emerge che non aveva fatto follow-up per quasi tre settimane. Il prospect era scivolato in fondo alla lista e lui, seguendo i suggerimenti del sistema, aveva dedicato il tempo ad altro.
La sua difesa: “Ho fatto quello che diceva il sistema.”
Passo due giorni a cercare di capire come il sistema stabilisse quelle priorità. Il direttore commerciale non lo sa, ma è sicuro che ci sia una logica. L’IT sa che c’è un algoritmo di scoring, ma non conosce i criteri. Il fornitore mi dà spiegazioni generiche su machine learning e pattern recognition.
Alla fine, scavando nella documentazione tecnica, trovo la risposta.
Nessuno, in azienda, aveva definito le priorità.
Il sistema usava criteri di default del fornitore: recency dell’ultima interazione, dimensione azienda, fonte del lead. Nessuno aveva detto: per noi il settore X vale più del settore Y. Nessuno aveva indicato: i deal sopra una certa soglia hanno priorità assoluta.
L’AI non aveva sbagliato. Aveva preso una non decisione al posto di chi avrebbe dovuto decidere e non l’aveva fatto. Per mesi, quaranta persone avevano lavorato seguendo priorità che nessuno aveva scelto.
Racconto questo caso non per spaventare, ma per mostrare un errore evitabile. L’azienda aveva implementato senza chiedersi esplicitamente “chi definisce le priorità? Come le codifichiamo? Chi verifica che corrispondano alla nostra strategia?”
Il direttore di filiale che non decide più
C’è un tema che va affrontato prima di qualsiasi implementazione. Riguarda il middle management, e richiede un passo indietro di qualche decennio.
Prendiamo una figura che tutti conoscono: il direttore di filiale di una banca. Negli anni Ottanta e ancora nei primi Novanta, questa figura aveva un potere reale. Decideva a chi concedere un fido e a chi no, basandosi sulla conoscenza diretta del territorio, delle famiglie, delle imprese locali. Stabiliva le condizioni dei mutui, con margini di negoziazione significativi. Sceglieva come allocare il budget di marketing locale, quali eventi sponsorizzare, come posizionare la filiale nella comunità. Gestiva il personale con ampia autonomia. Era, a tutti gli effetti, un imprenditore dentro l’impresa.
Oggi quella stessa figura esiste ancora, ma fa un lavoro completamente diverso. I fidi li decide un algoritmo centrale. Le condizioni dei prodotti sono definite dalla direzione. Il marketing è centralizzato, le campagne arrivano preconfezionate. Il direttore di filiale del 2026 esegue, controlla, riferisce. Ha la responsabilità dei risultati ma non l’autorità sulle leve che quei risultati determinano.
Questo processo — la progressiva erosione dell’autonomia decisionale del middle management — non riguarda solo le banche. Riguarda il retail, dove i direttori di negozio applicano planogrammi decisi altrove. Riguarda la manifattura, dove i capi reparto seguono procedure standardizzate. Riguarda le vendite, dove i direttori commerciali sono sempre più spesso supervisori di processi e sempre meno architetti di strategie.
Le ragioni sono note. Globalizzazione, regolamentazione, ricerca di efficienza. La tecnologia ha reso possibile il controllo a distanza, quindi perché lasciare discrezionalità quando puoi monitorare tutto in tempo reale?
Il risultato è che le organizzazioni hanno svuotato il middle management della sua funzione originaria. Quello che un tempo era il livello dove le decisioni venivano prese è diventato il livello dove le decisioni vengono trasmesse.
Il vuoto
Questo svuotamento ha lasciato un problema irrisolto.
Le decisioni operative, quotidiane, minute, contestuali, non sono scomparse. Qualcuno deve ancora decidere quale cliente servire prima, quale problema affrontare con urgenza, quale eccezione concedere, quale regola interpretare. Queste decisioni non possono essere prese dal vertice, che non ha la visibilità né il tempo. Non possono essere codificate in procedure, perché la realtà è sempre più varia di qualsiasi procedura.
Per anni, questo vuoto è stato riempito in modi informali. Il middle manager ufficialmente non decideva, ma di fatto lo faceva, aggirando le procedure quando serviva, usando la discrezionalità che formalmente non aveva. Oppure le decisioni semplicemente non venivano prese, e le organizzazioni funzionavano peggio di quanto avrebbero potuto, con inefficienze che nessuno misurava perché nessuno sapeva che esistessero.
Poi è arrivata l’intelligenza artificiale.
L’AI ha trovato quel vuoto e ha cominciato a riempirlo. Non perché qualcuno glielo abbia chiesto. Ma perché l’AI, per sua natura, prende decisioni. Quando un algoritmo ordina una lista di clienti da chiamare, sta decidendo una priorità. Quando suggerisce un prezzo, sta prendendo una posizione. Quando assegna un lead a un venditore, sta allocando risorse. Sono decisioni, anche se nessuno le chiama così.
Il passaggio è avvenuto quasi senza che nessuno se ne accorgesse. L’AI è stata presentata come uno strumento di supporto, un assistente. E in parte lo è. Ma nel momento in cui il “suggerimento” viene seguito senza essere discusso, la natura del rapporto cambia. L’AI non supporta più una decisione umana. La sostituisce.
Il paradosso
Siamo arrivati a una situazione paradossale.
Le organizzazioni hanno passato trent’anni a togliere potere decisionale al middle management. Poi hanno introdotto l’AI, che ha cominciato a prendere proprio quelle decisioni operative che nessuno prendeva più. Il middle manager umano è stato svuotato; il middle manager algoritmico lo ha sostituito.
Ma c’è una differenza.
Il middle manager umano, con tutti i suoi limiti, conosceva il contesto: la storia di quel cliente, le dinamiche di quel mercato, le peculiarità di quel territorio. Poteva esercitare giudizio: valutare eccezioni, riconoscere casi limite, applicare buon senso. Era accountable: se la decisione si rivelava sbagliata, qualcuno poteva chiedergliene conto, lui poteva spiegare il ragionamento, imparare dall’errore.
L’algoritmo non conosce il contesto, se non quello codificato nei dati — e i dati non catturano mai tutto. Non esercita giudizio, applica pattern statistici. Non è accountable: se la decisione è sbagliata, non c’è nessuno a cui chiedere conto, nessun ragionamento da esaminare, nessun apprendimento che ne consegua.
Quando le cose vanno bene, questo non si nota. Ma quando qualcosa va storto emerge il vuoto. Di chi è la responsabilità? Dell’algoritmo? Dell’operatore che ha seguito il suggerimento? Del management che ha implementato il sistema senza definirne i criteri?
La risposta, nella pratica, è: di nessuno. E un’organizzazione dove la responsabilità è di nessuno è un’organizzazione che ha smesso di imparare.
La domanda che nessuno si pone
A questo punto la maggior parte dei discorsi sull’AI prende una piega prescrittiva: ecco cosa fare, ecco le best practice, ecco i passi da seguire. Ma c’è una domanda più scomoda che viene prima, e che quasi nessuno si pone.
La domanda è: l’AI ha creato questo problema, o lo ha solo reso visibile?
Perché se guardiamo onestamente la situazione, il vuoto decisionale nel middle management esisteva già prima dell’AI. L’AI lo ha riempito, certo. Ma qualcuno doveva pur riempirlo. E se non fosse stata l’AI, sarebbe stato qualcos’altro: procedure più rigide, controlli più capillari, ulteriore accentramento.
Il vero problema non è l’AI. È che le aziende hanno smesso di fidarsi delle persone molto prima che l’AI arrivasse. Hanno tolto autonomia, hanno standardizzato, hanno accentrato. L’AI è solo l’ultimo capitolo di una storia iniziata trent’anni fa.
Questo cambia la natura della conversazione. Non si tratta di “come implementare l’AI senza fare danni”. Si tratta di decidere che tipo di organizzazione vuoi essere. Vuoi continuare sulla strada dell’accentramento, usando l’AI come strumento di controllo? O vuoi invertire la rotta, usando l’AI per ridare alle persone gli strumenti per decidere?
La tecnologia permette entrambe le cose. La scelta è organizzativa, non tecnologica.
Via d’uscita?
Esiste un modo diverso di pensare il rapporto tra AI e middle management.
L’idea: invece di usare l’AI per sostituire il middle management svuotato, usarla per restituirgli potere.
Il direttore di filiale di cui parlavo prima ha perso autonomia perché le decisioni sono state accentrate, e sono state accentrate perché il centro non si fidava della periferia. Non si fidava che i direttori avessero le informazioni giuste, prendessero decisioni coerenti, perseguissero gli interessi dell’organizzazione; o semplicemente che le decisioni che prendevano fossero non ottimizzate per una grande organizzazione.
L’AI potrebbe cambiare questa equazione. Potrebbe dare al direttore di filiale accesso a informazioni che prima aveva solo il centro: dati sui clienti, benchmark con altre filiali, analisi predittive, scenari simulati. Potrebbe permettergli di prendere decisioni migliori, più informate, più coerenti con la strategia complessiva. Potrebbe rendere le sue scelte trasparenti e verificabili.
In questo scenario, l’AI non sostituisce il giudizio umano. Lo potenzia. Non prende decisioni al posto del middle manager. Gli dà gli strumenti per prenderne di migliori.
Un esempio concreto, nelle vendite. Un direttore commerciale oggi può ricevere dall’AI un’analisi del proprio territorio che un tempo avrebbe richiesto settimane: quali clienti stanno crescendo, quali mostrano segnali di disimpegno, dove ci sono opportunità inesplorate. Può vedere simulazioni: se sposto questo venditore su quel segmento, cosa succede? Se cambio la strategia di pricing, quali clienti ne beneficiano?
Queste informazioni, un tempo, erano accessibili solo al vertice. Adesso possono essere nelle mani di chi conosce il territorio, i clienti, le persone. Di chi può interpretare quei dati alla luce di cose che nei dati non ci sono.
Ho visto questo modello funzionare. In un’azienda con cui ho lavorato, il direttore commerciale aveva accesso a un cruscotto che gli mostrava, per ogni venditore, non solo i risultati ma i comportamenti. Non per controllare — ma per capire. Quando vedeva un pattern strano, poteva andare a parlare con il venditore, capire cosa stava succedendo, decidere insieme come aggiustare.
Mi ha detto: “Prima mi sentivo un passacarte. Adesso mi sento di nuovo un manager.” Non perché avesse più potere formale. Perché aveva gli strumenti per esercitare il giudizio che il suo ruolo avrebbe sempre dovuto comportare.
Perché quasi nessuno lo fa
Usare l’AI per restituire potere al middle management richiede fiducia.
Fiducia che le persone, se hanno le informazioni giuste, prenderanno decisioni sensate. Fiducia che non abuseranno dell’autonomia. È una fiducia che va costruita, coltivata, verificata nel tempo. Non si compra da un fornitore di software.
La strada opposta — usare l’AI per accentrare, standardizzare, togliere discrezionalità — non richiede fiducia. Richiede solo tecnologia. È più facile, più veloce, più rassicurante per chi sta al vertice.
C’è anche un problema di cultura manageriale. Molti dirigenti, cresciuti nell’era dell’accentramento, non sanno più cosa significhi delegare davvero. Sanno delegare compiti, non decisioni. Quando sentono parlare di “restituire potere al middle management” annuiscono, ma poi implementano sistemi che vanno nella direzione opposta.
E c’è un problema di fornitori tecnologici, che vendono soluzioni progettate per l’accentramento perché quelle sono più facili da vendere. “Il nostro sistema garantisce coerenza” significa: toglie discrezionalità. “Il nostro algoritmo ottimizza” significa: decide al posto vostro.
Nel Prolegomeno 139 dedicato alla consulenza nell’era degli AI agent, Marco Minghetti osserva che “l’orchestrazione è prima di tutto una disciplina manageriale che coinvolge processi, ruoli, interfacce, metriche e meccanismi di audit”. Non è questione di piattaforme. È questione di decidere chi decide cosa.
Il circolo vizioso
C’è un effetto secondario di questa dinamica che riguarda le persone, non i processi.
I migliori commerciali — quelli con esperienza e ambizione — non vogliono essere esecutori. Vogliono contare, decidere, assumersi responsabilità. Se il sistema toglie loro questa possibilità, se ne vanno. Restano quelli che si accontentano di seguire istruzioni.
È un circolo vizioso che ho visto ripetersi. L’organizzazione non si fida delle persone, quindi accentra le decisioni. Le persone migliori se ne vanno perché non possono decidere nulla. L’organizzazione resta con persone meno capaci, il che conferma che aveva ragione a non fidarsi.
L’AI, inserita in questo circolo, rischia di accelerarlo.
Interessante vedere come altri autori hanno affrontato questo problema nei diversi prolegomeni.
Alessandra Lazazzara e Stefano Za, nel Prolegomeno 143 dedicato all’AI nei processi HR, parlano di augmentation-automation paradox: fino a che punto l’AI deve sostenere i professionisti, e quando invece rischia di sostituirli? La domanda vale per l’HR, ma vale identicamente per le vendite.
Nel Prolegomeno 156, Luca Guerrasio parla delle competenze come “strumenti vivi” che si affinano nell’uso e nel confronto. Se l’AI toglie alle persone l’occasione di esercitare il giudizio, quelle competenze si atrofizzano. Non è solo un problema di efficienza. È un problema di patrimonio organizzativo che si dissolve.
La questione dell’autenticità
C’è un ultimo aspetto che mi interessa, e riguarda il singolo professionista.
Se l’AI genera i miei messaggi, sceglie le mie priorità, suggerisce le mie mosse … sono ancora io? La reputazione di un commerciale si costruisce sulle sue scelte: chi decide di incontrare, come imposta le relazioni, quali problemi affronta. Se queste scelte passano a un sistema, cosa resta?
Salvatore Ricco, nel Prolegomeno 148 dedicato allo Storytelling Pop, parla dell’autenticità come “moneta preziosa”. L’autenticità non è solo coerenza tra ciò che si dice e ciò che si fa. È agency: la capacità di essere autori delle proprie scelte.
Il venditore che segue ciecamente i suggerimenti dell’AI diventa l’esecutore di un copione scritto altrove. Non da un capo, non da una strategia condivisa. Da un algoritmo con i suoi default. E quando il cliente percepisce che dall’altra parte non c’è una persona che sceglie, ma un sistema che ottimizza, la relazione cambia natura.
Quattro domande
Se stai valutando di implementare l’AI nei tuoi processi commerciali, ci sono quattro domande da porti prima.
Governance. Chi deciderà cosa l’AI deve ottimizzare? Ogni algoritmo ottimizza qualcosa: velocità, volume, conversione, margine. Ma ottimizzare una metrica significa deprioritizzarne altre. Chi sceglie quale metrica conta di più? Se lasci la scelta ai default del fornitore, non stai decidendo nulla.
Accountability. Chi risponderà delle decisioni che il sistema suggerisce? Quando l’AI consiglia e l’umano esegue senza interrogarsi, la responsabilità evapora. Decidi prima: chi è responsabile?
Identità. Cosa resterà intenzionalmente umano? Quali decisioni, quali interazioni, quali giudizi vuoi che restino in mano a persone? Se automatizzi tutto, cosa resta del tuo vantaggio competitivo?
Formazione. Chi insegnerà alle persone non come usare lo strumento, ma quando seguirlo e quando ignorarlo? Come mantenere il giudizio critico quando la macchina sembra sapere tutto?
Tre cose da fare subito
Parti da un problema specifico. Non “voglio implementare l’AI nelle vendite”. Piuttosto: “I miei venditori passano troppo tempo a decidere chi chiamare e spesso scelgono male.” Un problema specifico porta a una soluzione valutabile.
Coinvolgi chi userà il sistema. Parla con i venditori, con i direttori commerciali. Chiedi: quali decisioni sono difficili? Quali informazioni ti mancano? Le risposte ti diranno cosa il sistema deve fare — spesso sono diverse da quello che i fornitori propongono.
Definisci i criteri prima di implementare. Se vuoi che il sistema prioritizzi i lead, scrivi i criteri. Tu, non il fornitore. Clienti del settore X vengono prima di quelli del settore Y. Opportunità sopra questa soglia hanno priorità assoluta. Poi verifica che il sistema possa applicarli. Mantieni sempre l’agency delle decisioni.
La trappola
C’è una trappola in cui cadono molte aziende: comprare l’AI per risolvere un problema che è in realtà organizzativo.
Se i tuoi venditori non seguono un processo comune, l’AI non creerà il processo. Se il tuo direttore commerciale non ha autorità, l’AI non gliela darà. Se non hai chiaro quali clienti sono strategici, l’AI non lo scoprirà per te.
L’AI funziona quando potenzia un’organizzazione che sa cosa vuole. Funziona male quando viene usata come scorciatoia per evitare decisioni difficili.
Nel libro che ho scritto con Alberto Giusti — “L’intelligenza artificiale nelle vendite”, uscito per Franco Angeli — c’è una frase: l’AI non sostituirà i commerciali, ma i commerciali che usano l’AI sostituiranno quelli che non la usano.
Vale anche per le aziende. Non adottare per paura sarebbe un errore. Adottare senza pensarci sarebbe un errore peggiore.
Una scelta
Non siamo di fronte a un futuro distopico. L’AI non sta prendendo il controllo, non sta sostituendo i venditori, non sta rendendo obsoleto il lavoro umano.
Siamo di fronte a una scelta. L’AI può svuotare il middle management delle sue ultime responsabilità, oppure restituirgli strumenti e autonomia. Può trasformare i venditori in esecutori di un copione algoritmico, oppure potenziarli con informazioni che prima non avevano. Può creare organizzazioni dove nessuno decide nulla, oppure organizzazioni dove le decisioni sono più informate.
Ma questa scelta esisteva già prima dell’AI. L’AI l’ha solo resa più urgente e più visibile.
Chi implementa oggi ha un vantaggio: può imparare dagli errori degli altri. Può farsi le domande giuste prima, invece che dopo.
La prossima volta che qualcuno ti propone un sistema AI che “ottimizza” o “automatizza” le tue vendite, fermati. Chiedi: chi ha definito i criteri? Chi risponde se qualcosa va storto? Cosa resta da decidere alle persone?
Se le risposte non ti convincono, il problema non è la tecnologia. È che qualcuno sta cercando di venderti una soluzione a un problema che non hai capito.
Massimiliano Böhm è co-autore de “L’intelligenza artificiale nelle vendite” (Franco Angeli, 2024) con Alberto Giusti. Ha conseguito un MBA presso Rotterdam School of Management e ha maturato una lunga esperienza internazionale nelle vendite B2B, incluso il ruolo di Head of Sales per LinkedIn Sales Solutions EMEA.
168 – Puntate precedenti