Francesco Gori è Direttore creativo per multinazionali della comunicazione, autore scientifico su sintesi e creatività, docente di semplificazione applicata in Naba – Nuova Accademia di Belle Arti. Sembra serio ma ha un passato a Zelig, come imprenditore dell’intrattenimento.
Semplificare per trasformare la realtà
Francesco Gori
L’innovazione è semplificazione
Albert Einstein diceva che non abbiamo capito davvero qualcosa finché non riusciamo a spiegarla in modo semplice. Questa frase nasconde una profonda verità neuro-fisiologica: semplificare (rendere qualcosa POP) è parte dell’atto stesso di capire e trasformare la realtà, ricreandola in un formato più efficiente e adatto alle nostre risorse cognitive e a quelle degli altri.
È quanto provo a mettere in pratica nel mio corso di semplificazione applicata, in cui sfido i ragazzi a rendere informazioni, processi e oggetti più semplici, belli e sostenibili, in una parola: POP.
In una realtà sempre più complessa, la semplificazione è la vera killer skill, nel bene e nel male. Da una parte c’è la buona semplificazione che fa la differenza nella divulgazione di conoscenza, nella progettazione di tecnologie e prodotti (l’ergonomia cognitiva di cui parla Alessio Mazzucco nel suo Opinion Piece) e persino nella ricerca di sostenibilità. Dall’altra c’è la cattiva semplificazione, che riduce la realtà in modo parziale, alimentando disinformazione e incertezza, polarizzazioni e azioni inconsapevoli. Nei termini di Marco Minghetti: semplificare è POP, banalizzare è populismo.
Ecco il motivo per cui è fondamentale aggiornare i nostri modelli di formazione e di selezione, incentivando la capacità di semplificare e trasformare la realtà, e non solo quella di ripetere informazioni e procedure prestabilite. Se non lo facciamo continueremo a valutare individui e società su criteri puramente quantitativi, in base ore lavorate, fatturati, followers, like, rimanendo imprigionati nell’era della continua analisi.
Mai come oggi è necessario potenziare le nostre naturali capacità di sintesi trasformativa e aumentarle con l’Intelligenza Artificiale. Per farlo è tuttavia necessario prima comprendere le differenze fondamentali tra i due sistemi.
Intelligenza e competenza artificiale
Parto da una definizione POP di intelligenza umana che a mio modo di vedere non è data dalla quantità di informazioni e competenze acquisite ma dalla capacità di ristrutturarle in funzione degli obiettivi.
Pensiamo ad Albert Einstein o Werner Heisemberg che partivano da nozioni simili a molti altri fisici, ma avevano una straordinaria capacità di elaborarle, allontanandosi dagli schemi consolidati.
In questo senso i vari chat bot sono più simili a memorie procedurali: l’insieme di competenze innate o acquisite, che ci permettono di agire all’interno di ambiti prestabiliti, ma senza allontanarci troppo da essi. Il funzionamento di queste memorie procedurali e semiautomatiche – quelle che Kahneman chiama Sistema1 [1] – è alla base del machine learning e delle AI generative.
Dopo aver visto migliaia di foto di gatti, l’AI è in grado di estrarre le caratteristiche ricorrenti del gatto e applicarle per riconoscere o generare gatti simili. Così come, dopo aver letto cento poesie di Montale, l’algoritmo è in grado di riconoscere (e poi generare) varianti di poesie simili e così via. Lo studioso Giorgio Vallortigara spiega bene come persino le api possiedano la capacità di capire e riconoscere lo stile di artisti famosi [2].
D’altro canto, l’AI nasce 70 anni fa proprio dallo studio della neurofisiologia e della percezione visiva di Hubel e Wiesel [3]. Semplificando molto, il meccanismo di base delle AI attuali è ancora quello dell’estrazione di pattern in base alla loro rilevanza statistica (più una cosa si ripete, più ha peso). La disponibilità di dati e potenza di calcolo hanno portato ai moderni chatbot.
In questo senso, l’AI funziona come i nostri meccanismi cognitivi veloci e automatici, ma al contempo funziona ‘al contrario’ rispetto alla nostra intelligenza lenta e consapevole – quella che Kahneman chiama Sistema 2 (in Ariminum Circus Stagione 1, così viene descritta la differenza fra i due “sistemi”: «Già il Dupin di Poe, anticipando i neuroscienziati contemporanei, dimostra che l’uomo predilige il “sistema Uno”: un pensare intuitivo, veloce e fallace, che applica quando si racconta una storia per spiegare il mondo. Ovvero che usa abitualmente, evitando di misurarsi con il “sistema Due”: analitico, lento, faticoso – per gli umani, non per i computer – è il ponderare statistico, che considera ogni evento in un quadro d’insieme», NdR).
Pensiamoci: l’AI dà ‘peso’ e rilevanza a ciò che si ripete (il pattern nascosto nei dati) e smette di funzionare di fronte a qualcosa di nuovo e distante dal data set. Al contrario, il nostro sistema cosciente, di cui fa parte anche l’attenzione, si ‘accende’ di fronte a cose nuove, e gli bastano poche informazioni per comprendere e creare cose molto distanti dalla nostra memoria.
L’AI fallisce davanti al nuovo: un piccolo esempio
Tempo fa, stavo cercando di generare l’immagine di una persona capovolta utilizzando l’AI di Midjourney. Nonostante sembri un compito abbastanza semplice per una AI il risultato erano mostri antropomorfi con alcune parti del corpo attaccate al contrario.
A ben pensarci, il motivo è abbastanza ovvio: nel data set di addestramento (la memoria delle AI) non c’erano uomini né altri nè altri oggetti capovolti, per cui l’AI non riesce a riconoscerli né a generarli, in quanto troppo distanti dal data set di addestramento.
Questo problema viene talvolta aggirato con un trucco chiamato ‘data augmentation’: prima di caricare un’immagine nel data set di addestramento, questa viene automaticamente ruotata in diverse posizioni in modo che l’AI impari a riconoscere e generare immagini capovolte.
A differenza delle AI, noi non abbiamo bisogno di inserire nella nostra memoria l’immagine nella diverse posizioni. Ci basta ruotarla mentalmente per immaginare gli effetti della rotazione e le conseguenze fisiche che il capovolgimento produrrà. Ad esempio, un uomo perderà gli occhiali per via della forza di gravità.
Questo è possibile perché noi sviluppiamo un modello mentale del mondo fisico, all’interno del quale possiamo generare ipotesi alternative alla realtà stessa. La facoltà di simulare scenari possibili non è qualcosa che puoi replicare semplicemente aggiungendo dati e varianti di tutto ciò che potrebbe succedere, nè aumentando la velocità di calcolo.
Depolarizzazione
In questo senso gli algoritmi sono ‘datati’, nel senso troppo dipendenti dal dato e come tali adatti a proporci variazioni di quanto già visto. Pensiamo a Google e Netflix che ci forniscono risultati contenuti sulla base dei nostri interessi passati, ma in modo sempre più sofisticato come racconta Marco Milone nel proprio Opinion Piece.
Ciò contribuisce a chiuderci nelle echo chamber, camere dell’eco, che alimentano la nostra tendenza polarizzarci su posizioni conservative.
In questo contesto l’AI può diventare lo strumento decisivo per aumentare polarizzazione. Oppure per affrancarci da essa, liberando le nostra capacità trasformative.
Se usata per selezionare informazioni (riducendo per esempio risultati di ricerca o notifiche simili) e per automatizzare le azioni ripetitive (scrivendo automaticamente i report), l’AI può contribuire a restituirci il tempo perduto, che possiamo utilizzare per attività formative e trasformative, ad alto valore aggiunto.
Al contrario, se viene usata per aumentare il numero di contenuti banali e fake news, l’AI amplificherà il rumore, l’incertezza e resistenza al cambiamento, diminuendo così la nostra intelligenza collettiva.
È fisiologico: all’interno di un contesto disorganizzato, dove le risorse cognitive sono impegnate a filtrare il rumore e gestire continue interruzioni, i nostri neuroni agiscono in modalità automatica, elaborando di più le continuità e meno differenze che richiedono tempo ed energia. Ho chiamato questo principio increasing differentiation[5].
Se applicato a persone e società, questo fenomeno genera una diminuzione dell’inclusività, della creatività e, in generale, della capacità di trasformazione, qualità che emergono in un contesto organizzato e sufficientemente ‘libero’.
Il problema di come usare la tecnologia, se come organizzatore o come disorganizzatore, diventa cruciale per il futuro delle società, intese anche come corporate e PMI: in un contesto aziendale veloce, che riempie ogni vuoto con call, riunioni (spesso inutili) e task ripetitivi, ponendoci in una condizione di continuo stato di emergenzialità. In questa condizione diventa quasi impossibile trovare risorse per svolgere attività trasformative.
Formazione inVisibile
Per funzionare nella routine aumentata delle aziende, le attività tras/formative devono diventare piccole, leggere quasi invisibili, capaci cioè di valorizzare le poche risorse disponibili (in termini di tempo e attenzione) per innescare cambiamenti più grandi a livello di contesto.
Per farlo è necessario innanzitutto cambiare punto di vista e iniziare a vedere la condizione di scarsità di tempo e attenzione come un’opportunità per creare processi e approcci al cambiamento più adatti alle risorse disponibili. Un po’ come si fa nelle stazioni spaziali, dove grazie alle condizioni estreme si sperimentano soluzioni più efficienti che poi funzionano sulla Terra.
Questo è il punto di partenza per progettare percorsi di formazione e innovazione “invisibili”, che creano tempo e valore senza interrompere il workflow (da qui invisiLab, un progetto che risuona con il nome con questo blog e che spero di condividere presto).
Se non faremo questo step, rimarremo prigionieri della complessità aziendale, che non potremo né capire né cambiare, ma solo seguire sotto forma di procedure e sequenze di dati. E’ quello che Luciano Floridi, chiama “agere sine intelligere”, agire senza capire, riferendosi al rischio delle persone di diventare macchine [4].
Qui sta la vera differenza tra l’artificial manager, che come un’AI ha competenze specifiche che non si allontanano dal data set esecutivo e gestionale, e un Pop manager, capace di unire i puntini anche molto distanti dal proprio data set per produrre trasformazioni.
Come scrive Alessandro Giaume nel suo Opinion Piece: “Lo stile di management che è richiesto in queste circostanze si allontana dai canoni istituzionalizzati del dirigismo”. Aggiungo e concludo che la stessa etimologia del termine manager, da to manage, ovvero gestire processi esistenti, inizia a risultare limitata per chi, d’ora in poi, dovrà utilizzare le risorse disponibili per migliorare i processi esistenti, o inventarne di nuovi.
Note:
- Kahneman, D. (2011). Thinking, Fast and Slow. New York: Farrar, Straus and Giroux.
- Vallortigara, G. (2022). https://shorturl.at/hFXAK
- Hubel, D. H., & Wiesel, T. N. (1962). Receptive fields, binocular interaction and functional architecture in the cat’s visual cortex. The Journal of Physiology, 160(1), 106-154.
- Floridi, L., & Cabitza, F. (2022). Intelligenza artificiale. Guida alla filosofia del prossimo futuro. [Luogo di pubblicazione]: Editore.
- GORI, F, Practice and Theory of Visual Representation. GESTALT THEORY, 2016, 38.1.
23 – continua
Copertina di Marcello Minghetti (Mosaico per Ariminum Circus Stagione 1)
Puntate precedenti: