Marco Bani è Responsabile Affari Istituzionali, Formazione e Digitalizzazione per il Partito democratico al Senato della Repubblica. Da sempre appassionato delle interconnessioni tra nuovi media e scienze umane, dopo la laurea specialistica in Informatica umanistica ha conseguito un Dottorato di ricerca in Politica, diritti umani e sostenibilità presso la Scuola Superiore Sant’Anna di Pisa.
In passato è stato Capo Segreteria presso il Ministero dello Sviluppo Economico e Public Policy Manager per Amazon Web Services. Fino al 2018 ha guidato la Segreteria Tecnica dell’AgID, l’agenzia della Presidenza del Consiglio che promuove l’innovazione digitale nella Pubblica amministrazione.
Assieme a Lorenzo Basso ha scritto Il secolo dell’IA. Capire l’intelligenza artificiale, decidere il futuro (Il Mulino), un libro che nasce per offrire strumenti concreti a chi vuole capire, partecipare e decidere su un futuro che non è un destino inevitabile. Perché, come spiega in questa intervista per il magazine dell’Independent design company logotel, “non siamo una macchina a guida autonoma: l’uomo ha la capacità di riorientare il futuro”.
D. Marco, il vostro libro si apre con una constatazione: “Viviamo in un tempo che non abbiamo ancora imparato a definire”. Per navigare questo tempo Timothy Tiryaki, esperto globale nel campo della trasformazione culturale e della leadership, ha coniato l’acronimo FLUX (Fast, Liquid, Uncharted, eXperimental). Ti ci ritrovi?
R. Assolutamente sì. Le trasformazioni sono sempre più veloci e non riusciamo a stare al passo con questa evoluzione tecnologica. Dagli anni ’90, con Internet e la possibilità di comunicare ovunque e con chiunque, assistiamo a una liquidità della geografia che si estende all’economia – con la globalizzazione che ci ha portato a importare merci da una parte del mondo e produrle dall’altra – e ai legami sociali, con i social media che ci hanno dato accesso a “amici” in tutto il mondo.
Nel 2000 il sociologo Zygmunt Bauman ha introdotto la fortunata definizione di “modernità liquida”. Con l’avvento dell’intelligenza artificiale vedo però una velocità di trasformazione che, anche per un entusiasta della tecnologia come me, è difficile seguire. Questo vale sia sul lato sociale – penso ai legami che si creano tra le persone e i chatbot – sia sul fronte della creatività. Forse non abbiamo ancora capito a fondo la portata dell’IA generativa nella musica e nei video: con strumenti come Veo 3 di Google abbiamo la possibilità di creare contenuti anche senza capacità tecniche specifiche. Diventerà sempre più importante filtrare il contenuto, perché ormai sarà alla portata di tutti. Una domanda chiave, per la società e l’economia dei prossimi anni, sarà: quale contenuto far vedere, come vederlo e come gestirlo?
Intelligenza artificiale e responsabilità: anticipare i rischi
D. Quali sono le principali responsabilità connesse allo sviluppo e alla diffusione dell’intelligenza artificiale?
R. Dal punto di vista politico, che è quello più vicino alle mie corde, la responsabilità principale è cercare di anticipare i rischi dell’intelligenza artificiale. Bisogna pensare al futuro, cercando di prevedere i problemi, ma offrendo anche soluzioni compatibili con questa fluidità e velocità.
È difficile, come stiamo vedendo dal punto di vista della normazione. Dal punto di vista dello sviluppo economico, prima il GDPR e poi l’AI Act rappresentano un costo per le piccole e medie imprese, che hanno più difficoltà ad accedere ai capitali.
È chiaro che si deve regolamentare l’IA per evitare derive pericolose, ma “morire di responsabilità” non ci darà la possibilità di creare una tecnologia che rispetti i nostri valori e ci spingerà a utilizzare comunque una tecnologia – statunitense o cinese – che non rispecchia la nostra cautela.
D. Nella parte iniziale il libro presenta una breve storia dell’IA attraverso alcune milestone: dalla conferenza di Dartmouth in cui per la prima volta apparve il termine intelligenza artificiale al primo chatbot Eliza, da Deep Blue (il supercomputer IBM che sconfisse il campione di scacchi Garry Kasparov) ad AlphaGo (il software di Google DeepMind che vinse contro il campione mondiale del complesso gioco del Go), da AlexNet a ChatGPT. Quale potrebbe essere la prossima pietra miliare?
R. Secondo me sarà il momento in cui non riusciremo più a distinguere il contenuto generato artificialmente da quello creato con metodi tradizionali. Quando non capiremo più se un film è fatto dall’IA o con le tecniche cinematografiche attuali, quello sarà il momento cruciale. Penso che lo vedremo presto.
Formazione e talento nell’era dell’IA
D. Nella vostra analisi, scrivete che “la risorsa più scarsa e preziosa dell’era digitale è il talento umano”. Questo risuona con il nostro approccio in logotel: mettere persone e comunità al centro di tutto ciò che progettiamo, tecnologia inclusa. Sono necessarie persone ben formate sia per guidare lo sviluppo dell’IA, sia per utilizzarla con consapevolezza. Sul tema della formazione del talento, quali azioni occorrono?
R. Il tema è europeo. In Italia abbiamo il numero di laureati in STEM (Science, Technology, Engineering, Mathematics) più basso d’Europa; questo è sicuramente un problema e un gap da recuperare. Ma per affrontare una rivoluzione economica di questa portata bisogna pensare a tutta la filiera tecnologica in maniera europea.
Ci sono due grandi direttrici. La prima è l’unione dei capitali, che manca tantissimo all’Europa. Le università fanno ricerca e sviluppo, ma anche le imprese hanno bisogno di investimenti. Il rapporto di Mario Draghi dice che 500 miliardi di euro di risparmio privato europeo vengono investiti negli USA perché non possono essere trattenuti qui. Un’unione dei capitali renderebbe più vantaggioso investire in Europa, sia burocraticamente che finanziariamente, sbloccando risorse che andrebbero ad aiutare la ricerca e sviluppo.
La seconda direttrice è la parte pubblica: bisogna creare un’area comune della ricerca europea. Le nostre università sono ancora un fiore all’occhiello dell’Accademia mondiale, ma sulla tecnologia stanno perdendo terreno. Bisogna incrementare la mobilità dei ricercatori, gli stipendi, le infrastrutture. Questo si può creare solo con grandi sinergie europee. Ancora oggi, nel 2025, il riconoscimento dei titoli in UE avviene caso per caso: è un ingorgo burocratico incredibile che non invoglia la mobilità intraeuropea.
È necessaria infine anche diplomazia scientifica: collaborare con tutto quel mondo rimasto fuori dal duopolio USA-Cina. Penso al Giappone, alla Corea del Sud, all’India, a tutti quei Paesi che hanno un capitale umano interessante ma che, presi singolarmente, non riescono a scalare.
D. E per quanto riguarda invece la formazione e la consapevolezza di chi utilizza l’IA, credi che possa essere utile un’alfabetizzazione di base sull’IA anche per chi è già fuori dal ciclo formativo?
Mi sembra di rivedere la storia di 15-20 anni fa, quando ci si chiedeva come portare il digitale a tutte le persone. Non c’è mai stata una ricetta magica.
Dal lato della Pubblica amministrazione hanno capito che non bastava creare canali digitali, ma occorreva semplicità. E in questo senso sono molto orgoglioso del lavoro fatto all’Agenzia per l’Italia Digitale (AgID) nel 2015, quando con il progetto design.italia.it per la prima volta si è portata avanti l’idea di avere un’identità grafica condivisa per tutte le Pubbliche amministrazioni. È stato un lavoro centralizzato di omogeneizzazione dell’identità grafica e dell’esperienza utente, un’opera estetica diventata etica, perché ha migliorato la fiducia nella Pubblica amministrazione e quindi ha impattato positivamente sulla democrazia.
Penso si debba fare lo stesso per l’intelligenza artificiale. I privati hanno tutto l’interesse a creare sistemi semplici.
Ma perché anche le nuove generazioni utilizzino l’IA criticamente è necessario un lavoro nelle scuole, perché le politiche educative di oggi sono le politiche industriali di domani. In questo senso, imporre divieti sull’utilizzo degli smartphone e dell’intelligenza artificiale mi sembra anacronistico. Va creato un sistema che accolga la trasformazione, non che la respinga. E questa trasformazione è già in atto, come dimostrano i dati sull’utilizzo dell’intelligenza artificiale.
D. A proposito di uso critico dell’IA, nella tua newsletter Superpoteri hai analizzato il primo report di OpenAI su come i 700 milioni di utenti di ChatGPT utilizzano il chatbot. Ne è venuto fuori che le persone usano ChatGPT più per scopi privati che lavorativi, un dato confermato per l’Italia anche dall’ultimo Rapporto Coop 2025 sugli stili di vita degli italiani. Cosa significa secondo te questo squilibrio? Le aziende devono fare di più in termini di adoption dell’IA?
R. In alcune tipologie di lavoro, soprattutto a elevata intensità cognitiva, utilizzare strumenti come ChatGPT e in generale tool di Generative AI è ancora considerato deprecabile.
Mi è capitato, ad esempio, che una collega mi chiedesse sottovoce, quasi fosse una domanda indiscreta, se avessi utilizzato ChatGPT per scrivere il mio libro. Le ho risposto che l’avevo utilizzato perché è uno strumento utile: mi ha aiutato a controllare i tempi verbali, mi ha fornito spunti per esempi.
Certo, come tutte le cose, non si può abusarne. Ma le aziende devono innanzitutto superare lo stigma dell’utilizzo dello strumento, anche in chiave produttiva.
Se un task può essere fatto più velocemente con l’intelligenza artificiale, vuol dire che le persone avranno tempo per fare altre cose. Sarà poi compito dell’azienda capire come utilizzare questo tempo liberato: per ridurre l’orario lavorativo, assegnare nuovi compiti, aumentare il salario.
Credo che, come per il cloud, una volta provata l’intelligenza artificiale non si possa tornare indietro: il passo più difficile è provare per la prima volta.
D. Il report di OpenAI rivela anche che quasi la metà dei messaggi su ChatGPT arriva da under 26. E tu sollevi il rischio che un utilizzo acritico possa “erodere le capacità di lettura profonda e argomentazione”. Sul tema c’è anche il famoso – e spesso male interpretato – studio del MIT Your brain on ChatGPT. Come dovrebbero muoversi scuole e università?
R. È una grande sfida e non ho una soluzione definitiva. Credo che per evitare il declino cognitivo si debba cambiare tutto il modo di organizzare l’educazione, la ricerca accademica e il lavoro.
A scuola, ad esempio, si parla già da anni di flipped education: fare i compiti in classe e studiare i concetti a casa, ribaltando il modello tradizionale. Con l’IA questo approccio diventa ancora più rilevante.
È qualcosa che sta avvenendo anche all’università, dove anziché chiedere agli studenti di fare saggi brevi si sta puntando sempre di più su un lavoro orale, di presenza e prossimità. Interrogare di persona è sicuramente più difficile che correggere i saggi brevi, che sono più facilmente generabili con l’IA.
In generale, in questi casi bisogna ritrovare un po’ la complessità, che non è solo una questione di intelligenza artificiale: pensiamo a come i social media hanno ridotto la nostra capacità di attenzione.
Come l’intelligenza artificiale sta trasformando il lavoro
D. Una delle sezioni più interessanti del libro riguarda le sfide che l’IA pone in diversi ambiti. Dal nostro punto di vista, come realtà che aiuta aziende e organizzazioni a cogliere il senso delle trasformazioni che affrontano, ci interessa molto capire come l’IA stia “riscrivendo” il modo di lavorare. Voi citate tra gli altri la posizione dell’economista premio Nobel Daron Acemoglu, secondo cui occorre orientare lo sviluppo dell’IA verso l’aumento delle capacità umane e non verso la loro sostituzione. I dati del report di OpenAI che hai citato nella tua newsletter sembrano confermare questa visione: ChatGPT viene usato più come “consigliere” che come braccio operativo, in un’ottica di augmentation più che di automation. Come l’IA sta davvero riscrivendo il lavoro?
R. È un tema di cui si discute da tempo e su cui spesso si fanno previsioni apocalittiche che poi vengono smentite dai fatti. Ricordo che nel 2013 uno studio di Carl Benedikt Frey e Michael A. Osborne dell’Università di Oxford (The future of employment: how susceptible are jobs to computerization?, ndr) previde che nell’arco di 20 anni circa la metà dei posti di lavoro negli USA sarebbero stati automatizzati. Non è andata affatto così.
C’è un esempio iconico che chiarisce bene la questione: quello dei radiologi. Qualche anno fa le prime applicazioni di image recognition riguardavano proprio la diagnostica delle radiografie. Il ragionamento era lineare: se dai in pasto 10.000 immagini a un’IA, questa diventa brava a individuare i problemi. Eravamo arrivati al 90% di accuratezza nella diagnosi. Tutti dicevano: ci saranno meno radiologi, basterà validare quel 10% residuo. Invece negli Stati Uniti hanno assunto più radiologi. Come ce lo spieghiamo?
Innanzitutto i benchmark fatti in laboratorio spesso non hanno riscontro nella vita quotidiana degli ospedali. E poi c’è il paradosso di Jevons: quando la tecnologia abbassa i costi di un servizio, questo viene utilizzato di più, quindi aumenta la domanda complessiva. Oggi sono necessari più radiologi che lavorano insieme alle macchine per elaborare le diagnosi. Sarà così per molte altre professioni: va valutato caso per caso, task per task.
In generale, quando si parla del rischio che l’algoritmo possa rubare il lavoro non ci si concentra sulla tipologia di lavoro a cui ci si riferisce. Si parla sempre di numeri – disoccupazione, produzione industriale – ma si perde di vista il senso profondo del lavoro, che dovrebbe a sua volta dare senso alla vita.
Se un lavoro è così ripetitivo da poter essere svolto da un robot o un algoritmo, vuol dire che aveva bassissima intensità cognitiva. Allora parliamo davvero di quali lavori vogliamo trasformare e come, e di quale significato vogliamo dare al lavoro umano.
Per le aziende questo significa ripensare l’intera filiera: gestione delle risorse, comunicazione interna ed esterna, organizzazione dei processi. Non è questione solo del Chief information officer o del capo dell’innovazione. Come è accaduto con la trasformazione digitale, tutti i settori sono coinvolti. E questo può diventare un vantaggio competitivo importante.
Le sfide normative: dall’AI Act alla legge italiana
D. L’intelligenza artificiale pone anche una grande sfida a livello normativo. Nel libro definite l’AI Act europeo un passo coraggioso ma troppo tecnico e proponete una carta dei principi dell’IA e un’autorità indipendente.
R. La semplificazione della regolamentazione può essere un vantaggio competitivo. Avere un’authority europea unica permetterebbe alle imprese di evitare di dover interagire con ogni singola autorità nazionale, perché oggi c’è l’AI Act a livello europeo ma poi c’è il recepimento in ogni Paese, e ogni azienda deve farsi autorizzare Stato per Stato.
È il sogno del “ventottesimo regime”: un regime virtuale a cui le imprese possono aderire per operare in tutta Europa senza dover scegliere in quale Paese stabilirsi. Questo aiuterebbe a creare quel dinamismo di mercato necessario allo sviluppo economico, mantenendo però i nostri valori.
Abbiamo visto che il GDPR è stato esportato ovunque, persino in California c’è una legge sulla privacy ispirata al modello europeo. Magari fra cinque anni l’AI Act sarà preso a riferimento in tutto il mondo. Ma va reso il più chiaro e semplice possibile negli adempimenti, per non trasformarlo in un costo insostenibile soprattutto per le PMI.
D. Anche l’Italia si è da poco dotata di una legge sull’intelligenza artificiale, che però hai definito “un disegno di legge già vecchio alla nascita”. Cosa non funziona, secondo te?
In primo luogo mancano le risorse pubbliche – per produzione industriale, startup, talenti, semplificazioni – senza le quali non si va da nessuna parte. Il miliardo di euro previsto è ben poco rispetto alle necessità. Sarebbe opportuno pensare in chiave europea per far crescere startup e imprese in tutta Europa.
In secondo luogo la legge italiana non semplifica, ma anzi crea un aggravio di norme rispetto all’AI Act che potrebbe causare ulteriori rallentamenti.
Il terzo elemento critico è che le due agenzie scelte come autorità di riferimento – l’Agenzia per la cybersecurity e l’Agenzia per l’identità digitale – sono entrambe agenzie del governo, non autorità indipendenti. È come dire che l’AgID, che crea servizi digitali pubblici, deve controllare se gli algoritmi che utilizza rispettano gli standard. Sarebbe necessaria più indipendenza, sul modello dell’Autorità per le comunicazioni o del Garante per la privacy.
L’ultimo elemento che a mio modo di vedere non funziona è legato all’aumento della pena previsto se si utilizza l’IA per creare danno. C’è un bias di fondo: non è solo attraverso l’inasprimento delle pene che si risolvono i problemi. È un atteggiamento panpenalista: ogni cosa diventa un reato, ma poi il sistema non riesce a perseguirli tutti efficacemente.
Il futuro dell’IA: tra pessimismo della ragione e ottimismo della volontà
D. Il vostro libro si chiude con una riflessione potente: nel secolo dell’IA, all’uomo rimane il compito di dare senso al mondo e al sapere. Riuscirà a farlo senza delegarlo a un’IA?
Voglio chiudere con una citazione di Antonio Gramsci che mi accompagna: “Sono pessimista con la ragione, ma ottimista con la volontà”.
Guardando oggettivamente a come stanno andando le cose, è difficile non essere pessimisti. Non si vedono ancora correttivi efficaci a molti dei problemi che abbiamo discusso. Ci sono certamente fattori positivi nell’evoluzione tecnologica, ma bisognerebbe riuscire ad amplificare solo quelli.
Tuttavia sono ottimista per volontà, perché storicamente la tecnologia ha sempre portato, nel bilancio complessivo, più benefici che danni. Non vorrei appartenere a una generazione che considera la tecnologia la causa principale dei disastri democratici, sociali ed economici che viviamo. Abbiamo sempre attribuito la responsabilità all’essere umano, ed è giusto che sia così: l’uomo ha la capacità di riorientare il futuro. Non siamo una macchina a guida autonoma.
È chiaro che dobbiamo creare le condizioni per discuterne collettivamente, per sviluppare maggiore consapevolezza, per coinvolgere tutte le generazioni. Se quasi la metà dei messaggi su ChatGPT arriva da under 26, vuol dire che c’è un utilizzo massiccio da parte dei giovani. Capire come lo utilizzano diventa fondamentale.
Parlare di intelligenza artificiale diventa quindi un atto politico, nel senso più nobile del termine: discussione pubblica, confronto collettivo. Proprio per capire insieme come viene utilizzata e come utilizzarla al meglio. Per questo motivo l’IA deve essere un tema popolare, accessibile, di cui discutere il più possibile. Solo così potremo davvero decidere il futuro, invece di subirlo.