L’intelligenza artificiale non è più solo – e forse non lo è mai stata – una questione tecnologica. È diventata un tema politico, etico, giuridico e soprattutto organizzativo. Con l’approvazione della legge italiana sull’Intelligenza Artificiale (legge n.132 del 23 settembre 2025), il nostro Paese entra ufficialmente nella fase di regolazione nazionale dell’AI, allineandosi al quadro europeo dell’AI Act ma aggiungendo un tassello importante di governance interna.
Al netto delle opinioni contrastanti sull’efficacia della norma, per le aziende, i professionisti e le organizzazioni pubbliche questa legge non è un semplice adempimento normativo, ma un passaggio di cultura. Significa imparare a gestire l’AI come un’infrastruttura strategica, non solo come un insieme di strumenti o funzioni operative. In questo articolo approfondiamo cosa prevede la legge italiana sull’intelligenza artificiale e cosa cambia per aziende, professionisti e organizzazioni.
Dall’AI Act alla legge italiana: un passo verso la governance
L’AI Act dell’Unione europea ha definito il primo impianto regolatorio completo al mondo sull’intelligenza artificiale, classificando i sistemi in base al rischio (da minimo a inaccettabile) e stabilendo criteri di trasparenza, sicurezza e accountability.
La legge italiana – approvata nel 2025 e in vigore dal 10 ottobre per alcune disposizioni, mentre per altre serviranno decreti attuativi – si inserisce in questo contesto con un obiettivo chiaro: rendere più fluido e coerente l’adattamento delle regole al sistema produttivo nazionale. Non introduce obblighi aggiuntivi, ma crea un quadro operativo per applicare le norme europee in modo uniforme, evitando la frammentazione e il cosiddetto gold plating, cioè il rischio di appesantire ulteriormente la normativa rispetto a quella Ue.
In pratica, il messaggio è semplice: nessuna sovrastruttura, ma più chiarezza. E più responsabilità.
Le responsabilità cambiano (per tutti)
Uno dei punti centrali della legge riguarda il tema della responsabilità. Quando un sistema di intelligenza artificiale produce un danno – diretto o indiretto – non è più possibile rifugiarsi nella vaghezza tecnica.
La norma introduce l’obbligo per i fornitori e gli utilizzatori di sistemi AI di dimostrare la correttezza dei propri processi e delle proprie scelte. In altre parole, se un algoritmo discrimina, se una raccomandazione automatizzata genera un impatto negativo, o se un sistema prende una decisione sbagliata, l’azienda dovrà essere in grado di dimostrare di aver agito con diligenza, trasparenza e controllo.
È un cambio di paradigma: la responsabilità non si sposta sulla macchina, ma resta sulle persone e sulle organizzazioni che la progettano, la usano e ne beneficiano.
Questo implica un salto culturale per i professionisti del digitale, per i manager e per i reparti legali e compliance: l’AI va documentata, tracciata, spiegata. Bisogna poter rispondere alla domanda “come” e “perché” un sistema ha preso una certa decisione.
Lavoro e AI: il diritto alla trasparenza
Un’altra area che la legge tocca da vicino è quella del lavoro. L’articolo 11 stabilisce che l’uso dell’intelligenza artificiale nei rapporti di lavoro debba essere trasparente, sicuro e rispettoso della dignità del lavoratore.
In concreto, questo significa che le aziende devono informare i dipendenti ogni volta che un sistema AI viene utilizzato per monitorare, valutare o supportare le performance. Significa anche che gli algoritmi non possono sostituire l’autonomia o la libertà del giudizio umano.
È un tema che chiama in causa direttamente la funzione HR e le nuove figure di leadership organizzativa. L’introduzione dell’AI nel mondo del lavoro non può essere gestita come una semplice adozione tecnologica: richiede competenze di comunicazione, capacità di ascolto e una visione etica della gestione delle persone.
In un contesto segnato da fenomeni come il Great Detachment, dove la distanza emotiva e motivazionale tra persone e aziende cresce, la trasparenza diventa una leva strategica per ricostruire fiducia.
Governance, audit e tracciabilità: le nuove parole d’ordine
L’altro fronte su cui la legge interviene in modo sostanziale è quello della governance. Le aziende dovranno istituire una vera e propria “mappa” dei sistemi AI in uso, distinguendo tra applicazioni a rischio minimo e applicazioni ad alto rischio (come quelle impiegate in ambito sanitario, finanziario, giudiziario o nelle risorse umane).
Ogni sistema dovrà essere tracciato, auditato e dotato di un registro tecnico aggiornato. Non si tratta solo di un obbligo di compliance, ma di un’occasione per introdurre una cultura del controllo continuo: sapere dove si trova l’AI, cosa fa, con quali dati lavora e quali decisioni influenza.
Le autorità nazionali – in particolare AgID (Agenzia per l’Italia digitale) e Agenzia per la Cybersicurezza Nazionale – avranno poteri ispettivi e potranno accedere a sistemi e documentazione per verificare la conformità. Ma, prima ancora che un vincolo, questo rappresenta una spinta verso la professionalizzazione della gestione AI: processi chiari, ruoli definiti, logiche di accountability condivise.
In un futuro in cui agenti autonomi e sistemi generativi avranno sempre più margine di azione – il cosiddetto agentic web –, questa trasparenza diventerà una condizione minima per operare sul mercato.
Tra innovazione e occasioni mancate
Non mancano le critiche. Come ha evidenziato un articolo pubblicato su Wired, molti osservatori ritengono che la legge italiana, pur rappresentando un passo avanti importante, resti parzialmente incompiuta.
Alcune definizioni, come quella di “rischio elevato”, restano ancora ambigue. Alcune previsioni – ad esempio la localizzazione obbligatoria dei server AI pubblici in Italia – sono state ammorbidite, trasformandosi da obbligo a semplice raccomandazione.
C’è poi chi teme che il testo rischi di restare troppo “dichiarativo”: una buona cornice di principi, ma senza strumenti concreti per far rispettare le regole o incentivare davvero l’innovazione responsabile.
Eppure, anche in questo equilibrio imperfetto tra controllo e sviluppo, la legge rappresenta un segnale importante. L’Italia non si limita a recepire una norma europea: sceglie di metterla al centro del proprio dibattito economico e istituzionale, chiamando aziende e professionisti a un nuovo livello di maturità.
Cosa cambia davvero per le imprese
Per le imprese italiane, il vero cambiamento non sarà tanto nella modulistica o nei processi di audit, ma nella mentalità.
Gestire l’intelligenza artificiale non significa più “usare una tecnologia”, ma governare un sistema di decisioni. Ogni azienda che integra modelli generativi, sistemi di raccomandazione o soluzioni predittive dovrà chiedersi:
- su quali dati si basano le nostre scelte algoritmiche?
- chi controlla i risultati e con quale frequenza?
- quali informazioni comunichiamo ai nostri clienti, fornitori o dipendenti sull’uso dell’AI?
In altre parole: come garantiamo fiducia, che è la nuova moneta dell’economia digitale.
È qui che la legge può diventare un vantaggio competitivo. Le imprese che sapranno costruire processi solidi di governance AI non solo saranno più conformi alla norma, ma saranno anche più credibili, attrattive e resilienti.
E la governance AI, come sottolinea la Independent design company logotel, è un processo che chiama in causa tutti i livelli dell’organizzazione. La leadership ha un ruolo chiave nel comprendere e guidare la trasformazione, attivando un effetto a cascata sul resto dell’azienda. Ma altrettanto importante è la continua sperimentazione collettiva che si può attivare efficacemente dal basso grazie a un approccio community-driven, che sfrutti spazi e ambienti di confronto, crescita e supporto tra tutte le persone coinvolte nella trasformazione AI.
Cosa cambia per i professionisti con la legge italiana sull’AI
In sintesi, ecco cosa cambia per i professionisti con l’introduzione della legge italiana sull’intelligenza artificiale.
- Uso dell’AI come supporto, non sostituto: l’AI può essere impiegata solo come strumento strumentale o di supporto alle attività professionali. Il contributo intellettuale e decisionale umano deve restare prevalente.
- Obbligo di informativa al cliente: se il professionista utilizza sistemi di intelligenza artificiale (anche per attività di supporto), deve comunicarlo al cliente in modo “chiaro, semplice ed esaustivo”.
- Responsabilità professionale: anche se l’AI viene usata, il professionista è responsabile della prestazione. Significa che, come abbiamo già scritto, errori, difetti o conseguenze negative ricadono su colui che firma, decide, supervisiona. Non si può “scaricare” la responsabilità sull’algoritmo senza controllo umano.
- Inclusione nei codici deontologici: l’obbligo informativo e i limiti all’uso dell’AI diventeranno parte integrante dei doveri deontologici degli ordini professionali e l’uso dell’AI deve rispettare le norme su privacy, riservatezza e segreto professionale. Potrebbero esserci sanzioni disciplinari in caso di violazione.
- Obbligo rispetto del linguaggio e trasparenza: l’informativa deve usare un linguaggio che il cliente capisca (non tecnico, idealmente), e spiegare come l’AI è usata, per quali scopi, quali rischi.
- Formazione e aggiornamento: è prevedibile che gli ordini professionali richiederanno formazione su AI, su etica, sui limiti giuridici, sulle tecnologie, in modo che il professionista sia adeguatamente preparato all’uso responsabile.
- Effetti disciplinari: anche in assenza (per ora) di specifiche sanzioni penali o amministrative legate all’obbligo informativo nel caso delle professioni, la violazione può portare a conseguenze disciplinari tramite gli Ordini.
In sintesi: gli step dell’entrata in vigore della legge
Dal 10 ottobre 2025 sono effettivamente in vigore:
- obbligo di trasparenza nell’uso di contenuti generati da AI: chi diffonde o pubblica testi, immagini, audio o video generati o manipolati mediante AI deve indicarlo in modo “chiaro e visibile”;
- nuovo reato di “diffusione illecita di contenuti generati o manipolati con AI” (i cosiddetti deepfake), che punisce con la reclusione da 1 a 5 anni chi diffonde, pubblica o condivide contenuti deepfake idonei a ledere l’onore, la reputazione o la privacy di una persona;
- nuova aggravante per reati commessi mediante impiego di sistemi di AI.
Non sono ancora operative:
- l’istituzione del Registro nazionale dei sistemi di AI;
- le regole tecniche per la classificazione dei sistemi AI (basso/alto rischio);
- le sanzioni amministrative per le imprese e le PA
- La piena operatività dell’Autorità nazionale per l’AI (ANIAI).
Per rendere operative queste novità serviranno dei decreti attuativi previsti entro il 2026.
Verso una cultura della responsabilità tecnologica
L’intelligenza artificiale sta diventando sempre più “agente” nel senso letterale del termine: agisce, decide, interpreta. E più cresce la sua autonomia, più aumenta il bisogno di una cultura che sappia mettere la tecnologia al servizio delle persone, non il contrario.
La legge italiana sull’AI va letta in questa direzione: non come un ostacolo, ma come un invito a costruire un futuro in cui innovazione e responsabilità possano convivere.
Perché la vera sfida non è “limitare” l’intelligenza artificiale, ma imparare a guidarla con etica, trasparenza e consapevolezza. E, soprattutto, con una leadership capace di tradurre la complessità tecnologica in valore umano.