AI agentica: perché serve partire dalle persone

Un report di Gartner avverte: quasi la metà delle iniziative di agentic AI è destinato a essere abbandonato entro il 2027. Ma c’è un modo per evitarlo: partire dalle persone e dai loro bisogni, prima di implementare la tecnologia.

Per molti, l’intelligenza artificiale è ancora sinonimo di chatbot o assistenti virtuali. Ma nell’ultimo periodo sta prendendo forma una nuova generazione di sistemi: gli agenti AI, o, più precisamente, l’AI agentica.

Una tecnologia che segna un salto concettuale: non più algoritmi che rispondono a domande o generano testi, ma entità digitali capaci di agire in autonomia, prendere decisioni, eseguire task, avviare processi e adattarsi a condizioni che cambiano.

In altre parole, l’AI non è più un supporto: è un collega. Un collega superumano, veloce, instancabile ma che bisogna ancora imparare a integrare nei flussi di lavoro e a gestire, almeno secondo un recente report della società di consulenza e ricerca Gartner.  

Un’innovazione che promette molto, ma realizza poco

Secondo lo studio di Gartner, più del 40% dei progetti di AI agentica verrà abbandonato entro la fine del 2027.

Una percentuale che colpisce, ma che in realtà racconta una verità già nota a chi lavora con la tecnologia: ogni volta che una nuova ondata di innovazione emerge, le aspettative corrono più veloci della comprensione.

L’AI agentica è oggi al centro di questa corsa.

Le aziende la inseguono spinte da un doppio impulso: la curiosità e il timore di restare indietro. Si investe in proof of concept, si sperimentano use case ambiziosi, si avviano progetti che promettono efficienza, automazione e riduzione dei costi.

Poi, però, arriva la realtà: integrazioni complesse, mancanza di governance, difficoltà nel misurare il valore reale. E così molti progetti si fermano. Non perché l’AI non funzioni, ma perché o l’organizzazione non è pronta ad accoglierla davvero, o non è in grado di far adottare con efficacia questa innovazione dalle persone che devono utilizzarla.

Dall’AI generativa all’AI agentica: un salto di paradigma

Per comprendere questa difficoltà bisogna prima capire cosa distingue l’AI agentica da quella generativa.

La seconda si limita a produrre: testi, immagini, codice. Risponde a input precisi e genera un output coerente.

La prima, invece, agisce.

Un agente AI può ricevere un obiettivo (“ottimizza le campagne marketing”), analizzare i dati necessari, prendere decisioni operative e implementarle, spesso senza supervisione diretta. È un sistema che “decide e fa”, non solo che “scrive e suggerisce”.

Questa autonomia introduce un livello di complessità che le aziende faticano a gestire. Ogni volta che un agente compie un’azione autonoma, si apre una serie di domande cruciali: chi ne è responsabile? Come si misura l’accuratezza delle sue decisioni? Cosa succede se sbaglia?

In un’organizzazione tradizionale, il potere decisionale è distribuito secondo ruoli, procedure, gerarchie. L’AI agentica, invece, introduce un nuovo tipo di delega, che non passa per l’esperienza o l’autorità, ma per l’algoritmo.

E questo richiede una ridefinizione profonda del concetto stesso di management.

Perché tanti progetti falliscono

Secondo quanto spiega l’autrice del report di Gartner in un articolo apparso sulla Harvard Business Review, i motivi principali per cui i progetti di AI agentica non arrivano a compimento sono tre, e nessuno ha a che fare con la tecnologia in sé.

  1. Il valore di business è spesso indefinito. Molte iniziative partono senza una strategia chiara. Si sperimenta per “provare l’AI”, ma senza un problema preciso da risolvere. L’entusiasmo iniziale si traduce in progetti che non generano impatto concreto, e che quindi vengono abbandonati.
  2. I costi nascosti emergono troppo tardi. Un agente autonomo non vive nel vuoto. Deve accedere ai dati, integrarsi con i sistemi esistenti, essere monitorato, aggiornato, validato. Tutto questo ha un costo, sia tecnologico che organizzativo. Quando le aziende si rendono conto che la manutenzione è più impegnativa dei benefici immediati, spesso scelgono di interrompere l’esperimento.
  3. Mancanza di governance e fiducia. Il nodo più critico resta quello della responsabilità. Chi controlla le decisioni prese da un agente? Chi le approva, chi le corregge, chi ne risponde?  Senza un quadro di governance solido – con ruoli chiari, limiti operativi, protocolli di escalation – la fiducia nel sistema si erode rapidamente.

L’AI agentica non sostituisce le persone: le obbliga a cambiare ruolo

I tre pain point descritti sopra portano a una stessa conclusione: la trasformazione in corso non riguarda solo la tecnologia, ma il modo in cui le persone lavorano.

In passato, l’automazione ha eliminato compiti ripetitivi. L’AI agentica, invece, sposta il baricentro del lavoro umano verso la supervisione, l’interpretazione e la decisione strategica.

Quando un agente può eseguire flussi operativi complessi, il valore delle persone non sta più nel “fare”, ma nel dare senso.

Capire quando fidarsi dell’AI – come verificarne le scelte, come tradurre un obiettivo aziendale in un linguaggio che la macchina possa comprendere – sono tutte nuove competenze manageriali che stanno emergendo.

In questo senso, l’AI leadership del futuro dovrà essere sempre più “ibrida”: capace di coordinare quegli che Cristina Favini – co founder, general manager e Chief design officer della Independent design company logotel – definisce “ecosistemi di impresa collaborativi di nuova generazione” che uniscono persone, team e AI.

E servirà un nuovo alfabeto per comunicare con tutti questi attori.

Dall’hype alla cultura del risultato

Anche se il 40% dei progetti dovesse fallire – e non è certo scontato, considerando come nel contesto odierno sia difficile fare previsioni –, ciò non significa comunque che l’AI agentica sia una promessa vuota.

Significa, piuttosto, che stiamo vivendo una fase di maturazione necessaria.

Forse servirà ancora del tempo: non siamo nell’anno degli agenti, ma nel decennio degli agenti, come ha spiegato Andrej Karpathy (co-founder di OpenAI ed ex direttore dell’AI di Tesla) in un’intervista rilasciata a Dwarkesh Patel e segnalata da Pasquale Viscanti e Giacinto Fiore nella loro newsletter IA spiegata semplice.

Come è successo con Internet negli anni ’90 o con i social media nei Duemila, le prime generazioni di progetti servono a capire, a sperimentare, a sbagliare.

Ma oggi l’AI agentica richiede un cambio di passo: dalla curiosità alla disciplina. Dalle demo al valore.

Le aziende che riusciranno a superare questa soglia saranno quelle che affronteranno l’AI con lo stesso rigore con cui gestiscono qualsiasi altra risorsa strategica:

  • identificando problemi chiari e misurabili;
  • costruendo basi dati affidabili;
  • definendo processi di validazione e supervisione continui;
  • formando le persone a un uso consapevole e collaborativo della tecnologia.

Quando l’AI agentica parte dai bisogni reali: l’approccio community-driven

La differenza tra un progetto che si arena e uno che genera valore sta spesso nel punto di partenza. Non nella tecnologia scelta, ma nel problema che si vuole risolvere.

L’esperienza di logotel con il progetto Dojo – sviluppato per Italgas nell’ambito dell’AI adoption – dimostra come un approccio community-driven possa invertire la logica tradizionale: invece di calare l’AI dall’alto, si parte dall’ascolto attivo di persone e team per far emergere dal basso le reali esigenze operative.

In questo modo, gli agenti AI vengono progettati per rispondere a problemi concreti e verificati. Un esempio è l’agente sviluppato per supportare il team DEI sul tema del linguaggio inclusivo: non un esperimento tecnologico fine a se stesso, ma uno strumento nato da un bisogno specifico, misurabile, condiviso.

Questo metodo riduce drasticamente il rischio di abbandono perché garantisce tre elementi fondamentali che Gartner identifica come mancanti nella maggior parte dei progetti falliti:

  • un valore di business chiaro e definito fin dall’inizio;
  • il coinvolgimento attivo delle persone che dovranno utilizzare l’AI;
  • una governance naturale, perché gli agenti nascono già integrati nei flussi di lavoro esistenti.

In altre parole: l’AI agentica funziona quando smette di essere una soluzione in cerca di un problema, e diventa invece la risposta a una domanda che le persone si stanno già facendo.

Una questione di leadership, più che di codice

Alla fine, ciò che distingue un progetto di successo da uno fallimentare non è la potenza del modello o la qualità dell’algoritmo, ma la visione manageriale che lo accompagna.

L’AI agentica obbliga le organizzazioni a riscoprire una verità che ogni rivoluzione tecnologica porta con sé: la tecnologia non è mai il problema, lo è la gestione del cambiamento.

I manager di domani non saranno quelli che “capiscono tutto di AI”, ma quelli che sapranno creare contesti dove umani e macchine lavorano insieme, con obiettivi condivisi e responsabilità chiare.

Non servono solo nuove competenze tecniche, ma una nuova mentalità: più sistemica, più collaborativa, più consapevole.

AI Agentica e intelligenza dell’organizzazione

La previsione di Gartner non è una condanna, ma un avvertimento.

Non basta introdurre l’AI agentica nei processi per diventare più efficienti. Bisogna diventare più intelligenti come organizzazione: saper leggere il potenziale, gestire la complessità, imparare dagli errori, ascoltare le reali esigenze anche con approcci innovativi.

L’AI agentica non ci renderà superumani, ma ci costringerà a comportarci come tali: più lucidi, più responsabili, più capaci di pensare in modo integrato.

E forse è proprio questo il suo valore più grande – non tanto la velocità con cui lavora, ma la profondità con cui ci obbliga a ripensare il senso stesso del lavoro, della leadership e della collaborazione tra esseri umani e intelligenze artificiali.