I modelli di intelligenza artificiale sono sempre più potenti, ma opachi. In grado di vincere le Olimpiadi di matematica, ma incapaci di leggere l’ora da un orologio analogico. L’AI si diffonde a una velocità mai vista prima, nemmeno con internet e il personal computer, ma con costi (ambientali e occupazionali) che iniziano a essere evidenti e preoccupanti.
Il messaggio di fondo dell’Artificial Intelligence Index report 2026, il report più completo sull’AI redatto ogni anno dal 2017 dal prestigioso Stanford Institute for Human-Centered AI, è che l’intelligenza artificiale è una tecnologia che evolve più velocemente della nostra capacità di gestirla.
Le oltre 400 pagine del report non forniscono una direzione chiara, come spiegano nell’introduzione i presidenti dell’istituto Yolanda Gil e Raymond Perrault. E, in un certo senso, è giusto così. Perché a decidere quale direzione prendere, quale uso fare dell’AI, quali sono le implicazioni etiche di tale scelta, deve essere l’uomo: nelle aziende, nelle istituzioni, nella società tutta. Il processo decisionale può essere supportato dall’AI, ma la responsabilità della scelta non può essere delegata a delle macchine, per quanto sofisticate e “intelligenti”.
Fatta questa premessa, vediamo quali sono i principali insight che emergono dall’AI Index report 2026 e quali sono i progressi e i limiti di queste tecnologia allo stato attuale.
Modelli sempre più potenti, ma opachi
Chi si aspettava che i modelli di AI avessero raggiunto un plateau viene subito smentito dai dati. In base ai principali benchmark disponibili – sulla cui effettiva validità, però, il report mette in guardia – i modelli di punta delle principali società sono sempre più potenti.
Diversi di questi modelli raggiungono o superano le prestazioni umane su domande scientifiche di livello dottorale e ragionamento multimodale. Il tasso di successo degli agenti nel gestire compiti nel mondo reale è arrivato al 77,3% rispetto al 20% del 2025, mentre in ambito cybersecurity il tasso di successo è cresciuto in due anni dal 15 al 93%.
Ci sono però anche compiti in cui l’AI arranca. Il miglior modello reasoner di Google DeepMind, Gemini Deep Think, ha vinto la medaglia d’oro alle Olimpiadi Internazionali di Matematica, ma nella metà dei casi non riesce a leggere l’ora da un orologio analogico.
Anche per quanto riguarda l’apprendimento da video, la generazione di video coerenti e realistici, la pianificazione di attività multi-step e l’analisi finanziaria l’AI rimane indietro, così come un grosso ritardo si segnala nel campo della cosiddetta Physical AI, cioè l’intelligenza artificiale applicata ai robot: riescono a portare a termine solo il 12% dei compiti domestici, come piegare i vestiti o lavare i piatti.
Si ripropone allora il consiglio di Ethan Mollick, uno dei massimi esperti in ambito AI: è sempre bene discernere, con spirito critico, quando l’AI può esserci utile e quando no prima di fare affidamento su questa tecnologia.
C’è un aspetto collegato alla potenza dei modelli: la loro opacità. Come riportato nel report, le grandi aziende di AI tendono a tenere sempre più per sé informazioni su codice di addestramento, dimensioni dei dataset e numero di parametri dei modelli. Il Foundation Model Transparency Index, che misura la trasparenza con cui le principali aziende di IA divulgano informazioni sui propri modelli, inclusi i rischi che ne derivano, ha visto i punteggi medi scendere di 18 punti rispetto all’anno scorso: da 58 a 40. Insomma: i modelli più capaci di oggi sono anche tra i meno trasparenti.
La geopolitica dell’AI: USA e Cina sempre più vicini
Una serie di dati contenuti nel report AI Index 2026 può ricondursi a quella che possiamo chiamare “geopolitica dell’AI”. Il digitale e l’intelligenza artificiale – come ha spiegato anche l’esperto Antonio Deruda in questa intervista sul magazine dell’Independent design company logotel – sono ormai due dimensioni fondamentali della geopolitica.
Il predominio in termini di performance dei modelli di AI, che negli scorsi anni era appannaggio degli Stati Uniti, è adesso in realtà sempre più una corsa a due tra USA e Cina. A marzo 2026 il modello più performante di AI risulta quello di Anthropic, tallonato da xAI, Google, OpenAI e dai modelli cinesi DeepSeek e Alibaba. Come nota la MIT Technology Review in un articolo, la competizione, più che sulle performance, si è spostata su costo, affidabilità e utilità nel mondo reale.
Gli USA mantengono il predominio per quanto riguarda i data center – sono oltre 5400, più di dieci volte quanti ne ha qualsiasi altro Paese – e per gli investimenti: 285,9 miliardi di dollari (su un totale che nel 2025 ha raggiunto i 581,7 miliardi di dollari), 23,1 volte quelli della Cina, al secondo posto della classifica.
Gli Stati Uniti ospitano anche il maggior numero di ricercatori e sviluppatori di AI al mondo, ma la sua attrattività sta diminuendo: il numero di ricercatori che si trasferisce negli USA è calato dell’89% dal 2017 (meno 80% solo nell’ultimo anno). La Cina, per contro, guida per pubblicazioni di ricerca sull’intelligenza artificiale, brevetti e robotica.
AI e sostenibilità: i costi ambientali e occupazionali che crescono
La sempre maggiore potenza dei modelli è correlata anche alla maggiore energia che serve per alimentarli. Il rapporto tra AI e sostenibilità è complesso e non può essere ridotto solo all’impatto ambientale. Le Nazioni unite, ad esempio, nel report Governing AI for humanity sottolineano il ruolo cruciale che l’intelligenza artificiale potrebbe avere nel raggiungere più velocemente i 17 obiettivi per lo sviluppo sostenibile (Sustainable development goal) dell’Agenda 2030.
Il report di Stanford punta però il dito sulle enormi quantità di energia che servono per alimentare i data center che, a loro volta, alimentano e addestrano i modelli di AI più performanti. Lo fa con alcuni esempi immediatamente comprensibili.
Per addestrare Grok 4, ad esempio, si stima che sia stata generata la stessa quantità di gas serra (GHG) prodotta da 17 mila auto in un anno. I data center che servono per l’AI hanno bisogno di una quantità di energia pari al fabbisogno dell’intero stato di New York. E ancora, il meccanismo di inferenza del modello GPT-4o di OpenAI necessita di più acqua potabile di quanta ne servirebbe per 12 milioni di persone.
Ma la potenza e diffusione dell’AI non mette a rischio solo l’ambiente. Anche a livello occupazionale emergono i primi campanelli di allarme sull’impatto che l’AI potrebbe avere. Il report di Stanford riporta i risultati di uno studio già noto che evidenzia come, dal 2022, l’occupazione tra gli sviluppatori software di età compresa tra 22 e 25 anni sia calata di quasi il 20%.
Anche altri report confermano questa tendenza: ricercatori di Anthropic, pur evidenziando che l’impatto attuale dell’AI è ancora lontano da quello potenziale, evidenziano un rallentamento delle assunzioni per i giovani lavoratori.
E, per quanto riguarda l’Italia, il Barometro del primo impiego di Linkedin parla di maggiore complessità nell’ingresso dei giovani nel mercato del lavoro e di assunzioni entry level in calo del 18,8% rispetto allo scorso anno.
Come il pubblico vede l’AI: ottimismo, paura e il grande divario con gli esperti
Alcune delle statistiche più interessanti contenute nel report riguardano la percezione che l’opinione pubblica mondiale ha nei confronti dell’AI. Ne emerge un quadro contradditorio.
A livello globale, infatti, il mondo è diviso perfettamente a metà tra chi crede che l’AI creerà nuovi posti di lavoro e nuove modalità lavorative e chi crede il contrario. L’ottimismo sembra essere più diffuso nei Paesi in via di sviluppo, mentre il cosiddetto Occidente vira sul pessimismo. È ciò che l’antropologa digitale Payal Arora chiama “la paralisi del pessimismo”: i Paesi più sviluppati restano bloccati in discussioni e paure sterili, mentre c’è un Sud Globale che usa l’AI per risolvere problemi concreti.
Parlando in generale dei benefici che l’AI potrebbe generare, il 59% delle persone si dichiara ottimista, in aumento rispetto al 52%. Ma cresce lievemente (+ 2%) anche l’apprensione nei confronti della tecnologia.
Il gap più ampio a livello percettivo è quello esistente tra esperti e non esperti. L’esempio più lampante arriva dagli Stati Uniti: il 73% degli esperti – cioè ricercatori che hanno partecipato a conferenze sull’AI – valuta positivamente l’impatto dell’intelligenza artificiale sul lavoro. Tra i non esperti questa percentuale crolla al 23%. Un divario di 50 punti percentuali. E gap analoghi emergono rispetto agli impatti sull’economia e sull’assistenza sanitaria.
Quali sono i motivi di questo divario? Secondo Will Douglas Heaven, senior editor della MIT Technology Review, la spiegazione potrebbe dipendere “dal fatto che esperti e non esperti basino le proprie opinioni su esperienze molto diverse”. Chi lavora con l’ultima versione a pagamento di Claude avrà un’esperienza ben diversa da chi utilizza la versione gratuita “base” del modello IA di Anthropic. E c’è anche da considerare il fenomeno della cosiddetta “frontiera frastagliata”: gli LLM sono molto efficaci in alcuni compiti – come ad esempio la programmazione e la scrittura di codice –, ma in altri ambiti commettono errori banali. Come, nell’esempio già citato, nel leggere l’ora da un orologio analogico.
AI Act europeo vs. deregulation americana: due approcci agli antipodi
Il nodo della governance dell’intelligenza artificiale divide il mondo in due grandi blocchi con visioni radicalmente opposte. Da un lato c’è l’Unione Europea, che nel 2025 ha visto entrare in vigore le prime misure dell’AI Act – il primo grande tentativo di regolamentare l’AI in modo organico e vincolante, con divieti per gli utilizzi ad alto rischio come il riconoscimento delle emozioni. Dall’altro lato ci sono gli Stati Uniti, che sotto la nuova amministrazione Trump hanno invertito la rotta scegliendo – almeno a livello federale – la via della deregolamentazione, puntando su un approccio innovation-first che riduce al minimo i vincoli normativi per le aziende del settore.
Non si tratta però di una semplice partita a due. Nel 2025, Giappone, Corea del Sud e Italia hanno approvato leggi nazionali sull’IA. E oltre la metà delle nuove strategie nazionali in materia di IA adottate nell’anno proviene da economie in via di sviluppo che si affacciano per la prima volta sul panorama delle politiche globali in questo campo. La sovranità sull’intelligenza artificiale – intesa come capacità di uno stato di esercitare un controllo autonomo sullo sviluppo e sull’uso dell’IA al proprio interno – si sta affermando come principio organizzativo centrale in tutti questi sforzi.
Sul fronte della fiducia nelle istituzioni regolatorie, a livello globale l’UE è considerata l’ente più affidabile per regolamentare l’AI in modo efficace: in un sondaggio Pew research condotto su 25 Paesi, il 53% degli intervistati si è dichiarato fiducioso nell’Unione Europea, contro il 37% per gli Stati Uniti e il 27% per la Cina. E il 79% degli intervistati in 30 Paesi ritiene che le aziende che utilizzano l’AI debbano essere obbligate a dichiararne l’uso.
AI generativa: adozione più rapida di internet e personal computer
Sono passati poco più di 3 anni dal lancio sul mercato di ChatGPT, il primo chatbot di AI generativa “di massa”. L’AI generativa ha ora raggiunto il 53% di adozione a livello di popolazione generale, secondo quanto riporta l’AI Index report. Si stima che l’88% delle organizzazioni utilizzi l’AI, mentre a livello universitario è utilizzata da quattro studenti su cinque.
La velocità con cui questa tecnologia si sta diffondendo è maggiore di quella del pc o di Internet, anche se il ritmo varia in base al Paese e al PIL pro capite. All’inizio del 2026, il valore stimato dei tool di AI generativa per i consumatori statunitensi ha raggiunto i 172 miliardi di dollari annui.
Formazione sull’AI: perché scuole e università sono in ritardo
Un ultimo interessante insight che emerge dal report riguarda l’aspetto formativo ed educativo sull’intelligenza artificiale. L’istruzione di tipo formale in questo campo è in ritardo: negli USA, solo metà delle scuole medie e superiori dispone di politiche sull’AI e solo il 6% degli insegnanti le considera chiare. Questo nonostante una tecnologia che la maggior parte degli studenti utilizza già per lo studio. In compenso, le persone imparano in autonomia e in ogni fase della loro vita le skill soft e hard legate all’AI.
Segno per insegnare e imparare l’AI servono modalità innovative, diverse dai metodi tradizionali.
Potrebbe essere utile ad esempio incrementare il tempo dedicato alla formazione continua, interpretandola però in modo nuovo: “Abbiamo sempre pensato al lifelong learning soprattutto in chiave di aggiornamento per le singole professioni. Invece dovremmo apprendere una nuova generazione di competenze di base, incluse molte nuove competenze di cittadinanza digitale che, penso, dovrebbero essere fornite a tutte e a tutti”, scrive in proposito il professor Gino Roncaglia sull’ultimo numero di Weconomy – progetto di ricerca indipendente di logotel.
In conclusione
“L’AI non sa leggere l’ora. Ma sa già riscrivere il mondo, e lo sta facendo mentre noi siamo ancora a discutere se abilitarla o regolarla, se è buona o cattiva, se temerla o usarla”, ha scritto Marco Bani sulla sua newsletter Superpoteri.
È una sintesi efficace di ciò che emerge dall’AI Index 2026: siamo di fronte a una tecnologia che avanza più velocemente della nostra capacità – individuale, organizzativa, istituzionale – di gestirla.
Ma siamo comunque chiamati a farlo, ognuno nella propria scala. Le istituzioni, regolandone l’utilizzo per ridurre i rischi e distribuire in maniera equa i benefici. Le aziende e le organizzazioni, promuovendone sul lavoro un’adozione sostenibile che mantenga le persone al centro. Le persone, imparando a usare con spirito critico questa tecnologia. Per leggere il report completo cliccate qui.
F.A.Q. – Domande frequenti
Cos’è l’AI Index Report 2026 e chi lo produce?
L’AI Index Report 2026 è il rapporto annuale più completo sullo stato dell’intelligenza artificiale nel mondo. Viene prodotto dallo Stanford Institute for Human-Centered AI (HAI) ed è giunto alla sua nona edizione. Analizza oltre 400 pagine di dati su capacità tecniche, investimenti, impatto occupazionale, percezione pubblica e governance dell’AI a livello globale.
Quali sono i principali progressi dell’AI nel 2026 secondo il report di Stanford?
Secondo l’AI Index 2026, i modelli di intelligenza artificiale continuano a migliorare rapidamente: diversi sistemi raggiungono o superano le prestazioni umane su domande scientifiche di livello dottorale e ragionamento multimodale. Il tasso di successo degli agenti AI nel mondo reale è salito al 77,3%, contro il 20% dell’anno precedente. In ambito cybersecurity, la percentuale di problemi risolti è passata dal 15% al 93% in due anni.
Quali sono i limiti dell’intelligenza artificiale evidenziati dall’AI Index 2026?
Il report evidenzia che l’AI fatica ancora in diversi ambiti: leggere l’ora da un orologio analogico (il miglior modello ci riesce solo nel 50% dei casi), pianificare attività multi-step, generare video coerenti e svolgere compiti domestici fisici (i robot ci riescono solo nel 12% dei casi). Il report introduce il concetto di “frontiera frastagliata”: i modelli eccellono in alcuni compiti e falliscono in altri apparentemente più semplici.
Qual è l’impatto dell’AI sul mercato del lavoro secondo l’AI Index 2026?
L’AI Index 2026 segnala i primi segnali concreti di impatto occupazionale, in particolare sui lavoratori più giovani. Dal 2022, l’occupazione tra gli sviluppatori software di età compresa tra 22 e 25 anni è calata di quasi il 20%. Un terzo delle organizzazioni intervistate prevede riduzioni di organico nel prossimo anno, con effetti più marcati in aree come il customer service e lo sviluppo software.
Come si differenziano Europa, USA e Cina nella regolamentazione dell’AI?
USA e UE hanno adottato approcci opposti: l’Unione Europea ha messo in vigore le prime misure dell’AI Act, con divieti per gli usi ad alto rischio, mentre gli Stati Uniti sotto l’amministrazione Trump hanno scelto la deregolamentazione a livello federale. La Cina ha annunciato un piano in 13 punti per la governance globale dell’AI. A livello di fiducia pubblica, l’UE risulta l’istituzione più credibile per regolamentare l’AI: il 53% degli intervistati in 25 Paesi si fida dell’Unione Europea, contro il 37% per gli USA e il 27% per la Cina.