L’adozione dell’AI deve diventare un processo collettivo: intervista a Giacinto Fiore, co-founder della AI WEEK

Secondo il co-founder della AI WEEK, per accelerare l’adozione dell’intelligenza artificiale aziende, scuole e PA devono iniziare a costruire ecosistemi locali dove l’innovazione è condivisa, testata e portata avanti insieme.

Giacinto Fiore è co-fondatore di IA Spiegata Semplice, la più grande community italiana dedicata all’intelligenza artificiale, e insieme a Pasquale Viscanti organizza la AI WEEK, l’evento di riferimento in Europa per il settore. Autore, speaker e advisor per numerose startup tech, collabora con università e centri di ricerca per diffondere la conoscenza dell’AI e promuoverne un’adozione etica e consapevole.

Logotel, independent design company che ha partecipato alla AI WEEK 2025 portando il proprio approccio AI people & community driven, ha intervistato sul proprio magazine Giacinto a quasi un mese di distanza dalla fine dall’edizione 2025 di AI WEEK. Un evento che, con oltre 22.000 presenze, si è confermato un appuntamento imprescindibile per chi vuole capire come l’AI sta plasmando e plasmerà il mondo del lavoro, il modo di fare impresa, la relazione tra cittadini e istituzioni e ogni ambito della nostra vita quotidiana.

L’AI è entrata nella vita reale, ma serve capire come usarla in modo consapevole

D. Giacinto, l’AI WEEK 2025 è stata la dimostrazione plastica di come l’intelligenza artificiale è ormai sempre più integrata nel quotidiano di cittadini, imprese e istituzioni. Quali sono a tuo modo di vedere alcuni dei messaggi più potenti che sono emersi da questa edizione? 

R. Uno su tutti: l’intelligenza artificiale è uscita dai laboratori ed è entrata nella vita reale. Oggi non parliamo più solo di sperimentazione, ma di integrazione concreta nei processi decisionali, produttivi, creativi. Dal cittadino che usa ChatGPT per imparare qualcosa, all’impresa che ottimizza le supply chain, fino alle istituzioni che iniziano a normare e applicare l’AI nei servizi pubblici: il messaggio è chiaro, l’AI è qui, adesso, e riguarda tutti.

Ma ce n’è un altro altrettanto forte: non basta sapere che esiste l’intelligenza artificiale, serve capire come usarla in modo consapevole. E qui entra in gioco il nostro ruolo: fare da ponte tra conoscenza, business e società.

D. La ricchezza degli interventi e dei partecipanti alla AI WEEK ha reso altresì evidente un punto: le soluzioni, i tool e le applicazioni dell’intelligenza artificiale sono così innumerevoli in ogni ambito che diventa difficile per aziende, organizzazioni e persone, orientarsi in questo mare magnum per capire cosa è davvero utile e rilevante per loro. Cosa può aiutare e guidare in questa scelta?   

R. Hai centrato un punto cruciale: la sovrabbondanza di offerta. Siamo in una fase in cui l’AI sembra “fare tutto”, ma il rischio è la paralisi da analisi. Il nostro consiglio è partire da tre pilastri:

  • Obiettivo chiaro: cosa voglio risolvere? Dove mi fa più male oggi il business?
  • Progetti pilota rapidi: piccoli test, veloci, misurabili. L’AI si capisce facendola.
  • Community e confronto: ascoltare chi ci è già passato, partecipare a eventi come AI WEEK, entrare in ecosistemi dove l’esperienza condivisa accelera le scelte.

Serve una bussola strategica, e siamo convinti che la formazione continua e il confronto con esperti siano ancora gli strumenti più potenti.

Aziende, scuole e PA devono costruire ecosistemi locali per l’adozione dell’AI

D. Dal palco abbiamo colto inviti all’ottimismo e alla necessità di lanciarsi e sperimentare  (risuona ancora il “Why not!” di Alex Rutter – EMEA Managing director e Head di Google Cloud Artificial Intelligence). Cosa frena ancora, secondo te, il processo di adoption dell’intelligenza artificiale? E come valuti l’idea che l’approccio alla adoption debba andare oltre l’individualismo e abbracciare le comunità e gli ecosistemi?   

R. Oggi il principale ostacolo non è la tecnologia, ma la mentalità. Paura di sbagliare, di investire risorse senza ritorno immediato, di non avere le competenze. È umano. Ma il “Why not!” di Alex Rutter è stato illuminante: serve il coraggio di provare, sbagliare, imparare.

E poi smettiamola di pensare all’AI come una cosa da “guru”. L’adozione deve diventare un processo collettivo. Le aziende, le scuole, le Pubbliche amministrazioni, devono iniziare a costruire ecosistemi locali dove l’innovazione è condivisa, testata e portata avanti insieme. Nessuno ce la fa da solo. La vera accelerazione arriva quando si attivano reti di fiducia, condivisione e collaborazione.

D. Non sono mancate riflessioni sulla necessità di superare i bias su cui a volte sono progettati e allenati alcuni modelli di AI, e anche inviti alla cautela, a mantenere sempre lo sviluppo di queste tecnologie all’interno di guardrail. Quali saranno, a tuo modo di vedere, i più importanti sviluppi futuri dell’AI? E la sua velocità di evoluzione sarà così rapida da rischiare di farla finire fuori controllo?

R. Il tema della responsabilità etica è centrale. I modelli sono già potenti, ma non sono neutri. Abbiamo visto modelli che discriminano, che restituiscono risultati distorti. Non possiamo permetterci di affidare decisioni critiche a scatole nere che non capiamo.

Per questo dobbiamo lavorare su tre fronti:

  • trasparenza: sapere come e con quali dati i modelli vengono addestrati;
  • supervisione umana: l’AI deve essere uno strumento, non un giudice;
  • governance chiara: policy, standard, auditing.

L’evoluzione sarà rapida, sì. Ma proprio per questo, non possiamo lasciare il volante solo alla tecnologia. Dobbiamo guidarla noi, con regole e visione.

Se le macchine possono imitarci sempre, il nostro plus è nella capacità di dare senso

D. Un altro fil rouge che ha attraversato l’AI WEEK è la riflessione sul rapporto tra le macchine e l’uomo. Nel vostro intervento, tu e Pasquale Viscanti avete sottolineato la necessità di un “nuovo umanesimo” e di un reload dell’essere umano di fronte a una tecnologia che ormai ci imita così bene, anche oltre quelli che sono compiti esecutivi. Che tipo di umanità potrà emergere dalla piena e positiva integrazione con l’AI, in cosa riconosceremo il nostro essere umani?

R. Lo abbiamo detto sul palco: serve un “nuovo umanesimo”. Non uno scontro tra uomo e macchina, ma una ri-definizione del nostro essere umani. Se le macchine possono imitare voce, testo, creatività… allora dove sta il nostro plus? Sta nella capacità di dare senso. Nell’empatia. Nella visione. Nella capacità di porci domande.

L’umanità che può emergere è quella più consapevole, che sa usare la tecnologia come alleata, senza esserne succube. Un’umanità che mette al centro la relazione, la cultura, il pensiero critico. E questa AI WEEK ci ha dimostrato che questa visione non è utopia, ma necessità e desiderio condiviso.

D. A quasi un mese dal termine, qual è il tuo bilancio della AI WEEK, in termini quantitativi (partecipanti, connessioni generate) e anche qualitativi? Alla luce dei punti di forza di questa edizione e di eventuali aspetti da poter ulteriormente migliorare, cosa vorreste fare di diverso il prossimo anno? Cosa vi aspettate dalla AI WEEK 2026?  

R. Parliamo di numeri? Oltre 22.000 partecipanti, centinaia di connessioni tra imprese, oltre 150 speaker, 3 palchi attivi per 5 giorni, più di 60 sponsor e partner. Ma la cosa che ci ha colpiti di più è la qualità dell’interazione: gli incontri tra aziende, le domande puntuali durante gli interventi, le mani alzate ai workshop, i confronti negli stand.

Cosa migliorare? Vogliamo dare ancora più spazio ai casi d’uso verticali, alle testimonianze delle PMI, e alle community locali. Per l’edizione 2026, stiamo già immaginando un format ibrido ancora più immersivo, con presidi territoriali in presenza uniti al digitale, per portare l’AI davvero dappertutto.

L’AI WEEK 2026 sarà ancora più esperienziale, radicata e partecipativa. Perché il futuro non si guarda: si costruisce insieme.