Intervista a Riccardo Luna: “Cos’è andato storto con i social? Mettere il profitto davanti a tutto”

Il giornalista e scrittore Riccardo Luna analizza come i social hanno tradito le promesse iniziali diventando macchine per fare soldi. Ma la situazione si può raddrizzare, anche riguardo l’AI. Come? Sovranità tecnologica europea e un uso dell’intelligenza artificiale orientato alla collaborazione con le persone.

Riccardo Luna, giornalista e scrittore, è una delle voci più autorevoli in materia di innovazione e tecnologia. È stato il primo direttore di Wired Italia e ha curato eventi di successo come Stazione Futuro, la Maker Faire e la Italian Tech Week.

A lungo firma di Repubblica, dal 2025 è editorialista del Corriere della Sera. Il suo ultimo libro Qualcosa è andato storto. Come i social network e l’intelligenza artificiale ci hanno rubato il futuro (Solferino 2025), è un best seller che racconta la storia dei social network analizzando quando hanno smesso di connettere le persone e sono diventati strumenti utilizzati dalle Big Tech per massimizzare il profitto, speculando sulla paura, sulla rabbia e sulle ansie delle persone, adulti e adolescenti.

In occasione di Carta Canta, il primo festival dell’editoria e della lettura di Lambrate organizzato da Aedicola, Riccardo ha parlato del suo libro assieme a Paolo Iabichino durante un evento organizzato nella design company logotel. Lo abbiamo intervistato per il nostro magazine, chiedendogli cosa è andato storto e come si possono raddrizzare le cose, soprattutto pensando alle l’intelligenza artificiale.      

In sintesi. Riccardo Luna, giornalista e scrittore tra i più autorevoli in Italia su innovazione e tecnologia, sostiene che i social network abbiano tradito la loro promessa fondamentale – democrazie più forti, persone più informate, relazioni migliori – perché le aziende tech hanno messo il profitto davanti a tutto, usando gli algoritmi per massimizzare rabbia e paura degli utenti. Nel suo libro “Qualcosa è andato storto” (Solferino 2025) e in questa intervista a logotel magazine, Luna analizza i meccanismi che hanno trasformato i social in macchine per fare soldi, avverte che l’intelligenza artificiale rischia di ripetere gli stessi errori, perché gestita dalle stesse aziende della Silicon Valley, e indica alcune vie d’uscita: sovranità tecnologica europea, consumo responsabile, lentezza come valore, e un uso dell’AI orientato alla collaborazione con le persone, non alla loro sostituzione.

La promessa tradita: cosa è andato storto con i social network

D. Riccardo, nella postfazione al tuo libro Paolo Benanti (teologo e membro del Comitato sull’intelligenza artificiale delle Nazioni Unite) lo definisce il racconto di una rivoluzione digitale tradita. Cosa è andato storto con internet e i social network e quali sono stati i momenti di frattura nella giovane storia di questi strumenti?

La promessa fondamentale – un mondo migliore, democrazie più forti, persone più informate, relazioni migliori e anche una salute mentale migliore, soprattutto dei ragazzi – non si è realizzata per un motivo semplice: le aziende hanno messo il profitto davanti a tutto. I loro algoritmi hanno massimizzato le nostre vulnerabilità, amplificandole e tirando fuori il peggio di noi.

D. Quanto c’entra la consapevolezza di chi usa questi strumenti?

Era difficile, da utenti, rendercene conto, perché i social network ci davano esattamente quello che volevamo: contenuti che ci facevano piacere, ci rassicuravano, confermavano le nostre paure e giustificavano le nostre debolezze. È come andare al fast food: il cibo non fa bene, ma ti piace. Per anni ci hanno nutrito con contenuti cattivi e tossici, guadagnando sulle nostre debolezze.

D. Nel libro, a proposito di una tragedia avvenuta in Sri Lanka, viene utilizzata un’immagine efficace: Facebook viene descritto come un vento che, a un certo punto della storia di questo social network, ha iniziato ad amplificare il male che c’è nel mondo. Perché questo vento non ha la stessa potenza nell’amplificare anche i lati positivi?

Perché le emozioni primarie che ci accompagnano da quando siamo sul pianeta Terra come Homo sapiens sono la rabbia e la paura. Sono due emozioni fondamentali che ci hanno consentito di evitare l’estinzione e sono queste le emozioni che ci agganciano di più. La paura funziona di più sugli anziani, la rabbia funziona sugli adulti. Quando le Big Tech hanno visto che questo meccanismo funzionava, l’hanno fatto diventare il palinsesto della nostra vita quotidiana.

Intelligenza artificiale: stesse promesse, stessi rischi?

D. Oggi la frontiera della tecnologia su cui stiamo navigando è qualcosa che sembra molto più potente dei social: l’intelligenza artificiale generativa. Tu che hai vissuto gli albori di internet, ritrovi le stesse promesse che c’erano allora e la stessa fiducia in un avvenire migliore? E come fare per non tradirle?

Ho cominciato a usare Internet da appassionato. Mi sono innamorato di una tecnologia che prometteva cose meravigliose, tanto che Papa Francesco la definì “un dono di Dio”.

Ho raccontato il web dall’inizio, ma non sviluppavo tecnologia: narravo le gesta di chi la sviluppava e le opportunità che c’erano, e che restano tantissime. Nel libro non predico il luddismo, non dico di distruggere le macchine. Dico che quelli che controllano le macchine le hanno usate male, come dimostrano le 2400 cause intentate negli Stati Uniti contro i social network per i danni alla salute mentale degli adolescenti.

Per quanto riguarda l’intelligenza artificiale, è uno strumento formidabile che io stesso uso tantissimo. Tra i ringraziamenti del libro figura un’intelligenza artificiale (Perplexity, ndr) che mi ha aiutato non a scrivere il libro, ma a trovare i documenti che dovevo citare. Senza l’intelligenza artificiale ci avrei messo due anni a scrivere questo libro, al posto dei due mesi che mi sono serviti.

Ma l’AI va usata in maniera corretta. È potentissima e avrà un enorme impatto sul mondo del lavoro. Per tutti i lavori entry-level, quelli che fanno i ragazzi quando si affacciano nel mondo del lavoro, oggi l’intelligenza artificiale è un competitor imbattibile. C’è quindi qualcosa da fare e in particolare bisogna interrogarsi sulla questione dei limiti: l’AI può essere davvero senza regole, come sostengono in questo momento gli americani, o bisogna definire dei limiti etici, come sostiene tra gli altri Paolo Benanti?

Io credo che, considerando quello che hanno fatto sui social network, non possiamo fidarci delle aziende della Silicon Valley: sono le stesse che oggi si occupano di intelligenza artificiale.

D. A dispetto del titolo del libro tu ti definisci un ottimista. Il libro si chiude con dei capitoli che effettivamente aprono alla speranza. Quali sono alcuni consigli per raddrizzare la situazione?

Il primo è che l’Europa cominci a sviluppare tecnologia. Essere alla mercé degli Stati Uniti ci rende vulnerabili. Se oggi gli USA decidessero di spegnere le tecnologie digitali che noi usiamo, non avremmo alternative. Si spegnerebbero tutti i nostri telefonini, si fermerebbero i treni e gli aeroplani perché girano su cloud Usa.

Sarebbe un disastro dal punto di vista tecnologico ed è surreale che questo possa avvenire in Europa, con la sua storia, le sue università, i suoi brevetti, i suoi scienziati.

Abbiamo scelto a un certo punto di diventare un continente di consumatori. Questa tendenza va invertita, anche per una questione di sovranità, che non è il sovranismo da strapazzo di cui si parla in Italia. Vuol dire avere delle tecnologie su un’infrastruttura di cui siamo proprietari e che rispetti e rispecchi i nostri valori e i nostri principi.

L’Europa deve fare in fretta. Mario Draghi aveva presentato lo scorso anno un piano per recuperare il gap tecnologico con gli Stati Uniti, stimando che servissero 800 miliardi, poi rivisti a 1.200 perché gli altri corrono. Ma non è successo nulla. Oggi siamo davanti a un momento che definisco il momento Spinelli dell’Unione Europea: o facciamo un passo avanti perché abbiamo capito che siamo troppo indietro, oppure ci spazzeranno via. Spero che la recente sveglia che abbiamo preso dall’alleato – o ex alleato – americano ci servirà a fare un importante passo avanti.

D. Tra i consigli per raddrizzare la situazione suggerisci anche di diventare consumatori più responsabili. Citi il movimento delle B Corp e, in Italia, delle Società benefit. Sono queste aziende il futuro di un capitalismo più responsabile?

Comprare da chi non rispetta i propri dipendenti, o pretendere una pizza consegnata in dieci minuti sotto il diluvio da qualcuno pagato una miseria, non ha senso. Così come comprare un libro da una piattaforma che non rispetta principi etici, quando esistono librerie, anche online, che lo fanno: magari il libro arriva un giorno dopo, ma non succede nulla. Sono quei piccoli grandi gesti che ci fanno stare meglio al mondo.

AI e lavoro: la transizione non sarà semplice

D. Uno dei temi centrali per le aziende è oggi l’adozione dell’AI. Come fare perché queste tecnologie restino al servizio delle persone e non diventino, come è accaduto con i social, strumenti per massimizzare il profitto a scapito di tutto il resto?

L’impatto dell’intelligenza artificiale sul mondo del lavoro sarà enorme, ed è inutile nasconderselo. Nelle rivoluzioni tecnologiche precedenti, il saldo tra posti di lavoro creati e distrutti è sempre stato positivo: non c’è più chi accende le candele in strada, non c’è il maniscalco, ma i posti di lavoro sono aumentati. Questa volta è più complesso, perché l’AI interviene sul linguaggio, la tecnica più importante che gli esseri umani abbiano mai sviluppato, e lo padroneggia in modo straordinario. L’impatto sul giornalismo, sulle professioni legali e su quelle creative sarà profondo, e la transizione non sarà semplice.

Eppure è impossibile non usare l’AI, perché è davvero uno strumento molto potente. È quindi importante che un Paese sappia cosa sta introducendo e come: servono ammortizzatori sociali e strumenti per imparare a usare questa tecnologia. Perché c’è una differenza fondamentale tra dire all’AI fai qualcosa al posto mio e dirle fai qualcosa con me. Nel secondo caso esprime il meglio. Nel primo ti restituisce qualcosa di scopiazzato, fatto più o meno bene. Quando lavora insieme a un essere umano, con buoni prompt, dà davvero il meglio di sé. È questa la modalità che dobbiamo adottare.

D. Nel libro, l’engagement sui social viene indicato come un protagonista in negativo del meccanismo che denunci. In chiave lavorativa, però, l’employee engagement, ossia il coinvolgimento dei dipendenti, è uno dei temi più caldi. Un report molto citato di Gallup dice che è molto basso, influendo sul benessere lavorativo delle persone e anche sulla produttività. Cosa possono fare le aziende per aumentare l’engagement?

Il vero capitale di un’azienda sono le sue persone. Lo dimostrano tante storie del Made in Italy che racconto: aziende passate di generazione in generazione – nonni, genitori, figli –, cresciute con dipendenti rimasti lì tutta la vita. Il loro obiettivo non era fare soldi in fretta e fare exit senza curarsi delle conseguenze, ma costruire valore e comunità di persone, sia tra i dipendenti sia tra i consumatori.

Bisogna recuperare un po’ di lentezza. La Silicon Valley ci ha imposto la fretta, sintetizzata nello slogan di Facebook: move fast and break things. Io credo invece che dobbiamo muoverci più lentamente, costruire le cose, ripararle, migliorarle.

Un esempio positivo, nel campo dell’editoria, è Il Post. Mentre tutti inseguivano il traffico e il clickbait, Il Post ha costruito una comunità di lettori che condividono un modo di vedere il mondo. Non ha inseguito l’engagement: ha fatto buona informazione. Oggi ha 120.000 abbonati a un giornale che è gratuito: pagano 80 euro l’anno per qualcosa che potrebbero leggere gratis. Lo fanno perché condividono una missione, un progetto. E hanno costruito tutto ciò lentamente, giorno dopo giorno, dimostrando di essere persone serie. Si può fare in un altro modo.

Editoria e clickbait: gli errori che ci hanno indebolito

D. A proposito di editoria, il libro si apre con un aneddoto legato al primo numero di Wired Italia, di cui sei stato il primo direttore. Quella testata è stata da poco chiusa da Condé Nast. È emblematico: qualcosa è andato storto anche nell’editoria. C’entrano gli algoritmi?

Voglio prima di tutto esprimere solidarietà al direttore e alla redazione di Wired Italia. Mi dispiace moltissimo, e credo che sia un brutto segnale, in un momento in cui la tecnologia è così centrale, perdere una voce che la raccontava bene ogni giorno come unica missione.

L’editoria ha fatto molti errori. Nei giornali abbiamo inseguito il SEO, abbiamo inseguito Facebook, abbiamo scimmiottato i contenuti virali, abbiamo inseguito il traffico. C’è un libro di Ben Smith, pubblicato da Il Post, che si chiama Traffic, e racconta cosa diventa il giornalismo quando insegue il traffico invece di fare della buona informazione. Abbiamo fatto post virali, ma non abbiamo aiutato il giornalismo. Oggi abbiamo una cattiva reputazione tra i cittadini, che non ci considerano più necessari, e le aziende editoriali sono in crisi.

È finita? No. Ci sono tante nuove realtà editoriali, fatte da giovani, che dimostrano che si può ancora fare grande giornalismo ed è fondamentale per la democrazia. Il sistema dei media ha preso la scorciatoia del clickbait, ma si vede che non porta da nessuna parte. Torneremo all’informazione di qualità e a costruire un rapporto vero con i lettori.

FAQ – Domande frequenti su “Qualcosa è andato storto” (libro di Riccardo Luna)

Perché i social network hanno smesso di funzionare per le persone? Perché le aziende hanno messo il profitto davanti a tutto, sviluppando algoritmi che massimizzano le vulnerabilità degli utenti – rabbia, paura, debolezze – invece di promuovere connessione e informazione di qualità.

Perché i social amplificano il male più del bene? Perché le emozioni primarie che ci agganciano di più sono la rabbia e la paura. Quando le Big Tech hanno scoperto che questo meccanismo funzionava, lo hanno trasformato nel palinsesto della nostra vita quotidiana.

L’intelligenza artificiale rischia di fare gli stessi errori dei social? Secondo Riccardo Luna sì, perché è sviluppata dalle stesse aziende della Silicon Valley che hanno gestito male i social. Serve una regolamentazione etica, come sostiene tra gli altri il teologo e consigliere vaticano Paolo Benanti.

Come dovrebbero usare l’AI le aziende? La differenza fondamentale è tra dire all’AI “fai qualcosa al posto mio” e dirle “fai qualcosa con me”. Nel secondo caso l’AI esprime il meglio di sé. Le aziende dovrebbero adottare questo secondo approccio, accompagnandolo con ammortizzatori sociali e formazione.

Cosa possono fare le aziende per aumentare l’employee engagement? Recuperare lentezza e visione di lungo periodo. Il vero capitale di un’azienda sono le sue persone: costruire comunità, valore condiviso e fiducia nel tempo produce risultati più solidi dell’engagement a breve termine.

Cosa dovrebbe fare l’Europa per non dipendere dalla tecnologia americana? Sviluppare tecnologia propria. Draghi ha stimato un investimento tra 800 e 1.200 miliardi per colmare il gap. Luna chiama questo il “momento Spinelli”: o l’Europa fa un passo avanti decisivo, o rischia di essere spazzata via.