ChatGPT ci rende stupidi? L’intelligenza artificiale generativa fa male al nostro cervello? Queste domande allarmistiche sono solo alcuni dei titoli di articoli che hanno riportato i risultati di uno studio del MIT (il prestigioso Massachusetts Institute of Technology) sulle conseguenze della Gen AI sulle capacità cognitive umane.
Lo studio ha riproposto un dibattito che ha da sempre accompagnato l’umanità ogni qual volta si è trovata di fronte a innovazioni tecnologiche: dalla scrittura a internet – è del 2011 il libro Internet ci rende stupidi? dello scrittore Nicholas Carr –, fino appunto all’intelligenza artificiale. La domanda è sempre la stessa: delegare alla tecnologia alcuni compiti mentali indebolisce il nostro cervello?
Il titolo dello studio del MIT, Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, sembra suggerire di sì.
Ma i risultati dello studio non sono in realtà né inaspettati, né così apocalittici come molti media li hanno prospettati. In questo articolo riassumiamo le evidenze dello studio del MIT e ne forniamo una interpretazione meno netta, riportando anche quanto afferma l’esperto di AI Ethan Mollick in merito.
Cos’è il cognitive offloading
La tecnologia è (o dovrebbe essere) pensata per risolvere problemi e rendere più facile la vita all’uomo. Esternalizzare alcune delle nostre capacità può comportare però necessariamente una perdita. È il processo che alcuni studiosi chiamano cognitive offloading: cioè delegare a sistemi esterni alcuni compiti per ridurre il carico cognitivo del nostro cervello.
In alcuni casi, la perdita può essere limitata e, tutto sommato, accettabile. Affidarci alla calcolatrice ci fa dimenticare come si fanno alcuni calcoli a mente. Ma al giorno d’oggi, con le calcolatrici ormai integrate in ogni smartphone, chi si affiderebbe alla propria mente per effettuare calcoli complicati?
In altri casi serve cautela. Seguire un itinerario sui navigatori satellitari ci fa perdere l’abitudine a memorizzare punti di riferimento, e alla lunga può influire sul nostro senso dell’orientamento. Pochi tornerebbero alle cartine stradali cartacee (affascinanti, ma scomode), anziché affidarsi ai navigatori satellitari integrati nelle nostre auto. Ma non ci si deve neanche fidare ciecamente dei navigatori smettendo di pensare e di guardarsi intorno, come ben sanno coloro che, come riportano diversi casi di cronaca, finiscono con la propria auto su scalinate o in stradine troppo strette.
Il cognitive offloading non è dunque necessariamente negativo, perché ci permette di concentrarci su compiti più complessi. È però problematico quando diventa automatico e passivo, riducendo le opportunità di esercitare e sviluppare le nostre capacità cognitive su compiti che richiedono uno sforzo alla nostra mente per essere svolti con efficacia.
L’intelligenza artificiale porta il cognitive offloading su una scala ancora più grande. Con la Gen AI, possiamo esternalizzare non solo compiti specifici, ma il nostro pensiero. E allora diventa fondamentale focalizzarci sul come e per quale scopo usiamo queste tecnologie.
Cosa dice lo studio del MIT
È proprio su questa dinamica che si concentra lo studio del MIT Media Lab. La ricerca, condotta da ricercatori provenienti da diverse istituzioni, ha coinvolto 54 partecipanti divisi in tre gruppi. Il primo utilizzava ChatGPT, il secondo un motore di ricerca, il terzo lavorava senza strumenti esterni. I partecipanti hanno completato tre sessioni di scrittura di saggi nelle stesse condizioni assegnate. In una quarta sessione, gli utenti di ChatGPT sono passati a scrivere senza strumenti, mentre chi aveva lavorato senza aiuti ha iniziato a usare l’AI.
I risultati principali sono stati misurati attraverso elettroencefalogramma (EEG) per valutare il carico cognitivo durante la scrittura, e attraverso l’analisi dei saggi con tecniche di elaborazione del linguaggio naturale, oltre a valutazioni da parte di insegnanti e di un giudice AI.
Le scoperte più significative riguardano la connettività cerebrale. I partecipanti che lavoravano senza strumenti esterni mostravano le reti neurali più forti e distribuite. Chi utilizzava motori di ricerca presentava un coinvolgimento moderato. Gli utenti di ChatGPT, invece, mostravano la connettività cerebrale più debole. L’attività cognitiva diminuiva proporzionalmente all’uso di strumenti esterni.
Nella quarta sessione, coloro che passavano da ChatGPT a lavorare senza strumenti mostravano una ridotta connettività nelle onde alfa e beta, indicando un sotto-coinvolgimento cognitivo. Al contrario, chi passava da nessuno strumento a ChatGPT mostrava una maggiore attivazione delle aree di memoria e delle regioni occipito-parietali e prefrontali, simile agli utenti dei motori di ricerca.
Un dato particolarmente interessante riguarda il senso di “proprietà” dei saggi: era il più basso nel gruppo ChatGPT e il più alto nel gruppo senza strumenti. Gli utenti di ChatGPT faticavano anche a citare accuratamente il proprio lavoro, suggerendo un minore coinvolgimento con i contenuti prodotti.
Lo studio evidenzia un fenomeno definito “accumulo di debito cognitivo”: nel corso di quattro mesi, gli utenti di ChatGPT hanno costantemente sottoperformato a livello neurale, linguistico e comportamentale. Mentre gli LLM offrono una convenienza immediata, i risultati sollevano preoccupazioni sui costi cognitivi potenziali, specialmente per quanto riguarda le implicazioni educative a lungo termine della dipendenza da questi strumenti.
Come interpretare lo studio del MIT: l’opinione di Ethan Mollick
Ethan Mollick insegna alla Wharton School dell’Università della Pennsylvania ed è considerato uno dei più autorevoli esperti sull’integrazione dell’AI nel lavoro e nell’educazione. In un articolo pubblicato sul suo blog One useful thing offre una lettura più sfumata e pragmatica dello studio del MIT.
Secondo Mollick, la narrativa sensazionalistica secondo cui “l’AI danneggia il cervello” è fuorviante. Lo studio del MIT mostra semplicemente che gli studenti che usavano ChatGPT erano meno coinvolti e ricordavano meno dei loro saggi rispetto a chi non usava AI. Non c’è alcun “danno cerebrale” letterale, ma piuttosto un pattern comportamentale prevedibile: quando deleghiamo compiti cognitivi alla tecnologia, come abbiamo già evidenziato, riduciamo il nostro coinvolgimento in quei processi.
La vera questione quindi, secondo Mollick, non è se l’AI influenzi il nostro modo di pensare, ma come possiamo utilizzarla per aiutare anziché danneggiare le nostre capacità cognitive.
Usare l’AI come tutor, non come scorciatoia
Nel contesto dell’apprendimento, usare l’AI senza le giuste strategie può essere particolarmente dannoso. Quando vogliamo apprendere qualcosa di nuovo, infatti, l’unica strada per ottenere risultati significativi è compiere uno “sforzo cognitivo” e usare l’AI come scorciatoia può influenzare negativamente l’efficacia dell’apprendimento.
Uno studio condotto dai colleghi di Mollick alla University of Pennsylvania in una scuola superiore turca ha mostrato che gli studenti che usavano ChatGPT senza supervisione o prompt specifici finivano per prendere scorciatoie e ottenere risposte dirette. Risultato: pur pensando di aver imparato molto, hanno ottenuto punteggi inferiori del 17% all’esame finale rispetto agli studenti che non avevano usato ChatGPT.
Il problema è particolarmente insidioso perché il danno avviene anche quando gli studenti hanno buone intenzioni. L’AI è addestrata per essere utile e rispondere alle domande, ma spesso fornisce direttamente la risposta invece di guidare verso la comprensione. Come ha mostrato lo studio del MIT, questo cortocircuita lo sforzo mentale che crea l’apprendimento.
Ma questo non significa che l’AI danneggi sempre l’apprendimento. Studi recenti mostrano che, quando utilizzata con la guida degli insegnanti e prompt basati su solidi principi pedagogici, l’AI può migliorare significativamente i risultati dell’apprendimento.
Mollick cita a proposito uno studio randomizzato e controllato della World Bank. I risultati sono ancora preliminari, ma rivelano che l’uso di un tutor GPT-4 con guida degli insegnanti in un programma dopo-scuola di sei settimane in Nigeria ha avuto “più del doppio dell’effetto di alcuni degli interventi più efficaci nell’educazione” a costi molto bassi.
La chiave, secondo Mollick, è passare dal chiedere all’AI di aiutarti con i compiti a chiederle di aiutarti ad apprendere come tutor. Questo richiede l’uso di prompt specializzati che trasformano l’AI da “fornitore di risposte” a “facilitatore di apprendimento”.
L’impatto dell’AI sulla creatività e sulla scrittura
Nel suo articolo Against brain damage Mollick analizza anche le implicazioni dell’utilizzo dell’intelligenza artificiale generativa sulla creatività e sulla scrittura. Le conclusioni a cui arriva sono simili: così come per l’apprendimento, anche per la creatività e la scrittura l’AI può essere d’aiuto ma anche deleteria, a seconda di come la si utilizza.
Per quanto riguarda la creatività, Mollick identifica un paradosso: mentre l’AI può essere più creativa di molti individui singoli, manca della diversità che deriva da molteplici prospettive. Inoltre, il rischio di chi si affida all’AI per la generazione di idee è di incappare nell’effetto di ancoraggio – cioè rimanere ancorati alle soluzioni proposte dalla macchina – e non sentirle come proprie.
Anche per la scrittura, affidarsi completamente e primariamente all’AI per scrivere un testo è una scorciatoia che fa saltare completamente tutti i processi cognitivi – elaborare e affinare le idee – connessi all’atto dello scrivere.
La soluzione proposta da Mollick, in entrambi i casi, è di generare sempre le proprie idee e scrivere i propri testi prima di rivolgersi all’AI per affinarle, editarli, migliorarli.
La conclusione di Mollick è chiara: l’AI non danneggia i nostri cervelli, ma il suo utilizzo passivo può danneggiare il nostro pensiero. È una questione di abitudini mentali e di pigrizia: ed è quest’ultima che dovremmo veramente temere.
Riflessioni conclusive
Chiedersi se l’AI renderà gli esseri umani più stupidi è una domanda mal posta. La questione non è se l’intelligenza artificiale danneggia le nostre capacità cognitive, ma come possiamo sviluppare una relazione consapevole e produttiva con questi strumenti.
È soprattutto una questione di approccio: ricordarsi che l’essere umano resta il soggetto d’iniziativa – come sottolinea la co-founder, general manager e Chief design officer dell’Independent design company logotel Cristina Favini in un articolo – è un primo, fondamentale passo per far sì che l’AI sia vista come una collega che amplifica le potenzialità umane e non le sostituisce.
Lo studio del MIT non ci dice che l’AI è nociva per il cervello, ma ci ricorda qualcosa di fondamentale: il pensiero richiede sforzo, e questo sforzo è prezioso. Quando usiamo l’AI come scorciatoia per evitare completamente questo sforzo, perdiamo opportunità di crescita cognitiva. Ma quando la utilizziamo per amplificare le nostre capacità, mantenendo il controllo critico sui processi, possiamo ottenere risultati straordinari.
Non è l’AI a danneggiarci: siamo noi che scegliamo, ogni giorno, se usarla come scorciatoia o come leva per amplificare le nostre capacità.