Cos’è l’AI workslop e perché è un problema per la produttività

L’AI slop si estende in ambito lavorativo: sempre più persone sono alle prese con contenuti generati dall’AI che sembrano validi, ma mancano di sostanza. Una tendenza che compromette produttività e fiducia nelle aziende.

L’adozione di strumenti di intelligenza artificiale generativa sul lavoro è esplosa in quasi tutti i settori. Negli USA, secondo Gallup, il suo utilizzo è quasi raddoppiato, e anche in Italia il numero degli utilizzatori è in aumento.

Dalla scrittura di testi alle analisi di mercato, dalla creazione di slide al codice di software (con il cosiddetto fenomeno del vibe coding), milioni di persone hanno integrato ChatGPT, Claude, Gemini o Microsoft Copilot nelle proprie giornate di lavoro. Ma, dietro l’entusiasmo per l’automazione e l’efficienza, sta emergendo un fenomeno sempre più visibile: quello dell’AI workslop.

Un neologismo che, letteralmente, nasce dalla fusione tra work e slop (lavoro e sciatteria), e che descrive tutto quel lavoro prodotto con l’AI che sembra corretto ma, in realtà, è superficiale, impreciso e spesso controproducente. Una bella forma senza sostanza.

Dietro slide ben formattate, testi grammaticalmente impeccabili e report generati in pochi secondi, si nasconde un costo nascosto: ore di tempo sprecate a correggere, riscrivere o decifrare ciò che l’AI ha fatto “quasi” bene.

AI Workslop: quando l’intelligenza artificiale crea più lavoro invece di eliminarlo

L’AI slop non è un fenomeno nuovo. Ogni volta che viene rilasciato un nuovo tool di Gen AI, i social network vengono invasi da ondate di contenuti di qualità medio-bassa – soprattutto video e foto – prodotti con l’intelligenza artificiale.

La novità è che lo slop si sta però spostando anche in ambito lavorativo. Secondo una recente analisi pubblicata dalla Harvard Business Review, il fenomeno del workslop si sta infatti diffondendo rapidamente nelle aziende di tutto il mondo.

Lo studio ha coinvolto 1.150 lavoratori statunitensi intervistati tra agosto e settembre 2025, e ha analizzato l’impatto del workslop attraverso un’indagine condotta da ricercatori dello Stanford Social Media Lab e BetterUp Labs, la divisione ricerca di BetterUp (piattaforma di coaching aziendale) che studia produttività, benessere lavorativo e impatto delle tecnologie sul lavoro.

Il team di ricerca, guidato dal professor Jeffrey Hancock (direttore dello Stanford Social Media Lab) e da Kate Niederhoffer (vicepresidente di BetterUp Labs), ha identificato il fenomeno dopo aver raccolto testimonianze da colleghi, amici e familiari che descrivevano esperienze frustranti con contenuti AI di scarsa qualità ricevuti sul lavoro.

Più del 40% dei lavoratori ha dichiarato di aver ricevuto almeno una volta output generati dall’AI che si sono rivelati inutilizzabili o fuorvianti. E quando ciò accade, il guadagno promesso in efficienza si trasforma in un deficit di tempo e fiducia.

Ogni episodio di workslop costa in media quasi due ore di lavoro aggiuntivo a chi deve correggere il contenuto, con una perdita stimata di 186 dollari al mese per dipendente. Ma la parte più preoccupante non è economica: è psicologica.

Il 53% dei lavoratori coinvolti dice di provare frustrazione, il 38% confusione, e un 22% addirittura fastidio o offesa, perché percepisce il contenuto generato come un segnale di scarsa attenzione o competenza da parte del collega che lo ha inviato.

L’AI doveva semplificare la collaborazione. In molti casi, la sta complicando.

L’illusione della produttività: perché più contenuti AI non significano più valore

L’AI workslop nasce da un paradosso: più gli strumenti di AI diventano accessibili e “plausibili”, più cresce la tentazione di delegare attività senza supervisione critica.

Un testo generato in pochi secondi può sembrare accettabile, una tabella automaticamente compilata può sembrare precisa, una presentazione sintetizzata da un prompt può sembrare convincente. Ma in realtà, in molti casi, non lo sono.

Chi delega senza pensare rinuncia a quello sforzo cognitivo che è necessario per apprendere qualcosa di nuovo. Chi invece riceve il risultato di questa mancata supervisione critica si trova di fronte ad output superficiali che generano nuovi strati di lavoro correttivo. E così, invece di liberare tempo, l’AI lo consuma.

L’articolo della HBR parla apertamente di “illusione di produttività”: l’idea che più attività equivalgano a più valore. In realtà, la produttività non aumenta se cresce il volume di contenuti, ma solo se aumenta la qualità delle decisioni e delle soluzioni che ne derivano.

Il workslop, in questo senso, è il sintomo di un’adozione tecnologica non ancora matura: un utilizzo estensivo ma poco intenzionale dell’AI, in cui la velocità sostituisce la competenza e la quantità prende il posto della qualità.

L’impatto relazionale dell’AI workslop: come i contenuti generati danneggiano la collaborazione

Il problema non è solo tecnico. È anche relazionale. Ogni volta che un manager riceve una reportistica incoerente, o un collega condivide un documento visibilmente generato da un modello e poco curato, la fiducia reciproca si riduce.

Nel tempo, questo può minare la cultura organizzativa. Le persone iniziano a chiedersi: “Questo contenuto l’hai scritto tu o l’ha scritto l’AI?”, e la risposta, più che curiosità, nasconde diffidenza.

In un periodo storico in cui le aziende cercano di ricostruire engagement e senso di appartenenza dopo anni di lavoro ibrido e digitalizzazione accelerata, il workslop diventa un fattore di disconnessione. Non solo perché genera errori, ma perché rompe il patto di autenticità tra chi comunica e chi riceve.

La falsa promessa dell’AI “plug-and-play”

Dietro il workslop si nasconde un altro grande equivoco: l’idea che l’intelligenza artificiale generativa sia una tecnologia “plug-and-play”, pronta all’uso e capace di funzionare bene senza formazione o contesto.

Molte aziende hanno promosso l’adozione di strumenti di AI con approcci top-down – “usate l’AI in tutto ciò che fate” –, ma senza fornire linee guida, criteri di qualità o obiettivi chiari.

A differenza di altri approcci, come quello community-driven sperimentato con efficacia dalla Independent design company logotel al proprio interno e con i propri clienti, l’approccio top-down genera spesso sperimentazioni caotiche, in cui l’AI viene utilizzata per qualsiasi compito, in modo non strategico e con benefici che restano confinati a livello individualistico.

Integrare l’AI in un’organizzazione è una profonda trasformazione che richiede una governance e una cultura del “perché” e “come” usare queste tecnologie.

Come combattere l’AI workslop

Le aziende che vogliono trarre vantaggio reale dall’AI devono imparare a riconoscere e a disinnescare il workslop. Non basta incoraggiare l’uso degli strumenti generativi: serve una strategia di AI fluency, cioè la capacità diffusa di comprendere i limiti, i bias e le opportunità di questi sistemi.

I ricercatori di Stanford e BetterUp Labs individuano quattro principi fondamentali per un utilizzo efficace dell’intelligenza artificiale generativa:

  • selezionare i task giusti per l’AI. Non tutte le attività traggono beneficio dall’intelligenza artificiale. L’AI generativa funziona bene per bozze, sintesi di documenti o ricerca preliminare, ma richiede sempre prompt accurati e supervisione esperta. Le aziende dovrebbero stabilire policy chiare su quali processi affidare all’AI e quali richiedono esclusivamente competenza umana.
  • trattare l’AI come un thought partner, non come uno strumento “one-click”. Usare l’AI efficacemente significa conversare con lo strumento: fornire contesto, iterare sui prompt, dare feedback, ripartire da zero quando necessario. L’approccio iterativo produce risultati migliori del semplice “copia-incolla”. L’AI accelera il lavoro creativo ma non lo sostituisce: una prima bozza veloce richiede comunque revisione critica.
  • allenare il pensiero critico e la capacità di prompting. Il valore dell’AI dipende dalla qualità dell’interazione umana. Le organizzazioni devono investire in formazione su come pensare con l’AI: sviluppare competenze di prompt engineering, riconoscere i bias e valutare quando un output è utilizzabile. L’essere umano resta il revisore e il garante del significato.
  • misurare la qualità, non solo la velocità. Gli indicatori di produttività dovrebbero includere soddisfazione dei destinatari, chiarezza delle informazioni e riduzione dei passaggi correttivi, non solo volume prodotto.

Serve un cambio di mentalità: “dal fare di più al fare meglio”. Il vantaggio competitivo non sarà di chi usa l’AI più spesso, ma di chi la usa con più intelligenza.

Verso un uso consapevole dell’intelligenza artificiale

L’AI workslop è un campanello d’allarme. Ci ricorda che la produttività non nasce dall’automazione, ma dalla combinazione equilibrata tra tecnologia e consapevolezza umana.

Le aziende che oggi si trovano a fare i conti con un eccesso di contenuti generati e poco valore reale devono riscoprire il senso del discernimento: capire quando l’AI serve, e quando invece serve fermarsi a pensare.

In un’epoca in cui il lavoro rischia di diventare un flusso di testi, dati e output generati da macchine, la vera sfida non è produrre di più, ma produrre con significato. Perché, come scrivono Lorenzo Basso e Marco Bani nel libro Il secolo dell’IA. Capire l’intelligenza artificiale, decidere il futuro (Il Mulino), all’uomo deve restare il compito di dare senso al mondo e al sapere.