corriere.it, 19 ottobre 2025
Che cosa è il workslop: l’effetto collaterale dell’intelligenza artificiale che nessuno aveva previsto
Un’email insolitamente lunga, un report pieno di parole ma vuoto di contenuti, una presentazione che sembra dire tutto e non dice niente. Leggendoli, il sospetto cresce: ma li ha scritti davvero una persona, o sono usciti da un chatbot? Questa sensazione ha un nome: workslop, il fenomeno che sta silenziosamente minando la produttività nelle aziende che hanno abbracciato con entusiasmo l’intelligenza artificiale generativa.
Il termine lo hanno coniato Jeffrey Hancock, direttore dello Stanford Social Media Lab, e Kate Niederhoffer, psicologa sociale di BetterUp Labs, in una ricerca appena pubblicata su Harvard Business Review. Workslop è la fusione di “work” (lavoro) e “slop”, parola inglese che indica qualcosa di sciatto, di bassa qualità. Lo slop è il contenuto spazzatura generato dall’intelligenza artificiale che invade i social: immagini bizzarre di gatti su trampolini, pubblicità irreali, foto di mani con il numero sbagliato di dita. Il workslop è la stessa cosa, solo che invece di intasare Instagram o TikTok intasa gli uffici. Si annida nelle comunicazioni quotidiane, nei documenti che passano di mano in mano, nel codice mal scritto. «Contenuto generato dall’AI che si maschera come un buon lavoro, ma manca della sostanza per far avanzare davvero un compito», scrivono i ricercatori. In pratica: uno usa l’AI per sfornare qualcosa che sembra a posto, l’altro deve perdere tempo a dargli un senso.
L’AI è nemica della produttività?
La ricerca fotografa un paradosso: l’uso dell’intelligenza artificiale sul posto di lavoro, negli Stati Uniti, è raddoppiato dal 2023 (dal 21 al 40 per cento); il numero di aziende con processi completamente guidati dall’AI è quasi raddoppiato nell’ultimo anno, eppure un rapporto del MIT Media Lab ha scoperto che il 95 per cento delle organizzazioni non vede alcun ritorno misurabile sull’investimento. Molto rumore per nulla. Il colpevole potrebbe essere proprio il workslop: il 41 per cento degli intervistati dice di averci avuto a che fare nell’ultimo mese, perdendoci in media un’ora e 56 minuti ogni volta per sistemare il pasticcio. Tradotto in soldi – usando gli stipendi dichiarati – parliamo di 186 dollari al mese per persona, ovvero 9 milioni di dollari l’anno in produttività perduta per un’organizzazione di 10mila dipendenti.
I segnali del workslop sono riconoscibili: «prosa eccessiva», come la chiama Hancock, ovvero tre paragrafi di testo dove ne basterebbe mezzo. Può presentarsi in forme diverse, ma sono email e report il canale privilegiato: messaggi prolissi e mal formulati che scaricano su chi li riceve il lavoro di decifrare tutto. Nelle testimonianze raccolte dai ricercatori emergono situazioni tipo: c’è chi lavora nella finanza e racconta di essersi ritrovato «nella posizione di dover decidere se riscriverlo, farglielo riscrivere, o accontentarmi». Un direttore nel settore vendite ha spiegato all’Harvard Business Review «Ho dovuto sprecare più tempo a chiedere chiarimenti sulle informazioni e verificarle con le mie ricerche».
Il Dottor ChatGpt
Ma il costo più pesante non è economico, è relazionale. Chi riceve workslop cambia opinione su chi glielo manda: il 54 per cento lo considera meno creativo, il 42 per cento meno affidabile, il 37 per cento meno intelligente. Niederhoffer ha raccontato a CNBC di aver giudicato male chi le mandava quel genere di materiale: «Mi chiedevo: perché l’hanno fatto? Non sono capaci di completare il lavoro da soli? Non mi fido più di loro, non voglio più lavorare con loro». Persino i medici ci fanno i conti: alcuni raccontano di ricevere lunghi report in cui pazienti si autodiagnosticano i propri problemi usando l’AI, senza alcuna base medica. «Ora che basta un clic», osserva Hancock, «si possono generare quantità industriali di contenuti inutili».
Come ridurre il workslop
Come si riduce il workslop? Per i ricercatori, chi lavora insieme dovrebbe parlare di come usare l’intelligenza artificiale, valutare cosa funziona davvero, invece di copiare e incollare quello che sfornano ChatGpt, Gemini, ecc. Anche la trasparenza aiuta: se si è usato un chatbot per tirare fuori una presentazione perché si era in ritardo, dirlo al collega. Così può capire quali prompt sono stati usati, cosa si voleva ottenere, e sistemare quello che manca. I ricercatori suggeriscono poi una strategia in 4 mosse per chi è al comando: mettere paletti chiari su come si può usare l’AI, farla vedere come uno strumento di lavoro e non come scorciatoia, usarla per accelerare compiti specifici e, soprattutto, «ricordarsi di mantenere gli stessi standard di eccellenza per il lavoro fatto con l’AI e quello fatto senza».