repubblica.it, 6 maggio 2026
Cos’è e cosa comporta la sorveglianza emotiva sul lavoro
Gli algoritmi che monitorano la produttività dei lavoratori sono una realtà attuale che suscita dibattiti sociali e politici, ma la diffusione dell’intelligenza artificiale affettiva (emotion IA), che fa capo al più ampio dominio dell’affective computing, oltre a fondare su teorie scientifiche discutibili e, oltre a perpetuare pregiudizi algoritmici, pone interrogativi etici che riguardano soprattutto l’autonomia individuale e la privacy dei lavoratori.
In Europa le emotion IA sono messe al bando ma negli Stati Uniti il tema sta affiorando con una certa prepotenza, come evidenzia un articolo pubblicato su The Atlantic, al pari di una nuova forma di sorveglianza digitale che trasforma la sfera delle emozioni in un parametro aziendale, inducendo i lavoratori a palesare sentimenti positivi anche quando sono in contrasto con l’umore del momento.
Peraltro, nonostante i diversi studi, non c’è ancora prova scientifica che le emotion IA siano attendibili e, non di meno, sembrano portarsi appresso i più canonici pregiudizi ereditati dai dati con cui vengono addestrate.
Cosa sono le emotion IA
Vengono definite “emotion IA” quelle intelligenze artificiali e algoritmi usati per identificare e misurare le emozioni con la finalità di categorizzare il comportamento umano.
Software, hardware e algoritmi che fungono da snodo tra il deep learning (uno dei pilastri delle IA) e la computer vision che leggono e interpretano espressioni del volto, gesti, entità dei messaggi scritti e il tono della voce.
A questi dati possono aggiungersi informazioni sulla frequenza cardiaca o sul ritmo della respirazione, raccolte mediante dispositivi indossabili (non soltanto braccialetti).
Le applicazioni attuali
Il mercato delle emotion IA esiste ed è in crescita. L’azienda toscana Cynny S.p.A. ha sviluppato dei tool oggi confluiti nell’americana MorphCast Inc. che offre un’applicazione IA per l’interpretazione delle emozioni umane già usata da McDonald’s in Portogallo per offrire coupon ai propri clienti a seconda del loro umore.
Inoltre, mediante un’apposita piattaforma, fornisce strumenti usati per misurare il grado di attenzione nelle scuole.
Framery è un’azienda finlandese che fornisce cabine insonorizzate per uffici, nei cui sedili ha installato dei sensori capaci di raccogliere parametri fisiologici quali battito cardiaco, frequenza respiratoria e livello di stress.
Il gigante delle assicurazioni MetLife, che ha base a New York ma opera anche in Europa, usa degli strumenti di emotion IA per monitorare le prestazioni dei propri dipendenti, esaminando l’altezza e il tono della loro voce per determinare se hanno un comportamento adeguato.
Patty è una chatbot IA integrata nelle cuffie dei dipendenti di Buger King con lo scopo di valutarne la gentilezza durante gli scambi con i clienti. Le piattaforme di collaborazione online Slack e Zoom si stanno arricchendo di integrazioni ed estensioni che monitorano i messaggi, identificando la positività o la tossicità dei partecipanti alle sessioni.
Tasselli diversi di una medesima forma di sorveglianza che le aziende esercitano nel tentativo di quantificare aspetti come la gentilezza e l’empatia che, per loro natura, sono delle qualità che difficilmente possono essere trasformate in dati elaborati da algoritmi.
Quanto sono accurate le emotion IA?
Tra le voci più scettiche figura quella di Lisa Feldman Barrett, neuroscienziata e professoressa alla Northeastern University di Boston, nota nell’ambiente per mettere in crisi il presupposto scientifico su cui si basa gran parte della emotion IA.
Infatti, secondo la neuroscienziata, le emozioni non sono universalmente riconoscibili e interpretabili. Barrett non mette in discussione le intelligenze artificiali in quanto tali, ma ripone poca fiducia nella loro capacità di leggere e interpetrare correttamente le emozioni.
Altri studi suggeriscono cautela nell’uso di etichette emotive rigide, sottolineando che le espressioni facciali sono segnali sociali intenzionali e non sono leggibili da una macchina, tema al quale si dedica lo psicologo clinico Alan J. Fridlund.
I tanti studi disponibili vertono nella medesima direzione, evidenziando come le emozioni si manifestino in modo variabile tra individui e contesti diversi e, in modo ancora più sottile, escludendo che le espressioni possano essere paragonate a impronte digitali delle emozioni.
Chi mette in forse la piena efficacia delle emotion IA sostiene che è impossibile dedurre in modo affidabile sentimenti come la rabbia o la felicità. Inoltre, e questo è un tema ricorrente quando si parla di intelligenze artificiali, i pregiudizi tendono a fare da padroni. Una ricerca dell’Università del Maryland ha stabilito che i software per il riconoscimento delle emozioni valutano i giocatori afroamericani della NBA – la National Basket Association – più arrabbiati rispetto ai giocatori caucasici, anche quando sorridono.
Le questioni etiche
L’etica solleva preoccupazioni riguardo alla dignità umana e financo alla giustizia sociale, anche perché queste tecnologie operano spesso senza il consenso esplicito degli interessati.
Oltre a non essere scientificamente riconosciute valide, le emotion IA si basano su teorie considerate semplicistiche perché non tengono conto dei significati relazionali e contestuali delle espressioni del volto e del corpo.
Si può obiettare che le emotion IA restituiscono quadri completi soltanto intersecando tra loro i messaggi non verbali (espressioni e gesti) e i messaggi verbali come la voce e il testo scritto. Per quanto ragionevole, questo costrutto di dati incrociati poco apporta se alla base vi sono pregiudizi sistemici.
Non da ultimo, una sorveglianza tanto intima può costringere i lavoratori a simulare stati emotivi per evitare ostacoli economici o di carriera. In un simile scenario, il monitoraggio costante rischia di erodere l’autonomia individuale, trasformando la gradevolezza (o il carattere) in un parametro di produttività misurato da algoritmi sulla cui attendibilità c’è ancora disaccordo.
Le questioni normative
Mentre negli Stati Uniti le emotion IA stanno guadagnando terreno, nel Vecchio Continente sono sotto osservazione, quando non sono completamente bandite.
L’AI Act europeo vieta l’uso di queste IA negli ambienti professionali e scolastici ma non li esclude a priori negli usi commerciali. A dimostrazione di ciò va citata la distribuzione di coupon messa in atto da McDonald’s in Portogallo, caso nel quale il consumatore deve prestare il proprio consenso (così come preteso dal GDPR) per attivare la fotocamera dello smartphone affinché l’app ne deduca lo stato emotivo. Le tecniche di consumer-facing non contraddicono l’AI Act e restano soggette ai dictat del GDPR e ai controllori regolatori.
L’AI Act, che proibisce l’uso di sistemi di riconoscimento delle emozioni dei contesti del lavoro e dell’istruzione, contempla anche delle eccezioni che riguardano i motivi medici o le ragioni di sicurezza ma pone al centro i diritti fondamentali degli individui.