corriere.it, 25 marzo 2026
Il lavoro umano nascosto che alimenta i modelli di Ia
Esce “Nutrire la macchina”, il libro che svela chi davvero alimenta ChatGpt: lavoratori invisibili, mal pagati e senza protezioni legali. L’autore Mark Graham racconta perché le big tech fanno di tutto per tenerli nell’ombra
Schiavi dell’intelligenza artificiale: il lavoro nascosto che alimenta ChatGpt e gli altri modelli
Un giorno Laura apre un link che le ha mandato un amico e sente la sua voce uscire dallo schermo. Non è lei. È un avatar di nome Chloe, con un accento irlandese neutro, ottimo per gli audiolibri, disponibile a un decimo del prezzo di una doppiatrice in carne e ossa. Laura ha quasi vent’anni di carriera alle spalle – pubblicità, cartoni, videogiochi, teatro – e non ha mai venduto i diritti della sua voce a nessuna azienda di intelligenza artificiale. Indagando, scopre però che qualche anno prima ha firmato un contratto con una big tech: nelle clausole, sepolto nel testo, c’era il trasferimento dei diritti sulla sua voce “in perpetuo”. L’azienda ha poi venduto le registrazioni a una società di AI, che le aveva clonato la voce legalmente. E non si può fare nulla.
La storia di Laura è uno dei sette ritratti al centro di Nutrire la macchina – Come alimentiamo l’Intelligenza Artificiale (Graham, Muldoon, Cant – Mimesis Edizioni), in uscita in libreria il 27 marzo. Il libro è costruito su oltre 200 interviste condotte in Kenya, Uganda, Filippine, Irlanda, Islanda, Regno Unito e Stati Uniti, e segue sette figure – l’annotatrice, l’ingegnere, il tecnico, l’artista, l’operatore, l’investitore, l’organizzatore – ricostruite a partire da incontri sul campo da Mark Graham (foto in basso) e i suoi colleghi. Graham è docente di Internet Geography all’Oxford Internet Institute, dove dirige Fairwork, progetto che valuta le condizioni di lavoro nelle piattaforme digitali in oltre 20 paesi.
«Il dibattito si concentra sempre sui posti di lavoro che spariranno», spiega lo studioso al Corriere. «Noi abbiamo voluto guardare a quelli che esistono già e che spesso non sono lavori dignitosi. Ma quasi nessuno ne parla». Il motivo, spiega, sta nel modo in cui l’intelligenza artificiale viene costruita come narrazione: il termine stesso evoca una sostituzione della mente umana con la tecnologia e cancella dalla scena le persone che quella tecnologia la costruiscono. «Le aziende che vendono prodotti e servizi di AI fanno di tutto per nascondere l’enorme quantità di lavoro umano nelle loro catene di fornitura. Ma l’AI è fatta di esseri umani fino in fondo».
La storia di Laura è un caso limite, ma non eccezionale. Ogni volta che usiamo ChatGpt, Claude, Gemini, ecc i modelli linguistici che generano le risposte sono stati addestrati e affinati da lavoratori a contratto che etichettano dati, valutano output, moderano contenuti. «Tanti lavorano tramite fornitori terzi in paesi come Kenya, India o Filippine. Ricevono paghe orarie basse, spesso con contratti brevi o basati su singoli compiti, e non hanno la retribuzione né le protezioni che si associano ai lavori tecnologici negli Stati Uniti o in Europa».
Intelligenza artificiale, lavoro umano
Se OpenAI o Meta pubblicassero oggi l’intera catena di fornitura, dice Graham, si vedrebbe una struttura precisa. «In cima c’è l’azienda leader – OpenAI o Meta – che definisce l’architettura tecnica, gli standard e la strategia commerciale. Sotto, una rete di contractor e subcontractor che si occupano di annotazione dei dati, moderazione dei contenuti, feedback per l’addestramento dei modelli, test di sicurezza e valutazione». Molte di queste aziende hanno sede in hub di outsourcing come Kenya, India, Filippine o Europa orientale. Da un lato ingegneri ben retribuiti negli Stati Uniti e in Europa, dall’altro lavoratori impegnati in compiti ripetitivi e a volte psicologicamente devastanti, su contratti di uno o tre mesi rinnovabili a discrezione del cliente. «Una classica rete globale di produzione: potere e profitti concentrati in cima, rischi e costi scaricati lungo la catena». L’etica, in questo contesto, è più che altro marketing. «L’idea di AI etica, così come viene promossa da aziende e gruppi industriali, appare vuota quando si guardano le condizioni reali dietro le quinte», commenta Graham. «Le ricerche mostrano che molti lavoratori dei dati affrontano paghe basse, precarietà, gestione dura, sfruttamento e molestie di genere. Il linguaggio dell’etica viene spesso usato per il branding e per le relazioni con gli investitori, ma non si traduce in condizioni etiche per chi fa il lavoro».
Il nodo delle regole globali
Chi ha il potere reale di cambiare le cose? «Il lavoro su cui si basa l’AI è estremamente mobile», ribatte il ricercatore di Oxford. «Può essere spostato da un paese all’altro con attriti minimi, creando di fatto un mercato del lavoro planetario». Governi e sindacati in India, Filippine e Kenya si trovano così in una trappola senza uscita: se chiedono salari più alti e maggiori protezioni, le aziende si spostano altrove; se non fanno nulla, i lavoratori restano intrappolati in paghe basse e contratti precari. «Nella pratica la scelta spesso si riduce a lavori cattivi oppure nessun lavoro».
Il punto di pressione giusto, secondo gli autori del libro, non sono i subcontractor ma le grandi aziende in cima alla filiera. Servono più regole. Anche se, per esempio, l’AI Act europeo non tocca questo livello: non fissa standard lavorativi né tutele per annotatori, moderatori o valutatori nelle catene globali. «La legge si occupa dei sistemi di AI e del loro impatto sugli utenti e sulla società, non delle condizioni di lavoro nelle catene globali che li producono», chiosa Graham. «Per proteggere chi lavora a monte bisogna guardare piuttosto alla direttiva europea sulla due diligence di sostenibilità delle imprese». E noi che possiamo fare? «Molto. Se clienti e utenti finali chiedono standard credibili nelle catene di fornitura dell’AI, le aziende avranno un motivo per agire. Senza quella pressione esterna, invece, il discorso sull’AI etica rischia di restare soltanto un discorso».