la Repubblica, 19 luglio 2022
I robot sono razzisti. Colpa di algoritmi imperfetti
Il mondo – razzista – dei robot. Quelli al centro di uno studio condotto dalla Johns Hopkins University con il Georgia Institute of Technology e l’Università di Washington che hanno associato le immagini di persone di colore alla parola “criminale” e quelle di donne latine a parole come “casalinga” e “bidella”. Già: anche le Intelligenze Artificiali, comunemente percepite come entità neutrali, possono essere preda di pregiudizi. Stereotipi umani, appresi attraverso quelli che Andrew Hunt, a capo dello studio, definisce «modelli imperfetti di rete neurale». È stato proprio lui a lanciare l’allarme intervenendo alla conferenza FAccT 2022 dell’Association for Computing Machinery in Corea delSud: «Rischiamo di creare una generazione di robot razzisti e sessisti». Il problema, spiega, è che molti sviluppatori di sistemi di Intelligenza Artificiale per il riconoscimento di persone e oggetti addestrano i loro automi usando set di milioni di dati disponibili gratuitamente su Internet, spesso parziali: col rischio di inculcare contenuti distorti, e realizzare algoritmi tutt’altro che oggettivi. Un problema già riscontrato in altri ambiti: come quello dei software di riconoscimento facciale. Quando, per dire, nel 2016 il dipartimento di polizia di Chicago provò a sperimentare un algoritmo ideato dalla locale università per individuare presunti criminali finì per mettere sulla “lista dei sospetti” metà degli abitanti afroamericani della città. E il problema si è riproposto nel 2022 quando gli stessi studiosi hanno tentato di creare un sistema capace di predire dove accadranno nuovi potenziali crimini basandosi sui dati di passati omicidi e aggressioni.
La novità dello studio sui robot sta nel tentativo di valutare le conseguenze dell’uso di algoritmi “imperfetti” nei “cervelli” di macchine autonome – ovvero usate nel mondo reale senza la supervisione dell’uomo, ad esempio nei magazzini – considerate a rischio di comportamenti potenzialmente “scorretti”.
«L’allarme è concreto» dice a Repubblica Lorenzo Rosasco, che insegna Machine Learning all’Università di Genova, è visiting professor al Massachusetts Institute of Technology e collaboratore dell’Istituto Tecnologico Italiano. «Certo, lo studio mette l’accento sui robot contestualizzando il problema dell’intelligenza artificiale in un corpo. Ma ilproblema dei bias nel dataset dei software è noto. Ad algoritmi liberi e pre-codificati, si aggiungono semplicemente nuovi comandi. D’altronde è difficile capire se contengono elementi discriminatori, frutto di pregiudizi o magari semplicemente scaturiti dal fatto che modelli nati per uno scopo sono usati per altro». E in Europa, la situazione com’è? «Il dibattito è intenso, la regolamentazione degli algoritmi secondo i valori europei è un tema caldo, tanto che esistono grosse reti dedicate. Ma è complicato: bisognerebbe codificare questi valori, mettere vincoli agli algoritmi. Formare ingegneri capaci di parlare di filosofia ed etica con sociologi e avvocati. Servirebbe l’interazione di figure e saperi diversi. La fusione di competenze è davvero la nuova sfida della tecnologia».