Corriere della Sera, 26 giugno 2020
Gli abusi polizieschi anche con algoritmi
Mentre milioni di cittadini protestano sul palcoscenico delle piazze e delle strade d’America contro il razzismo e gli abusi della polizia, dietro le quinte va in scena uno scontro meno spettacolare ma ancor più rilevante: quello per evitare, nella repressione dei crimini, l’uso di tecnologie digitali sempre più potenti ma imprecise e basate sui pregiudizi di chi sviluppa gli algoritmi. A Detroit è appena emerso quello che potrebbe essere il primo caso noto di arresto di un innocente deciso col riconoscimento facciale: Robert Julian-Borchak Williams, un professionista di colore di 42 anni ammanettato nel giardino della sua villetta davanti alla moglie e alle figlie, accusato di un furto commesso un anno e mezzo prima in un negozio di orologi. Non era lui: i detective se ne sono resi conto mentre gli mostravano, interrogandolo, tre foto riprese dalle telecamere del negozio. Williams si è fatto 30 ore di prigione e il procedimento non è ancora estinto. Tre cose impressionano di questo caso: l’approssimazione della polizia (nessuna indagine, solo il confronto delle immagini delle telecamere con un database di 49 milioni di foto), le carenze investigative occultate dietro la tecnologia («ha sbagliato il computer») e il giudizio cinico dell’avvocato di Williams: «Lui è fortunato: è ancora vivo. Quando gli agenti devono arrestare un afroamericano così grosso vanno nel panico». E, allora, benvenuta la notizia del blocco di un sistema di riconoscimento facciale creato da due professori e da uno studente della Harrisburg University: un algoritmo che, sulla base dei tratti somatici, dovrebbe predire, con l’80 per cento di accuratezza, chi diventerà un criminale. Siamo al recupero di tesi pseudoscientifiche da tempo archiviate, da quelle di Lombroso alle teorie naziste della razza, rivitalizzate usando intelligenza artificiale e machine learning: lo hanno denunciato 2256 scienziati, sociologi e filosofi della neonata Coalizione per la critica della tecnologia (Cct). La rivista scientifica Springer Nature non pubblicherà lo studio, ma non è detto che sia finita qui: il Cct denuncia il proliferare di ricerche computazionali per predire i crimini basate su algoritmi che risentono di pregiudizi e usano in modo scorretto dati biometrici o statistiche dei reati commessi dai vari gruppi sociali. Strumenti tanto potenti quanto difettosi che vengono ugualmente utilizzati da start up prive di scrupoli e offerti alle polizie Usa.