la Repubblica, 30 gennaio 2020
Le polemiche sul riconoscimento facciale
Quando domenica 12 gennaio gli attivisti per i diritti civili si sono ritrovati a urlare slogan insieme agli ultrà del Cardiff, è diventato chiaro che il riconoscimento facciale aveva smesso di essere un tema riservato a tecno-entusiasti ed esperti di etica digitale per diventare un terreno di scontro assai più generale. In occasione del derby di Premier League Cardiff-Swansea la polizia della città gallese aveva schierato nei pressi dello stadio due furgoni attrezzati per la videosorveglianza, l’acquisizione dei volti dei sospettati e l’immediato confronto con i database disponibili. Tifosi e attivisti hanno protestato con uno striscione in curva: “No al riconoscimento facciale”. Pochi giorni dopo, l’invito a fermare gli algoritmi che scrutano i nostri volti (per riconoscervi un criminale o un cliente, dipende da chi lo usa) è arrivato da una tribuna ben più autorevole: la Commissione europea ha proposto una moratoria nei luoghi pubblici, per dare il tempo (fra i tre e i cinque anni) di riflettere sui possibili rischi del riconoscimento facciale e sulle contromisure da adottare. Il progetto sarebbe contenuto in un pacchetto più ampio, relativo all’Intelligenza artificiale, che verrà presentato ufficialmente a febbraio.L’allarme europeo parte dalla constatazione di quanto sia rapida la diffusione di questa tecnologia, soprattutto a fini di sorveglianza, con il risultato di una schedatura di massa computerizzata.
A spingere sull’acceleratore è il colossale giro d’affari legato al riconoscimento facciale: si prevede che nel 2022 tutti i suoi possibili usi varranno 9,6 miliardi di dollari. Mentre secondo la Oxygen Forensic, società che fornisce i suoi servizi alla Fbi, il business dei dati biometrici utilizzati dalle forze dell’ordine Usa passerà dai 137 milioni di dollari del 2018 ai 375 del 2025.
Gli Stati Uniti sono, insieme alla Cina, il paese che sta investendo di più. In Europa, è il Regno Unito a guidare la sperimentazione. Le polizie di Londra, del Leicestershire e del Galles del Sud (quella di Cardiff appunto) usano già tale tecnologia per le loro indagini: gli investigatori gallesi, in particolare, sostengono che proprio grazie agli algoritmi hanno individuato e arrestato 450 sospetti tra il 2017 e il 2018. D’altra parte, la potenza di calcolo dei computer-poliziotto surclassa qualsiasi abilità fisionomista di detective in carne e ossa. La già citata Oxygen Forensic, per esempio, rivendica che i suoi software riescono a eseguire 15 milioni di confronti al secondo, anche con facce fotografate “al volo” dai droni. Il problema è capire quanto sia credibile il risultato, il cosiddetto matching tra il volto di un sospetto e la foto segnaletica di un ricercato conservata negli archivi elettronici.
«Al momento questi sistemi sono davvero affidabili solo se applicati a piccoli numeri di persone», avverte Alessio Del Bue, responsabile del laboratorio Pavis (Pattern analysis and computer vision) dell’Istituto italiano di tecnologia. «Se un’azienda con 400 dipendenti ha una telecamera di sorveglianza che riprende l’ingresso, l’algoritmo riesce a distinguere con certezza tra lavoratori ed estranei. Se però la popolazione di riferimento è di milioni di persone, come nel caso di una nazione, allora il risultato avrà un alto grado di incertezza: al massimo il computer potrà dare una rosa di candidati, per esempio i dieci volti che si avvicinano di più a quello cercato».
Non solo. L’algoritmo è in qualche modo “condizionato” dal database su cui si è allenato. «Anche il riconoscimento facciale, come altre applicazioni dell’Intelligenza artificiale, si basa sul Deep learning, l’apprendimento profondo», continua Del Bue. «Significa che la macchina impara passando in rassegna una immensa mole di dati, in questo caso immagini di volti umani. Se però la banca dati di partenza contiene soprattutto foto di individui europei, l’algoritmo farà fatica a riconoscere un cinese». E in effetti è noto che i software di riconoscimento facciale in commercio hanno molto più successo nell’individuare i maschi dalla pelle chiara che le donne dalla pelle scura. Per migliorare le prestazioni bisogna aumentare i dati a disposizione. Ed è quello che stanno facendo colossi come Apple, Amazon, Huawei, offrendo il riconoscimento facciale ai loro clienti/utenti come alternativa alla password: miliardi di volti su cui far allenare i propri algoritmi. Il tutto senza una regolamentazione che tuteli diritti e privacy dei cittadini.
«Finora c’è stata una sorta di età dell’oro per la raccolta dei dati», ammette Del Bue. «Oggi però c’è molta più attenzione, soprattutto in Europa. D’altra parte è comprensibile la paura per una tecnologia così pervasiva e di cui non abbiamo nemmeno il controllo assoluto». Già, perché è come se gli stessi scienziati che li scrivono non comprendessero fino in fondo gli algoritmi. «Piccole variazioni nei dati di partenza li fanno fallire di molto. È come se sbagliassero per ragioni a noi incomprensibili. Ma il vero errore sta nel pensare che ragionino come persone, mentre invece processano i dati in modo non umano».
Tutto questo ha indotto la Commissione europea alla cautela e a proporre un bando di qualche anno. Il problema però è che altri corrono e sono già andati oltre: non solo riconoscimento facciale ma anche riconoscimento delle emozioni. Si moltiplicano i software per monitorare i volti degli studenti in classe e controllare il loro livello di attenzione, algoritmi che fanno una prima scrematura dei candidati ai colloqui di lavoro esaminando il loro comportamento in sala d’attesa, programmi per cogliere in fallo il sospettato di un crimine, perché, come sostengono alla solita Oxygen Forensic “le tecnologie che ci permettono di rilevare emozioni come rabbia, ansia, stress, saranno fondamentali per rendere il mondo un posto più sicuro”. Ammesso che siano attendibili: se già il riconoscimento facciale solleva qualche dubbio, quello delle emozioni è al momento addirittura considerato inattendibile da molti ricercatori. Innanzitutto per la super semplificazione da cui parte: gli algoritmi di questo tipo si basano sul lavoro di Paul Ekman, psicologo statunitense che negli anni Sessanta individuò le sei emozioni principali che comunichiamo attraverso l’espressione del viso. E se facciamo una smorfia che non rientra tra quelle sei? Il computer va in tilt e l’emozione resta inaccessibile ai microchip. «Ma il problema è anche quello del contesto», aggiunge Del Bue. «Non basta inquadrare il viso di una persona per sapere cosa sta provando, dipende dalla situazione in cui si trova: si può corrugare la fronte perché si è preoccupati o perché si è abbagliati dal sole». Ma questo non significa che si debba rinunciare ad algoritmi capaci di decifrare la gestualità umana. «All’Iit abbiamo un progetto in collaborazione con gli Ospedali Galliera di Genova per sperimentare un dispositivo che, dalle immagini riprese in corsia, analizzi i movimenti dei pazienti che hanno appena subito un’operazione. Le eventuali anomalie potrebbero essere il segnale di una fragilità che richiede l’intervento dei medici», spiega Del Bue. «Un algoritmo di questo tipo ridurrebbe le complicazioni post-operatorie, salvando vite e riducendo i costi per il Servizio sanitario». La capacità delle macchine di interpretare le necessità dei malati sarà fondamentale per un settore in forte espansione, quello della robotica assistita: in futuro se una persona anziana apparirà confusa il cyborg-badante lo capirà e interverrà per aiutarla. «La mia speranza è che l’Intelligenza artificiale venga usata solo per dare benefici economici e sociali alle persone», conclude il ricercatore. Probabilmente lo auspicano anche i tifosi del Cardiff, che però continueranno a essere ripresi e identificati dalle telecamere della polizia gallese. Causa Brexit, non potranno contare sulla moratoria europea al riconoscimento facciale.