Christoph Behrens, Panorama 25/4/2013, 25 aprile 2013
MA LA TECNOLOGIA PUÒ SBAGLIARE
Pochi hanno sentito parlare della società americana Brs Labs. Tuttavia, nel giro di un anno il suo fatturato si è decuplicato, raggiungendo 200 milioni di dollari. Ha aperto nuovi uffici a Houston, Texas, a San Paolo, in Brasile e a Londra. La ragione del successo della Brs (acronimo per Behavioral recognition systems, sistemi di riconoscimento comportamentale) è un software di sorveglianza chiamato Alsight.
Questo strumento sta rivoluzionando la sorveglianza negli aeroporti e nelle stazioni ferroviarie di tutto il mondo. L’Alsight rende intelligenti le telecamere. Il software guarda le riprese effettuate dai sistemi a circuito chiuso ed è in grado di riconoscere comportamenti sospetti o anomali, che si tratti di qualcuno che abbandona una valigetta, che esca da una vettura in un punto in cui non dovrebbe, che scavalchi una recinzione... Non appena il programma individua il comportamento insolito, fa suonare un allarme. Questo significa che non occorre più un controllo umano per monitorare le registrazioni della sorveglianza.
Il concetto alla base del programma è semplice. Si stima che nel mondo vi siano 50 milioni di telecamere di sorveglianza. Solo in Gran Bretagna le telecamere filmano ogni cittadino in media 300 volte al giorno. Ma di solito le immagini non hanno grande utilità, dato che non vi è personale a sufficienza per guardare e valutare tutto il materiale video, sia in diretta sia in differita. Una macchina, invece, non si distrae mai, è sempre all’erta e non ha bisogno di pause caffè. Pertanto l’idea di telecamere di sorveglianza intelligenti risponde a un’enorme domanda da parte del mercato.
Gli esperti di sicurezza europei sarebbero più che felici di avere una parte in questa vicenda. Il solo ministero federale dell’Istruzione e della ricerca (Bmbf) tedesco sta investendo oltre 21 milioni di euro in nove progetti di «riconoscimento di pattern». Sono tre anni che i ricercatori tedeschi tentano di ottenere che i computer leggano volti, riconoscano armi e registrino i movimenti sospetti. Ma finora i risultati sono stati deludenti. «Nel progetto Adis l’algoritmo doveva riconoscere situazioni potenzialmente pericolose nelle stazioni delle metropolitane, per esempio persone distese a terra, assembramenti, attacchi e aggressioni o comportamenti sospetti in genere» spiega Oliver Röbke, coordinatore del progetto avviato dalla società Indanet di Monaco. «Il nostro intento originario era testare il sistema sui trasporti pubblici. Però, a causa di questioni etiche e di tutela dei dati, i parlamentari tedeschi, sono stati talmente irremovibili che alla fine i test hanno dovuto essere condotti a porte chiuse. E la dimostrazione del sistema in azione non è ancora stata realizzata».
L’Alsight, invece, è sul mercato da tre anni. E, diversamente dal sistema tedesco, si basa sull’autoapprendimento: come una rete neurale, è in grado di raccogliere esperienze e imparare da esse, per esempio che cosa è normale in una determinata situazione (come, per esempio, il divieto di accesso ad alcune porte per i passanti) e che cosa non lo è.
«Ma se nel corso delle operazioni un sistema impara cose nuove, allora io in quanto tecnico non ho più il controllo su di esso» afferma criticamente il project manager dell’Adis, Zaharya Menevidis. «E se il controllo ti sfugge, questo non è progresso ». Gli ingegneri della Brs, naturalmente, vedono le cose in modo diverso. Ritengono che i sistemi europei basati sulle regole siano «sorpassati». «L’Europa è rimasta indietro nella tecnologia della sicurezza» dichiara Ben Hayes, che tiene d’occhio il settore sicurezza per conto di Statewatch, un’organizzazione che monitora le libertà statali e civili in Europa. Tuttavia, per altre ragioni, stanno sorgendo sempre maggiori dubbi sul fatto che sia possibile soddisfare aspettative più alte nel campo della sorveglianza basata sulle telecamere.
«L’affidabilità della sorveglianza preventiva è discutibile» afferma un ricercatore presso l’Istituto di sociologia legale e criminale di Vienna «i fattori ambientali e le variazioni di luce possono falsificare i risultati e causare un numero inaccettabilmente elevato di falsi allarmi».
Il Bka, l’ufficio di polizia criminale federale tedesco, ne ha avuto prova nel 2007 dopo avere installato un sistema di riconoscimento facciale presso la stazione ferroviaria centrale di Magonza. C’era quasi sempre troppo buio per riconoscere i singoli volti. «Il denaro sarebbe stato speso molto meglio nelle strutture: se le stazioni metropolitane fossero meglio illuminate, sarebbero comunque più sicure» afferma Stephan Urbach del Partito pirata.
La sicurezza è comunque solo una preoccupazione superficiale della sorveglianza intelligente. Molto più appetibili sono le prospettive finanziarie per il settore tecnologico. I ricercatori di mercato della Homeland security research corp., con sede a Washington DC, prevedono che entro il 2016 il mercato globale della sorveglianza intelligente si quadruplicherà. Questa è certamente una delle ragioni per cui il ministero federale dell’Istruzione e della ricerca tedesco considera il proprio programma di riconoscimento dei pattern uno strumento per sostenere l’economia: le società tedesche «dovrebbero poter beneficiare di questo mercato in forte espansione».
Anche l’Unione Europea è ansiosa di dotarsi di dispositivi di sorveglianza intelligente, soprattutto sui suoi confini esterni, e negli ultimi anni sono stati spesi almeno 60 milioni di euro per il controllo «intelligente », cioè automatizzato, delle frontiere. La Commissione europea sta anche considerando l’ipotesi di creare una flotta di droni per la protezione delle frontiere, mentre un progetto denominato Talos dovrebbe parallelamente sviluppare robot per il pattugliamento dei confini e l’individuazione degli intrusi.
Tutte queste idee sono soltanto dei progetti di ricerca, sottolinea la Commissione europea. E a dire il vero fino a questo momento il programma ha prodotto costosi fiaschi e poco di concreto.
Ma, considerazioni economiche a parte, la sorveglianza intelligente pone anche alcune questioni fondamentali. «Il riconoscimento dei pattern è estremamente delicato perché combina la tecnologia analogica con quella digitale» spiega Thilo Weichert, responsabile della protezione dati per conto dello stato tedesco dello Schleswig-Holstein. «Ad avere il potere decisionale dovrebbero essere le persone, non le macchine» dichiara. Un altro aspetto negativo del riconoscimento dei pattern è che terze persone non coinvolte, ma ugualmente registrate dal sistema, devono poter essere cancellate.
«E da dove vengono i criteri per il riconoscimento dei pattern?» chiede Regina Ammicht Quinn, del Centro internazionale per l’etica nelle scienze e negli studi umanistici di Tubinga. «Se provengono da esperti, esiste il rischio che il sistema venga programmato con un modo specifico e particolare di vedere il mondo». Per contro, se i criteri vengono stabiliti con metodi statistici, a questo punto il comportamento statisticamente normale, vale a dire quello registrato più frequentemente dalle telecamere, diventerà il comportamento «desiderabile».