Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2015  ottobre 18 Domenica calendario

Il problema dei robot assassini

Nel 1920 lo scrittore Karel Capek usava per la prima volta la parola robot, che avrebbe avuto con il tempo una fortuna crescente. Se il concetto, in qualche modo, era già presente nel romanzo Frankenstein di Mary Shelley di duecento anni fa, è solo con la fantascienza, in letteratura e al cinema, che il mondo dei robot è entrato prepotentemente nella nostra vita, prima immaginaria poi sempre più reale. Nel 1968 usciva il romanzo di Philip Dick Il cacciatore di androidi, da cui sarebbe stato tratto in seguito Blade Runner, e Stanley Kubrick realizzava 2001 Odissea nello spazio, dove il supercomputer Hal 9000 si ribellava agli uomini; nel 1973 il film Il mondo dei robot, di Michael Crichton, con Yul Brynner, raccontava un’apocalittica rivolta degli automi, e sarebbero poi seguiti, tra gli altri, Robocop, Terminator, Wargames.
Un preciso richiamo alle paure inculcate dalla fantascienza e da Hollywood è stato più volte evocato nel dibattito molto acceso che, almeno negli ultimi due-tre anni, si sta svolgendo sulla possibilità o necessità di mettere al bando i sistemi d’arma autonomi, quelli che per comodità vengono chiamati killer robot. La campagna per bandire i robot assassini, lanciata nell’aprile 2013, sarà protagonista domani e dopodomani, 19-20 ottobre, al Comitato per il disarmo e la sicurezza internazionale delle Nazioni Unite, dove gli interventi principali saranno quelli di Jody Williams, che ha ricevuto il premio Nobel per la pace nel 1997 per la sua lotta contro le mine antiuomo, e di Toby Walsh, tra i massimi esperti d’intelligenza artificiale e professore alla Università di Sydney di New South Wales. Nel novembre 2013 novanta Stati, che avevano aderito alla Convenzione sulle armi convenzionali, si trovarono d’accordo nell’esplorare i problemi posti dall’emergere di nuove tecnologie per sistemi d’arma letali e autonomi, promuovendo diversi incontri (il prossimo sarà il 13 novembre), mentre la Campaign to Stop Killer Robots ha coinvolto oltre cinquanta Ong (sotto il coordinamento di Human Rights Watch ), ha ricevuto l’adesione di otto Stati (l’unico europeo è la Santa Sede), ha ottenuto nel 2014 una risoluzione del Parlamento europeo (per il bando dello «sviluppo, produzione e uso di armi pienamente autonome che possono colpire senza intervento umano»), ha coinvolto quasi tremila esperti d’intelligenza artificiale e robotica, scienziati, imprenditori e filosofi in una lettera aperta resa pubblica il 28 luglio, preparata da Walsh, che iniziava con questa constatazione: «Armi autonome selezionano e ingaggiano obiettivi senza intervento umano. Possono includere, per esempio, quadrirotori armati che possono ricercare ed eliminare persone in base a criteri predefiniti, ma non includono i missili cruise o i droni pilotati in remoto per i quali sono gli esseri umani a decidere l’obiettivo. La tecnologia dell’Intelligenza Artificiale (IA) ha raggiunto un punto in cui lo spiegamento di simili sistemi è – praticamente se non giuridicamente – raggiungibile in anni, non in decenni, e i rischi sono alti: le armi autonome sono state descritte come la terza rivoluzione nella guerra, dopo la polvere da sparo e le armi nucleari».
In un articolo pubblicato da «Le Monde» su questo tema si ricordava come dal settembre 2014 la Corea del Sud abbia installato lungo la zona demilitarizzata che la separa dal Nord numerosi Sgr-A1, robot militari capaci di individuare gli intrusi ed eliminarli, senza presenza umana; e si sosteneva che sono in corso ricerche segrete per miniaturizzare sempre più questi tipi di arma, rendendoli simili ai robot ragni di Minority Report di Steven Spielberg.

Catherine Tessier, esperta di etica dei conflitti nei sistemi uomo-macchina, contesta ai fautori del bando una confusione tra automatismo e autonomia, ricordando come sia sempre l’uomo a inserire i parametri e i criteri su cui si svilupperà l’autonomia dei nuovi sistemi d’arma. Oggi, in realtà, come concordano tutti, ancora non esiste un vero prototipo di arma autonoma, ma la questione è se bloccarne fin d’ora lo studio e lo sviluppo o permettere di continuare la ricerca con una serie di cautele. Già esistono armi apparentemente autonome (i missili Fire-and-Forget, il cannone antimissile Phalanx, l’Iron Dome usato da Israele nel 2014), anche se in realtà fanno ancora parte di un sistema uomo-macchina integrato.
La logica del bando, proposto dalla campagna delle Ong e degli scienziati (hanno firmato anche il fisico Stephen Hawking, il cofondatore di Apple Steve Wozniak, e l’amministratore di Tesla Elon Musk), è evitare che in futuro le armi basate sulla IA possano diventare diffuse come oggi i kalashnikov, ma ovviamente molto più pericolose e dannose. Diversamente dai biologi e dai chimici, che solo dopo il loro uso iniziarono la battaglia per mettere al bando le armi chimiche e batteriologiche, gli scienziati dell’intelligenza artificiale che hanno firmato l’appello vogliono farlo da subito. Sulla base, come ha detto Peter Asaro, vicedirettore del comitato internazionale per il controllo dei robot armati, del fatto che il «giudizio umano» è sempre necessario per poter rispettare i criteri basilari della International Humanitarian Law (Ihl), la sintesi delle leggi di guerra di cui oggi disponiamo: e cioè la distinzione (tra militari e civili), la proporzionalità (della risposta rispetto alla minaccia) e la necessità militare (dell’uso delle armi). Delegare all’arma autonoma la decisione di quando e come iniziare l’uso di una forza letale, senza la legittimazione morale e giuridica umana, sarebbe immorale e aumenterebbe i rischi di una guerra asimmetrica con maggiori pericoli per i civili.
Nella approfondita e ricca discussione che scienziati con opposti punti di vista hanno sviluppato in questi mesi manca – necessariamente – un richiamo preciso allo stato delle cose, alle continue e verificate violazioni gravissime che sono state commesse nelle «nuove» guerre degli ultimi anni e ai drammi, errori, benefici o svantaggi di una guerra spersonalizzata (che si accelera con i bombardamenti aerei a partire dalla distruzione di Guernica nell’aprile 1937) rispetto ai conflitti in cui gli uomini si confrontano e si uccidono guardandosi negli occhi o quasi, o ai massacri e ai genocidi compiuti a contatto diretto. Ronald Arkin, direttore del Mobile Robot Laboratory del Georgia Institute of Technology, ritiene che possa essere vantaggioso, sia in termini di efficienza e precisione, sia economici, ma probabilmente anche morali e giuridici, continuare a sviluppare la ricerca con l’accortezza di introdurre i risultati lentamente, come standard internazionali controllati, e non a caso come succede adesso; anche perché lo sviluppo dei sistemi di armi autonome sarà comunque inevitabile. I robot, a suo dire, potrebbero adattarsi meglio degli umani alle regole della Ihl, perché non debbono proteggersi e possono autosacrificarsi, non devono «prima sparare poi domandare», hanno maggiori capacità ottiche, acustiche, sismiche, possono essere creati senza emozioni (rabbia, frustrazione, paura, isteria) che spesso influenzano gli umani spingendoli a infrangere le leggi di guerra, possono integrare informazioni da più fonti e addirittura potrebbero monitorare i comportamenti «etici» di tutte le parti in battaglia riportando notizia delle infrazioni commesse. Soprattutto riuscirebbero a evitare il più comune «errore» psicologico umano (quello che nel 1988 portò l’incrociatore americano Vincennes a sparare un missile terra-aria che abbatté un aereo iraniano, facendo 290 vittime tra cui 80 bambini) che è quello di utilizzare le nuove informazioni per rafforzare convinzioni preesistenti e non per metterle in discussione.
È davvero credibile che la presenza umana – al di là del problema complicato di assegnare la responsabilità di un eventuale crimine a una macchina – crei una maggiore empatia tra chi spara e la sua vittima e renda quindi più giustificato lasciare ancora e sempre all’uomo la scelta di uccidere?