Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2021  giugno 03 Giovedì calendario

Ora i droni scelgono chi uccidere (anche in Libia)


Il ghigno terrificante sul volto liquefatto di Arnold Schwarzenegger nelle scene finali di “Terminator” può andare in archivio: il primo robot assassino della Storia ha l’aspetto di un giocattolo innocuo, di quelli che i papà lanciano nei parchi per far divertire i bambini. È un drone di ultima generazione, che sul campo di battaglia non solo spia e minaccia, ma ora colpisce, per la prima volta su propria decisione, senza intervento di operatori umani.
A rivelare che un limite simbolico è stato superato è la lettera datata 8 marzo 2021 che il gruppo di esperti incaricati dall’Onu di seguire gli affari della Libia ha inviato al Consiglio di Sicurezza. Nel marzo 2020, si racconta, un convoglio delle forze fedeli al generale Khalifa Haftar è stato «rintracciato e affrontato da veicoli da combattimento aereo o da letali sistemi d’arma autonomi come l’ Stm- Kargu 2» lanciati dai soldati turchi. La parola chiave è “autonomo": il documento spiega che sistemi del genere «sono programmati per attaccare gli obiettivi senza richiedere scambio di comandi fra l’arma e l’operatore», un sistema che i militari chiamano «lancia e dimentica».
Il Kargu 2 è un quadricottero che pesa sette chili, capace di volare per 30 minuti sopra i 70 km orari, fino a cinque chilometri dalla zona del decollo. Può operare in sciame e agire come kamikaze, cioè decidere di lanciarsi su un obiettivo e farsi esplodere, anche puntando, dice il fabbricante, un singolo individuo, grazie al software di riconoscimento facciale. Secondo gli esperti dell’Onu, in Libia è stato uno strumento «molto efficace»: le forze di Haftar non sono state in grado di difendersi e hanno subito «perdite significative». L’uso di queste armi, dicono all’Onu, viola l’embargo stabilito nel 2011.
Ma per Zachary Kallenborn, esperto di armamenti non convenzionali, è un’evoluzione sconvolgente. «Un nuovo capitolo nelle armi autonome, in cui sono usate per combattere e uccidere esseri umani basandosi su intelligenza artificiale», scrive l’analista sul Bulletin of the Atomic Scientists.
Siamo ben oltre gli attacchi Usa definiti” signature strike “, dove un software indirizzava i droni armati Reaper su persone spesso non identificate, il cui comportamento (spostamenti, contatti, eccetera) sembrava indicare che fossero coinvolte in attività terroristica. Questi protocolli, voluti e alla fine abbandonati da Barack Obama, affidavano a un algoritmo la vita e la morte di persone ignare. Unica differenza, rispetto alle armi autonome, era l’intervento di un operatore in fase esecutiva.
Secondo la Campagna per fermare i robot assassini, strumenti dotati di capacità decisionale varcano una soglia morale, perché «mancano di caratteristiche umane come la compassione, necessarie per compiere complesse scelte etiche». L’organizzazione chiede un trattato internazionale, per stabilire che nell’uso della forza deve essere mantenuto un controllo umano significativo. «Solo gli esseri umani sono capaci di distinguere fra combattenti e no, e di valutare la proporzione fra azione e obiettivi», sottolinea Maurizio Simoncelli dell’Archivio Disarmo.
Antonio Guterres, segretario generale delle Nazioni Unite, chiede da anni un divieto di armi «moralmente ripugnanti e politicamente inaccettabili». L’anno scorso anche papa Francesco si è schierato contro i sistemi autonomi che «alterano in modo irreversibile la natura della guerra, allontanandola ancora di più dall’azione dell’uomo». Persino la Difesa Usa nel 2012 ha stabilito che una valutazione umana deve essere presente in ogni uso della forza. Ma secondo il Pentagono, Mosca avrebbe invece allestito un sistema automatico per far partire i suoi missili se i sensori sismici, di luminosità, pressione e radioattività registrano un attacco nucleare.
Insomma, se una ribellione dei robot contro l’umanità resta nel complesso improbabile, il pericolo di errori o hackeraggi nei sistemi automatici è concreto. Un possibile primo provvedimento potrebbe essere l’inquadramento dei sistemi autonomi entro la Ccw, la Convenzione del 1980 su certe armi convenzionali, che già vieta o limita l’uso di armamenti capaci di causare sofferenze ingiustificabili. I lavori per ampliare la portata della Ccw sono cominciati, ma per vedere qualche risultato ci vorrà parecchio. C’è solo da sperare che un accordo si trovi presto: per l’applicazione delle sue visionarie Leggi della Robotica, con il divieto ai robot di far del male agli esseri umani, Isaac Asimov aveva immaginato dovesse arrivare l’anno 2058. Ma potrebbe essere già troppo tardi