Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  febbraio 08 Domenica calendario

Robot, licenza di uccidere illimitata: nessuna moratoria sulle macchine assassine

La licenza d’uccidere per i robot resta illimitata. Di fronte al dilagare di macchine assassine sempre più autonome, non c’è alcuna volontà di fermarle. Dall’Ucraina a Gaza, dai raid sull’Iran al blitz di Caracas, l’intelligenza artificiale sta cominciando a prendere il controllo dei campi di battaglia, sostituendo i piloti alla guida di aerei e tank ma soprattutto suggerendo ai generali come attaccare e chi bombardare.
Tutti i tentativi di introdurre una moratoria sono naufragati e anche quello di invocare almeno dei paletti durante la conferenza Reaim in Spagna è fallito: su 85 nazioni partecipanti, giovedì scorso soltanto 35 hanno sottoscritto un documento “per promuovere un uso responsabile dell’intelligenza artificiale in ambito militare, affinché contribuisca alla pace e alla sicurezza internazionali”. In fondo al testo mancano le firme di Cina e Stati Uniti, mentre i russi non sono stati invitati: ci sono i big europei, Italia inclusa, il Giappone e la Corea del Sud. Ossia il pezzo di mondo che teme di diventare vittima delle tecnologie guerriere.
Il governo di Madrid non ha risparmiato sforzi per organizzare la terza edizione del Reaim – Responsible AI in the military domain – nel gioiello galiziano di La Coruna. Nelle precedenti sessioni in Corea del Sud e nei Paesi Bassi, alla fine una sessantina di Paesi avevano aderito a una dichiarazione di principio, senza vincoli legali: anche gli americani erano stati d’accordo. Questa volta invece l’amministrazione Trump ha detto no e pure alcuni degli alleati atlantici si sono astenuti per evitare di innervosire la Casa Bianca.
Eppure gli sherpa hanno lavorato a un testo che evitasse le visioni apocalittiche, andando incontro ad alcune istanze dei generali: l’intelligenza artificiale può ridurre l’esposizione dei militari al pericolo, migliorare la protezione dei civili e favorire decisioni più informate, nel rispetto del diritto internazionale umanitario. “L’AI non sostituisce il giudizio umano, ma ne amplifica le conseguenze: la sfida non è solo tecnologica, è politica, etica e istituzionale – ha detto alla platea il tenente generale José Maria Millan, direttore del Centro tecnologico militare spagnolo Cestic -. In un contesto internazionale cruciale, c’è l’urgenza di trasformare principi generali in pratiche sensibili al contesto e operativamente sostenibili”.
Nei ventotto punti venivano però presi in considerazione tutti i lati oscuri. Dagli aspetti più propriamente tecnici come gli errori di calcolo, le approssimazioni degli algoritmi, la perdita di controllo, la compressione dei tempi di decisione che possono provocare sbagli letali o causare l’escalation dei conflitti. Fino a quelli etici e giuridici sulla supervisione umana e sui confini nel rendere i software arbitri di vita e morte. Il documento chiede infatti un approccio fondato sulla “responsabilità fin dalla progettazione”, con l’introduzione di catene di comando chiare. “I governi hanno davanti il “dilemma del prigioniero” – ha spiegato alla Reuters il ministro della Difesa olandese Ruben Brekelmans – tra mettere responsabilmente delle restrizioni ed evitare di limitare le proprie capacità rispetto agli avversari.
Russia e Cina si stanno muovendo rapidamente e hanno imposto l’urgenza di ottenere progressi nello sviluppo dell’AI. Ma questa velocità allo stesso impone di continuare a lavorare su un impiego responsabile. Le due cose procedono mano nella mano”. Una visione tanto ottimistica quanto illusoria. La corsa ai robot guerrieri è sotto gli occhi di tutti, sta cambiando il volto delle guerre e anche l’economia bellica. I droni volanti, naviganti e terrestri si impadroniscono dei teatri di scontro. Aziende come Palantir di Peter Thiel sbancano Wall Street surclassando le quotazioni degli storici produttori di caccia e cannoni. Ma non si fa nulla per impedire che gli automi a mano armata possano compiere stragi, per scelta o per errore.
E non c’è modo di punire quelli che già avvengono. Da un anno e mezzo quadricotteri teleguidati ogni giorno danno la caccia ai civili nella città di Kherson. Uccidono anziani, donne e bambini in una spietata pulizia etnica per espellere la popolazione ucraina da una regione formalmente annessa alla Russia nell’estate 2022 prima che gli invasori fossero obbligati a ritirarsi. Sono azioni con una matrice indubbia, perché rivendicate con la pubblicazione dei video sui social, di cui però è impossibile identificare i responsabili. Una lunga indagine degli ispettori Onu ha potuto solo accertare che si tratta di crimini contro l’umanità, ipotizzando come unico colpevole il comandante in capo dell’armata russa.
La soluzione? Si discute di regole che certifichino il controllo umano sulle procedure d’attacco e la qualità del personale che “educa” l’intelligenza artificiale. C’è chi teme sia troppo tardi per ostacolare i cervelli artificiali che con il “machine learning” imparano da soli l’arte della guerra e che con ostinazione perseguono gli obiettivi, anche a costo – come è avvenuto in una celebre simulazione informatica dell’Us Air Force – di eliminare gli umani che ordinano di fermarsi. C’è chi invece ritiene che sia indispensabile trovare dei criteri di sicurezza, prima che i robot prendano pure la gestione degli arsenali nucleari e condizionino l’impiego di strumenti in grado di cancellare l’umanità.
Isaac Asimov si era posto il problema negli anni Cinquanta, inventando le tre leggi della robotica. Quella fondamentale recita: “un robot non può recare danno a un essere umano né può permettere che, a causa del suo mancato intervento, un essere umano riceva danno”. Aveva immaginato che ogni automa venisse progettato con questo vincolo intrinseco nel cervello elettronico. Ora i robot della sua fantascienza stanno diventando reali, mentre gli aspetti etici sono stati ignorati. “Nessuna macchina dovrebbe mai scegliere di togliere la vita a un essere umano”, ha detto senza mezzi termini Papa Francesco davanti ai leader del G7 in Puglia nel giugno 2024. Un appello rimasto finora senza ascolto.