Corriere della Sera, 8 marzo 2026
La guerra senza regole degli algoritmi: così scelgono i target e le strategie
Non solo missili sempre più precisi, bombe intelligenti, droni difficili da intercettare perché lanciati a sciami, killer volanti che inseguono il singolo soldato fin dentro la trincea. E, ancora, cannoni-robot, droni che piovono dal cielo per bloccare le petroliere e droni subacquei che affondano navi nel Mar Nero, sabotano un gasdotto sottomarino nel Baltico o tranciano cavi in fibra ottica che collegano i continenti.
Tutto relativamente facile e poco costoso per chi sa usare con perizia l’intelligenza artificiale (AI). Negli ultimi anni, soprattutto da quando, con ChatGPT, siamo entrati nell’era dei modelli linguistici, questi impieghi sono esplosi. Non soltanto attacchi fisici come, a proposito di esplosioni, quelle simultanee dei cercapersone di migliaia di hezbollah filoiraniani in Libano, firmate del Mossad.
Con la diffusione dei modelli AI in tutte le attività, comprese quelle militari, e, ora, con l’adozione dell’intelligenza più avanzata, Claude di Anthropic, in tutti i flussi informativi segreti delle forze armate Usa, questa tecnologia è divenuta cruciale per la sicurezza. Entra nella vita degli strateghi come un aiuto, ma è un assistente ingombrante: analizza con una rapidità impensabile per l’uomo una quantità infinita di dati provenienti dal web, dagli smartphone, dai satelliti, dalle carte di credito, dalle telecamere e da altri sistemi di sorveglianza. Tutto tradotto in pochi secondi in pianificazione logistica, simulazione di scenari, ipotesi d’ingaggio.
Nel nostro uso quotidiano, sociale, della tecnologia, siamo stati a lungo inebriati dai servizi gratuiti che ci venivano offerti, dalla promessa di una vita più libera e consapevole, grazie alla democrazia internettiana. Non è andata così: più diseguaglianze, il prevalere delle voci più estreme, brutali, il caos dell’informazione infestata di notizie false, cambiamenti profondi del modo di apprendere, di dialogare. Una rivoluzione nei rapporti sociali, nel modo di vedere la politica, addirittura nella sfera sentimentale.
Abbiamo reagito con rabbia, ma ormai impotenti: ce ne siamo accorti troppo tardi. Rabbia acuita dalla scoperta che, a differenza di noi, i produttori di quella tecnologia ne conoscevano rischi e lati negativi: Facebook aveva tenuto segreti gli studi sulle dipendenze, i fenomeni compulsivi legati a un uso intenso delle reti sociali mentre tanti «cervelli» della Silicon Valley hanno negato l’accesso a cellulari e computer ai figli fino agli anni del liceo e li hanno mandati in scuole nelle quali la tecnologia non entra o è ammessa a piccole dosi.
Oggi che con l’AI la tecnologia trasforma addirittura il modo di combattere e il rapporto dei cittadini con lo Stato che è in grado, se vuole, di soffocare le libertà con un sistema di sorveglianza di massa oppressivo e capillare, il rischio è quello di ripetere l’errore di un quarto di secolo fa. Stavolta con conseguenze ancor più devastanti.
È questo il cuore della disputa tra il Pentagono che, in quanto emanazione di un potere eletto, non accetta limiti imposti da un’azienda privata (avendo le leggi attuali dalla sua parte) e Dario Amodei, capo di Anthropic, che denuncia i rischi enormi che derivano dal fatto che la politica non ha costruito un argine legale per lo tsunami tecnologico.
Lo vediamo da anni; prima in Ucraina, poi a Gaza, ora in Iran. L’AI che pianifica, si sostituisce almeno in parte agli strateghi ma, soprattutto, consente a chi ha la responsabilità di autorizzare l’uso letale della forza, di scaricarla sulle macchine man mano che vengono embedded nelle procedure di ingaggio, nella selezione automatica dei bersagli e, ormai, anche nella decisione di fare fuoco senza comando finale umano: l’uso ottimale della tecnologia che diventa delega.
Problemi ormai oggetto di analisi approfondite anche in Italia: nel suo recente «Imperialismo digitale: economia e guerra ai tempi delle piattaforme e dell’AI» (Laterza), Dario Guarascio, docente di economia e politica dell’innovazione, nota come nei vent’anni passati dalla guerra dell’Iraq a quella in Ucraina sia cambiato tutto nell’uso degli strumenti informatici con l’introduzione degli Ssd (sistemi di supporto delle decisioni). Non forniscono più solo elementi di natura «descrittiva»: entrano anche nel campo «predittivo» (algoritmi che prevedono e quantificano i rischi) e in quello «prescrittivo» dando «indicazioni dirette sulle azioni da compiere... un cerchio nel quale l’uomo è escluso o, nella migliore delle ipotesi, marginalizzato».
Così, come scrive nel suo «Il cielo sporco» (Guanda) il giornalista e analista militare Gianluca Di Feo, nel massacro che va avanti da quattro anni in Ucraina il 70% delle vittime è causata da droni assassini che costano pochissimo, assai meno di un razzo ma anche di un proiettile di artiglieria. Tutto governato dall’AI.
Undici anni fa Ben Rhodes, braccio destro di Barack Obama alla Casa Bianca, mi raccontò, per il Corriere, l’angoscia del presidente chiamato a decidere se autorizzare l’attacco coi primi droni Reaper contro covi di Al Qaeda o contro veicoli di terroristi, sapendo di poter colpire anche innocenti. In un caso morì un ostaggio italiano e Obama andò davanti alle telecamere quasi con le lacrime agli occhi a prendersi tutte le responsabilità di queste esecuzioni senza processo. E di tragici errori.
Oggi, come scrive Di Feo, nella prima fase delle operazioni militari israeliane a Gaza è stata fornita all’AI una lista di 33 mila nomi di presunti terroristi o fiancheggiatori di Hamas lasciando che fosse un algoritmo a selezionare i meritevoli di morte.