Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  febbraio 27 Venerdì calendario

Anthropic rigetta le richieste del Pentagono

La risposta è arrivata. Chiara, diretta, inamovibile. «Riteniamo che, in una serie limitata di casi, l’AI possa minare, anziché difendere, i valori democratici». Queste sono le parole di Dario Amodei, ceo di Anthropic in risposta all’ultimatum del dipartimento della Guerra (ex dipartimento della Difesa) americano.
Quello che fino adesso è stato solo un insieme di (plausibili) voci di corridoio raccolte da fonti anonime interne al Pentagono, adesso si è concretizzato in un post ufficiale dell’azienda che ha realizzato il chatbot Claude e che lo aveva messo a disposizione (dietro un contratto da 200 milioni di dollari) per gli affari bellici del dipartimento. Ma alla richiesta del Pentagono di mollare ogni limitazione d’uso dell’intelligenza artificiale, Anthropic aveva risposto di no. E le motivazioni, che fino a ora erano trapelate come indiscrezioni dopo la riunione a porte chiuse di martedì scorso, sono diventate esplicite.
«Siamo favorevoli all’uso dell’intelligenza artificiale per missioni legittime di intelligence e controspionaggio all’estero», si legge nel post. «Tuttavia, l’utilizzo di questi sistemi per la sorveglianza di massa sul territorio nazionale è incompatibile con i valori democratici». E «intelligenze artificiali potenti», come appunto Claude, possono mettere insieme i dettagli della vita di una persona che presi singolarmente costituiscono un’informazione innocua, ma se raccolte massivamente possono creare un identikit preciso. Un’operazione che così diventerebbe pericolosamente «automatica e su vasta scala».
Il secondo punto riguarda l’automazione delle armi. Che può essere «vitale per la difesa della democrazia», scrive Anthropic, facendo riferimento a quelle usate oggi in Ucraina. «Ma oggi, i sistemi di intelligenza artificiale di frontiera non sono sufficientemente affidabili per alimentare armi completamente autonome. Non forniremo consapevolmente un prodotto che metta a rischio i soldati e i civili americani». Inoltre, «senza un adeguato controllo, non è possibile affidarsi alle armi completamente autonome per esercitare il giudizio critico che le nostre truppe altamente addestrate e professionali dimostrano ogni giorno». E, come ha dimostrato un recente studio condotto dal King’s College London, i chatbot di oggi (compreso Claude) mancano della sensibilità in campo bellico che gli esseri umani possiedono, dimostrando invece di essere pronti a sfoderare persino l’atomica.
Il tono del testo rimane conciliante sin dall’apertura, ma Anthropic non ha problemi a presentarsi ancora una volta come l’azienda della «scelta etica» e non di quella motivata dal profitto. «Abbiamo scelto di rinunciare a diverse centinaia di milioni di dollari di entrate per impedire l’uso di Claude da parte di aziende legate al Partito Comunista Cinese», spiega la società, specificando che si tratta di aziende che lo stesso Pentagono ha etichettato come aziende militari di Pechino.
Anthropic non si sposta di un centimetro. E in uno scontro di volontà forti come quello che adesso si vede fra il Pentagono e l’azienda che ha realizzato Claude, si scoprirà il risultato della «guerra» solo alla scadenza dell’ultimatum, proprio oggi. E se Pete Hegseth, a capo del dipartimento, non vorrà scendere a compromessi, allora ci saranno solo due possibilità: lo scioglimento del contratto da 200 milioni di dollari o l’esproprio di Claude. Intanto, rivela Axios, il Pentagono ha già iniziato a chiedere una valutazione di quanto siano necessari i servizi offerti da Anthropic a due importanti appaltatori della difesa, Boeing e Lockheed Martin. Il primo passo per poter dichiarare la società un «rischio per la catena di approvvigionamento».