Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  febbraio 28 Sabato calendario

Trump allo scontro con Anthropic. «Svitati di sinistra, basta contratti»

La risposta è arrivata. Chiara, diretta, inamovibile. «Riteniamo che, in una serie limitata di casi, l’AI possa minare, anziché difendere, i valori democratici». Queste le parole di Dario Amodei, ceo di Anthropic, in risposta all’ultimatum del dipartimento della Difesa Usa. Anche il Pentagono non sembra intenzionato a cedere. Se l’azienda non rimuoverà le limitazioni all’uso del chatbot, il contratto da 200 milioni di dollari siglato a luglio potrebbe essere stracciato. In alternativa, è stata ventilata l’opzione di appellarsi al Defense Production Act, legge figlia della Guerra fredda che consentirebbe l’esproprio dell’intelligenza artificiale. E intanto si è espresso anche Donald Trump, che in un post su Truth ha definito Anthropic come un’azienda «di estrema sinistra», «svitati» che aderiscono all’ideologia woke e che hanno fatto il «disastroso errore» a iniziare un braccio di ferro con il governo Usa. «Cessate immediatamente ogni utilizzo della tecnologia di Anthropic», è l’appello del presidente alle agenzie federali. «Non ne abbiamo bisogno, non la vogliamo e non faremo più affari con loro».
I primi segnali di insofferenza da entrambe le parti in causa sono iniziati a gennaio. Allora la società aveva iniziato a esprimere dubbi su un uso illegittimo del chatbot. In risposta, il Pentagono ha chiesto di rinunciare a ogni vincolo sull’uso dell’AI. Incontrando però un rifiuto.
«Siamo favorevoli all’uso dell’AI per missioni legittime di intelligence e controspionaggio all’estero», spiega Anthropic, ribadendo però che l’uso «per la sorveglianza di massa sul territorio nazionale è incompatibile con i valori democratici». Queste AI possono mettere insieme i dettagli della vita di una persona che presi singolarmente costituiscono un’informazione innocua, ma raccolte in modo massivo possono creare un identikit. Un’operazione pericolosamente «automatica e su vasta scala».
Il secondo punto riguarda il potenziamento delle armi tramite l’automazione. Oggi, secondo l’azienda, queste tecnologie «non sono sufficientemente affidabili per alimentare armi completamente autonome»: «Non forniremo consapevolmente un prodotto che metta a rischio i soldati e i civili americani». Amodei specifica che «senza un adeguato controllo, non è possibile affidarsi alle armi completamente autonome per esercitare il giudizio critico» esercitato dai soldati nelle più delicate operazioni belliche.
Anthropic non cerca la rottura e spera di riuscire a salvare il ricco contratto con il Pentagono senza rinunciare alla posizione «etica» sull’AI. «La nostra ferma intenzione è continuare a servire il Dipartimento e i nostri combattenti». Ma senza rinunciare alle «red lines», quelle linee rosse che segnano i confini da non superare. D’altronde, come tiene a specificare il ceo di origine italiana, in passato Anthropic ha rinunciato «a diverse centinaia di milioni di dollari per impedire l’uso di Claude da parte di aziende legate al Partito comunista cinese».
Intanto, mentre il Pentagono chiede a due appaltatori – Boeing e Lockheed Martin – una valutazione di quanto siano necessari i servizi offerti da Anthropic, un terzo attore si inserisce nella disputa. OpenAI starebbe lavorando a un accordo per un modello di AI capace di preservare da un lato le necessità dell’esercito, dall’altro i vincoli posti da Anthropic. «Vorremmo aiutare a descalare la situazione», si legge in una nota allo staff firmata dal ceo Sam Altman, preoccupato che una guerra fra l’azienda rivale e il Pentagono possa costituire un precedente pericoloso per tutta l’industria dell’intelligenza artificiale.