Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  aprile 10 Venerdì calendario

I due volti di Anthropic

Anthropic ha scoperto che Mythos, nuova versione della sua intelligenza artificiale Claude, ha una strabiliante e terrificante capacità di individuare migliaia di falle informatiche nei sistemi operativi che governano parti essenziali della nostra vita, dall’erogazione dell’elettricità e dell’acqua al traffico aereo, al bancomat. Davanti al rischio di paralizzare sistemi essenziali, l’azienda di Dario Amodei ha scelto di non commercializzare il nuovo prodotto: lo usa, invece, per colmare queste falle col progetto Glasswing: Anthropic cede Mythos solo ai gruppi che hanno sviluppato i sistemi operativi (Microsoft, Google, Linux, Apple e poche altre) per consentire loro di scovare le vulnerabilità fin qui rimaste nascoste nei sistemi grazie alle enormi capacità logiche del nuovo strumento: Mythos ha scoperto difetti nei sistemi che resistevano anche da molti anni. Uno di questi, vecchio di 16 anni, è nascosto in una riga di codice analizzata 5 milioni di volte da sistemi automatici di controllo che non hanno mai trovato nulla. Con questa decisione, apparente rinuncia a un guadagno, Anthropic fa un’affermazione di superiorità etica e tecnologica. Tanto che il ben più spregiudicato Sam Altman, reduce da un’inchiesta del New Yorker che, passati ai raggi X tutti i suoi comportamenti, si interroga sull’affidabilità del personaggio, si è affrettato a far sapere che anche la sua OpenAI affiderà la sua nuova AI superpotente a poche aziende con una logica di scudo contro danni di sistema simile a quella di Amodei. Anche senza santificare Anthropic (fa una scelta etica ma anche di business con la rinuncia a un guadagno immediato per affermarsi sempre più come leader) non si può non notare il paradosso di un’azienda che Trump e il Pentagono vogliono mettere al bando, dichiarata pericolosa quanto quelle cinesi, che decide da sola, davanti a un governo cieco che non controlla, non regolamenta né protegge, di frenare la sua tecnologia: riduce i rischi mettendo i suoi sistemi a disposizione di altri leader di big tech (e decide lei quali). Certo, parlare di regole AI oggi, tra Hormuz e mediazione pakistana, sembra fuori luogo. Ma è l’AI con la quale l’Iran può colpire con sciami di droni a basso costo le petroliere sullo stretto e gli impianti energetici dei Paesi del Golfo che ha trasformato la «facile vittoria» vantata da Trump in un incubo.