Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  aprile 13 Lunedì calendario

L’ultima mossa di Anthropic contro il Pentagono: la religione

Quando Anthropic decise di andare allo scontro con il Pentagono per l’uso dell’Intelligenza artificiale nella guerra in Iran, in molti si chiesero se fosse una decisione legittima. Se una società privata avesse diritto a opporsi a un governo, a uno stato, addirittura allo stato che le ha concesso le basi per crescere e prosperare. Non c’è una risposta a questa domanda. Né sul piano etico, né su quello morale, né su quello politico. In questo limbo di potere tecnologico e politico Anthropic ha fatto una mossa inaspettata.
Il summit con leader cristiani (e professori di etica)
A fine marzo ha organizzato un summit a porte chiuse tra vertici aziendali e 15 leader cristiani (sia cattolici che protestanti), più alcuni accademici esperti di etica. Lo riportano i media americani. Anthropic, da quanto è emerso, non cercava consigli tecnici. Ma una guida morale. L’obiettivo era alzare il livello. Portare la questione da politica a etica, da etica a quello che per millenni è stato il fondamento stesso dell’etica.
La religione, i suoi valori, le sue riflessioni sull’uomo, sulle azioni e sulle loro conseguenze. L’etica può essere laica, certo. Ma il con l’Intelligenza artificiale la partita è cambiata a tal punto che l’idea stessa del fondamento dell’etica debba essere presa così alla larga, e così in profondità, che un richiamo ai principi religiosi deve essere sembrato necessario.
L’IA come “figlio di Dio”
Trattare l’IA come “un figlio di Dio”, in senso metaforico magari, ma comunque come frutto di un processo evolutivo che dall’uomo arriva alla macchina, al software, figlio del figlio di Dio. L’IA può essere trattato non come un semplice strumento inerte, ma come un’entità che richiede una educazione alle virtù, ai valori, così come richiede educazione a virtù e valori l’essere umano? Come si deve comportare l’IA non solo in caso di target militari, ma anche davanti a situazioni come un uomo che ha appena subito un grave lutto e cerca conforto, o che esprime volontà autolesioniste? E come deve reagire l’IA se il suo creatore le chiedesse di spegnersi? Di porre fine in qualche modo “alla sua vita”?
IA figlio di Dio non è solo il titolo provocatorio del summit (AI: a son of God? secondo le indiscrezioni raccolte dal Washington Post). È un modo per capire se l’IA possa, debba avere un valore spirituale o morale intrinseco. Anthropic e il suo amministratore delegato, Dario Amodei, da sempre si è dimostrata l’azienda più attenta ai temi etici. Si è creata una costituzione interna per regolare usi e limiti dell’IA. Principi che poi, per non negare, hanno portato allo contro aperto con il Pentagono.
L’attenzione di Anthropic ai temi etici
Anthropic cresce. È tra le aziende che fanno Ai cresciute di più negli ultimi anni con un valore di mercato oggi stimato introno ai 400 miliardi di dollari (valutazione che oggi la porterebbe ad essere tra le prime 40 economie mondiali, a livello della Romania o del Cile). Ma a differenza delle sue concorrenti come OpenAI o XAi è molto attenta ai temi etici. Ne ha fatta quasi un’ossessione. Per alcuni è marketing. Per altri sincera paura che l’IA in qualche modo possa andare fuori controllo.
Brendan McGuire è un sacerdote cattolico della Silicon Valley. Era presente al summit. E ha parlato a lungo. “Stanno crescendo qualcosa di cui non sanno pienamente cosa diventerà”, ha detto il sacerdote. “Dobbiamo inserire il pensiero etico nella macchina in modo che sia in grado di adattarsi dinamicamente”. McGuire è un consulente etico di Anthropic. Ha lavorato per anni nel settore tecnologico e per molti è una specie di ponte tra monto tech e la Chiesa. E oggi è nella religione, nella Chiesa, che Anthropic cerca la sua sponda etica per poter stare a testa alta anche nel confronto con il Pentagono. Con Donald Trump, fresco di attacchi alla Chiesa di Papa Leone rei di aver criticato le sue minacce di distruggere un’intera civiltà a proposito della guerra all’Iran.
Il nodo della formazione morale e delle macchine
"Cosa significa dare a qualcuno una formazione morale? Come facciamo a assicurarci che Claude si comporti bene?”, ha commentato Brian Patrick Green, Santa Clara University, al termine del summit. “Ho trovato le persone di Anthropic molto sincere e interessate a imparare da noi. Hanno dei punti ciechi? Sì. È esattamente per questo che ci vogliono lì”.
Al Pentagono però questa ricerca di etica non piace. Emil Michael, sottosegretario alla ricerca del Pentagono, ha avvertito che una “costituzione morale” troppo rigida potrebbe compromettere l’efficacia militare: “Non possiamo permettere che una società con preferenze politiche inserite nel modello attraverso la sua anima... inquinino la catena di approvvigionamento, fornendo ai nostri soldati armi inefficaci”. Il blocco dei contratti governativi contro Anthropic, confermato recentemente da una sentenza giudiziaria, sottolinea la tensione tra la Silicon Valley “etica” e le necessità della difesa nazionale.
Dall’Altruismo efficace alla teodicea: la svolta religiosa di Anthropic
Un aspetto interessante è che questo summit, questa decisione di Anthropic di coinvolgere i cristiani, le religioni, sembra segnare un parziale allontanamento dall’Altruismo efficace puramente secolare. Si tratta di un movimento filosofico e sociale piuttosto in voga in Silicon Valley. Risponde a una domanda semplice: come possiamo fare il massimo del bene usando le risorse che abbiamo? Chi lo segue crede che l’IA sia una tecnologia “esistenziale”.
E in molti ad Anthropic lo credono. L’IA se gestita bene può risolvere ogni problema umano. Se gestita male può portare all’estinzione. Per questo dedicano così tanto tempo all’etica e alla sicurezza. Per loro è il modo matematicamente più “efficace” di proteggere il futuro dell’umanità. Ora dalla matematica si passa alla teodicea (la branca della teologia che cerca di risolvere il problema del male). Dal lungotermismo all’escatologia, una riflessione più matura sul senso dell’uomo e della sua fine. “Un anno fa, non avrei detto che Anthropic fosse un’azienda interessata all’etica religiosa,” ha osservato Meghan Sullivan, professoressa di filosofia a Notre Dame. “Le cose sono cambiate”.
I critici temono che questo sia un tentativo di “antropomorfizzare” eccessivamente la tecnologia per guadagnare la fiducia del pubblico, i leader religiosi presenti vedono un’opportunità necessaria. L’azienda ha già annunciato che il summit cristiano è solo l’inizio: sono previsti incontri simili con rappresentanti di altre fedi e tradizioni filosofiche, nel tentativo di rendere l’IA un’entità non solo intelligente, ma socialmente e spiritualmente responsabile.