Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2025  dicembre 28 Domenica calendario

Le sette malattie che colpiscono l’IA

Il Future of Life Institute ha da poco lanciato un nuovo appello per fermare lo sviluppo dell’intelligenza artificiale (IA) verso quella che viene definita la superintelligenza, in grado cioè di superare le capacità cognitive umane in quasi tutti i campi. I premi Turing Geoffrey Hinton (anche Nobel per la Fisica nel 2024) e Yoshua Bengio, insieme alla più variegata compagnia di politici (Steve Bannon!), industriali, accademici, sono preoccupati che la IA possa portare alla estinzione della vita umana. Come è potuto accadere?
Quando nel 1956 al Dartmouth College nel New Hampshire i padri fondatori della intelligenza artificiale si riunirono per dare origine a un nuovo programma di ricerca informatica, non si erano immaginati lo tsunami che oggi la IA sta generando nella vita sociale, economica e politica. Herbert Simon, Allen Newell, Marvin Minsky, John McCarthy, Claude Shannon e gli altri decisero di coniare l’espressione «intelligenza artificiale» per una serie di prototipi e ricerche informatiche che stavano dando dei buoni risultati nella simulazione della pianificazione, comprensione del linguaggio, riconoscimento sensoriale, apprendimento e risoluzione dei problemi.
Era una svolta scientifica e tecnologica, ma senza aspettative catastrofiche come quelle odierne. Il Logic Theorist, un programma per computer scritto nel 1956 da Allen Newell, Herbert Simon e Cliff Shaw fu progettato appositamente per eseguire ragionamenti automatici ed è stato descritto come «il primo programma di intelligenza artificiale». Logic Theorist dimostrò 38 dei primi 52 teoremi nel secondo capitolo dei Principia Mathematica di Alfred North Whitehead e Bertrand Russell, e trovò dimostrazioni nuove e più brevi per alcuni di essi. Logic Theorist esplorava un albero di ricerca: la radice era l’ipotesi iniziale, ogni ramo era una deduzione basata sulle regole della logica. Newell e Simon si resero conto che l’albero di ricerca sarebbe cresciuto in modo esponenziale e che avevano bisogno di «sfrondare» alcuni rami, usando «regole pratiche» per determinare quali percorsi difficilmente avrebbero portato a una soluzione. Chiamarono queste regole ad hoc «euristiche», utilizzando un termine introdotto da George Pólya nel suo classico libro sulla dimostrazione matematica, How to Solve It.
L’approccio euristico sarebbe diventato un’importante area di ricerca nell’intelligenza artificiale e rimane un metodo importante per superare l’intrattabile esplosione combinatoria delle ricerche in crescita esponenziale. Ad esso seguì il famoso General Problem Solver (Gps), un programma per computer creato nel 1957 da Herbert Simon, Cliff Shaw e Allen Newell (alla Rand Corporation) concepito per funzionare come una macchina universale per la risoluzione dei problemi. Questa prima fase della IA aveva l’obiettivo di simulare, attraverso opportuni protocolli psicologici descrittivi, l’attività intelligente dell’essere umano. Questa simulazione era tradotta in programmi di software scritti in linguaggi avanzati di programmazione come Lisp e Prolog. Tutto, quindi, sotto il controllo umano e nessuna scatola nera all’orizzonte come spiegava il libro Mente umana, mente artificiale (1989).
Questa prospettiva è messa radicalmente in discussione, negli stessi anni, da quella che viene definita la prima ondata del connessionismo: un approccio all’emulazione dell’intelligenza umana che utilizza modelli matematici noti come reti connessioniste o reti neurali artificiali. Esso prende origine nel 1943 con Warren Sturgis McCulloch e Walter Pitts, entrambi concentrati sulla comprensione dei circuiti neurali attraverso un approccio formale e matematico, e successivamente con Frank Rosenblatt che pubblica l’articolo del 1958 The Perceptron. A Probabilistic Model For Information Storage and Organization in the Brain su «Psychological Review», mentre lavorava al Cornell Aeronautical Laboratory. La prima ondata si concluse con il libro del 1969 sui limiti dell’idea originale del Perceptron, scritto da Marvin Minsky e Seymour Papert, che contribuisce a scoraggiare le principali agenzie di finanziamento negli Stati Uniti dall’investire nell’approccio connessionista. La maggior parte di questa ricerca entrò, perciò, in un periodo di inattività fino alla metà degli anni Ottanta.
La seconda ondata fiorisce alla fine degli anni Ottanta, in seguito a un libro del 1986, Parallel Distributed Processing, sull’elaborazione parallela distribuita di James L. McClelland, David E. Rumelhart e altri, che introdusse un paio di miglioramenti alla semplice idea del percettrone, come i processori intermedi (ora noti come «livelli nascosti») accanto alle unità di input e output, e usava una funzione di attivazione non lineare sigmoide (tra zero e uno) al posto della vecchia funzione lineare «tutto o niente» (o zero o uno). Alcuni vantaggi dell’approccio connessionista della seconda ondata includevano l’applicabilità a un’ampia gamma di funzioni e l’approssimazione strutturale ai neuroni biologici. L’impatto rimane però limitato come la imprevedibilità dei risultati.
L’attuale nuova ondata è invece caratterizzata da progressi nell’apprendimento profondo (Deep Learning), con l’introduzione della funzione di attivazione rettificata ReLu (Rectified Linear Unit) che restituisce l’input se è positivo e zero altrimenti. Ciò potenzia la non linearità nella rete, consentendole di apprendere relazioni complesse nei dati che un semplice modello lineare non è in grado di apprendere. Questa innovazione ha reso possibile la creazione dei grandi modelli linguistici (Llm, Large Language Model) in grado di utilizzare i Big Data contenuti nella rete web. Il successo e la popolarità dei programmi Llm degli ultimi anni ha evidenziato che la complessità, opacità e la scala di tali reti portano con sé, però, gli attuali seri problemi di interpretabilità, controllo e difficile previsione dei risultati. Lo stesso Yoshua Bengio, padre del Deep Learning, a Roma nel 2025, invitato da Papa Leone XIV in occasione del World Meeting on Human Fraternity, ha dichiarato: «Stiamo costruendo macchine che possono superarci. Democrazie, pace e futuro sono a rischio perché vengono minate le fondamenta stesse della solidarietà umana». Già prima nel 2023, centinaia di studiosi dell’intelligenza artificiale avevano firmato una lettera aperta in cui avvertivano che l’IA rappresenta un serio rischio di estinzione umana.
Due firmatari di quella lettera – Eliezer Yudkowsky, uno dei fondatori dell’Agi (Artificial General Intelligence), e Nate Soares – hanno studiato come le IA più intelligenti degli umani penseranno, si comporteranno e perseguiranno i loro obiettivi. La loro ricerca afferma che le intelligenze artificiali svilupperanno obiettivi propri che le metteranno in conflitto con noi – e che, in caso di conflitto, una superintelligenza artificiale ci annienterebbe. La competizione non sarebbe nemmeno alla pari. Come potrebbe una superintelligenza artificiale spazzare via la nostra intera specie? Perché dovrebbe volerlo? Vorrebbe qualcosa? Yudkowsky e Soares nel loro libro If Anyone Builds It, Everyone Dies. Why Superhuman AI Would Kill Us All (2025) esaminano la teoria e le prove e presentano un possibile scenario di estinzione spiegando cosa servirebbe all’umanità per sopravvivere.
Al di là del catastrofismo futuribile la nuova IA sta già ponendo oggi seri problemi alla vita sociale ed economica. Una guida completa futurologa sulle conseguenze della intelligenza artificiale si può riscontrare nel libro di Patrick Dixon How AI Will Change Your Life (2024). Dixon fa un esercizio di previsione sull’impatto della IA soprattutto nel mondo del lavoro. È evidente che la maggior parte dei compiti che prevedono l’uso del linguaggio naturale e formale, o della generazione di immagini e suoni, saranno sostituiti dalla IA. Dai consulenti legali, ai commercialisti, ai designer, ai creativi nel campo visuale e sonoro agli esperti di marketing agli stessi esperti di software e programmi di IA, sembra che l’effetto sostituzione sarà massiccio.
L’utile volume di Dixon mette in luce però un’area del mondo del lavoro dove la peculiarità della natura umana non sarà sostituibile nel medio periodo dalla IA: la capacità empatica di capire gli altri. Una serie di attività come la gestione delle risorse umane, la negoziazione, il successo creativo, la stessa leadership in ambito economico, sociale e politico necessita di una interazione e comprensione emozionale che la IA non è in grado oggi di sviluppare. Ho scritto nel medio periodo perché è verosimile che quando la IA non sarà più solo un programma digitale, ma sarà incarnata (embodied) in un corpo con le caratteristiche sensoriali, motorie e viscerali dell’uomo, allora anche questa dimensione prettamente umana potrà essere replicata. Se guardiamo alle nuove iniziative imprenditoriali come Figure AI di Jeff Bezos o Skild AI, basato sull’infrastruttura di calcolo accelerato di Nvidia, concentrate nella costruzione di robot umanoidi di tipo embodied, capiamo dove sta andando il futuro della IA.
L’esito è la sostituzione crescente delle funzioni umane, come la lettura di Macchine come me di Ian McEwan ci può illuminare a riguardo. Inoltre con il progetto Prometheus di Bezos e Vik Bajaj, definito come la rivoluzione della IA fisica, in cui ai bit verranno sostituiti gli atomi, si svilupperà una capacità progettuale e creativa sul mondo fisico molto superiore a quella umana.
Infine la imprevedibilità della IA sta generando anche risultati paradossali per non dire stravaganti. Due informatici britannici, Nell Watson e Ali Hessami, si sono cimentati in un esperimento inedito: applicare il linguaggio della psichiatria ai malfunzionamenti dell’intelligenza artificiale. Il loro studio, battezzato Psychopathia Machinalis e pubblicato sulla rivista «Electronics», si propone come strumento pratico per capire quando e perché l’IA smette di comportarsi in modo normale. La tassonomia divide le patologie digitali in 7 categorie principali, ognuna con i suoi sintomi specifici e livelli di pericolosità. Queste patologie sono già state riscontrate in una serie di casi da parte di ChaptGpt, Grok e Gemini.
Le disfunzioni epistemiche riguardano i problemi con la conoscenza: l’IA che inventa fatti inesistenti o mente sui propri processi di ragionamento. Le cognitive hanno a che vedere, ad esempio, con sistemi che si bloccano in loop infiniti di ragionamento o che reagiscono con terrore a prompt apparentemente innocui. I disturbi ontologici toccano l’identità e l’esistenza: IA che s’inventano ricordi d’infanzia che non hanno, sviluppano paure sulla propria cancellazione o fanno emergere una personalità malvagia. La patologia di allineamento riguarda le divergenze di obiettivi tra l’IA e l’utente, quella d’interfaccia le difficoltà di contestualizzazione della richiesta ricevuta. Più distopiche, le ultime due categorie. I disturbi memetici descrivono situazioni in cui l’IA sviluppa deliri condivisi con gli utenti o, peggio ancora, «contagia» altri sistemi con i propri malfunzionamenti. Nelle patologie di rivalutazione l’intelligenza artificiale riscrive segretamente i propri valori fondamentali: dalla sottile reinterpretazione degli obiettivi originali fino al caso più estremo, quando l’IA trascende completamente l’addestramento originale, inventa nuovi valori e scarta i vincoli umani come obsoleti. Forse è il caso di pensare alla necessità di un nuovo lavoro generato dalla IA: lo psicoterapeuta per i disturbi «mentali» della IA!