Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2025  novembre 15 Sabato calendario

Apocalittici gioiosi: «Vincerà l’AI. Siamo destinati all’estinzione»

Nel giugno del 2015, a un party per il quarantaquattresimo compleanno di Elon Musk in California, il festeggiato e il suo grande amico Larry Page, uno dei fondatori di Google e al tempo amministratore delegato della capogruppo Alphabet, si lanciarono in un’intensa e polemica discussione sul futuro dell’intelligenza artificiale. Mancavano sette anni al lancio di ChatGpt e non emergevano ancora timori forti sulle potenzialità della tecnologia, in quella fase usata soprattutto nei giochi e nel riconoscimento facciale. Ma Elon Musk era già preoccupato.
L’episodio è raccontato dal cosmologo svedese e docente al Mit Max Tegmark, presente alla festa, nel suo libro Vita 3.0, pubblicato in Italia da Raffaello Cortina nel 2018. «Mentre si faceva mattino – scrive Tegmark – e il cerchio degli astanti in ascolto si allargava, Larry fece un’appassionata difesa dell’utopia digitale, la posizione secondo cui la vita digitale è il prossimo passo naturale e auspicabile nell’evoluzione cosmica e che, se lasciamo libere le menti digitali invece di fermarle o sottometterle, il risultato sarà senz’altro positivo… Il suo argomento era che, se la vita si estenderà nella nostra galassia e oltre, cosa che si augurava, dovrà farlo necessariamente in forma digitale». Musk non era d’accordo, sosteneva che la vita digitale «avrebbe significato la distruzione dell’umanità e di tutto ciò che ci era caro», una posizione che Page aveva bollato come «specieist», termine mutuato dalla filosofia animalista, che in questo caso assumeva una superiorità morale della forma di vita umana su quella digitale.
È passato quasi un decennio, la rivoluzione dell’intelligenza artificiale è in pieno svolgimento e sta cambiando il mondo davanti ai nostri occhi. La possibilità che un giorno le macchine possano mettere da parte la razza umana non è più solo un’ipotesi di scuola. Ma pur rimanendo di nicchia, la posizione di Larry Page, nel frattempo ritiratosi da responsabilità operative e impegnato in attività filantropiche, non è più così isolata.
Finora il dibattito etico e filosofico sull’AI è stato grosso modo diviso in due campi opposti. Come ha spiegato David Price sul «Wall Street Journal», «da un lato ci sono gli ottimisti, secondo i quali non c’è alcun problema ad allineare i modelli di intelligenza artificiale con gli interessi umani, dall’altro i catastrofisti che vorrebbero una pausa prima che macchine superintelligenti e ribelli ci sterminino tutti». Nel 2023, in un sondaggio condotto su un campione di 1.300 ricercatori nel campo su quanta probabilità ci fosse che i progressi dell’AI possano causare l’estinzione o depotenziamenti severi e permanenti della specie umana, la metà di loro diede una possibilità del 10% o superiore. La media fu del 16%, una possibilità su sei, come nella roulette russa.
Ma sulla scia di Larry Page, una terza posizione si fa ora strada nella conversazione globale sul più rivoluzionario, strategico e dirompente avanzamento tecnologico della Storia umana. Riassumendola, suona più o meno così: l’intelligenza artificiale prenderà il posto degli uomini, rendendoli marginali e sottomessi, al limite causandone l’estinzione? Accada pure, è giusto che sia così. A sostenerla sono quelli che Price chiama i «Cheerful Apocalyptics», gli apocalittici gioiosi.
Sono studiosi di assoluto valore. Uno di loro è Richard Sutton, che nel marzo scorso ha vinto il Turing Award, considerato il Nobel dell’informatica. Egli è convinto che l’avvento delle macchine intelligenti sia inevitabile e costruisce il suo ragionamento in quattro passaggi. Il primo è che «non esiste alcun consenso su come il mondo dovrebbe essere governato». Il secondo si basa sulla fiducia incrollabile nella capacità dei ricercatori di decodificare i meccanismi cognitivi fondamentali, cioè «capire come funziona l’intelligenza». Il terzo è che il progresso non si fermerà al livello umano dell’AI, ma «raggiungeremo la superintelligenza artificiale»: non più quindi se accadrà, ma quanto rapidamente accadrà e quanto in modo da poterlo controllare. L’argomento finale riguarda quella che per Sutton è una legge fondamentale della dinamica del potere: «È inevitabile che nel tempo le entità più intelligenti acquisiscano risorse e potere». Quanto agli uomini, «dovrebbero accettare con favore di essere rimpiazzati dall’AI come effetto dell’evoluzione».
L’intelligenza artificiale è paragonabile ai bambini, dice Sutton al «Wall Street Journal»: «Quando nasce un bambino, vorremmo un bottone che li spegne se fanno la cosa sbagliata? Lo stesso con l’AI, abbiamo la pretesa di volerla controllare. Ma se un giorno l’AI volesse togliersi di torno gli umani? Molte specie si estinguono, non c’è nulla di sacro nel Dna umano. Oggi siamo la parte più interessante dell’universo. Ma forse verrà un tempo in cui non lo saremo più». Il punto. Dice lo studioso è che, «cercando di controllare l’AI stiamo cercando di impedire all’universo di essere il migliore possibile. E invece sarebbe ok».
Secondo Jaron Lanier, pioniere della realtà virtuale, i «Cheerful Apocalyptics» sono ancora una minoranza, ma «occupano posizioni molto influenti» e non possono essere ignorati. Un esempio calzante è Daniel Faggella, imprenditore dell’AI, fondatore di Emerj, società che studia le implicazioni strategiche e di mercato dell’intelligenza artificiale per governi e aziende. Faggella è soprattutto una grande divulgatore, autore di podcast, blog e conferenze nelle quali promuove l’idea che l’AI «è un degno successore della specie umana». Il suo approccio è tuttavia cauto: la successione non dev’essere troppo precipitosa. Compito dei dirigenti politici è di rallentare il processo fin quando le macchine saranno «degne», cioè non solo superintelligenti ma anche coscienti. Ma non nel senso che si preoccuperanno della sorte degli uomini: «Aspirazioni morali puramente antropocentriche – dice Faggella – non sono sostenibili».
Price obietta che ci sono due giudizi di valore molto discutibili nell’intero impianto dei gioiosi apocalittici: il disprezzo, quanto meno in astratto, del corpo umano e l’assunto del vecchio detto «il potere dà ragione», in questo caso grazie alla superintelligenza. Ma, si chiede l’autore, anche mettendo da parte l’idea giudaico-cristiana che l’umanità sia stata creata a immagine di Dio, il concetto che sia la sola intelligenza, fosse pure digitale, a conferire il diritto alla supremazia è esso stesso una credenza spirituale: «Cosa implica per i diritti morali delle persone meno intelligenti? E cosa significa per le teorie della giustizia fondate sull’eguale valore morale di ogni persona?».
Già negli anni Sessanta un professore del Mit, Joseph Weizenbaum, pioniere dell’AI, aveva messo in guardia dal rischio che «le macchine diventino la misura dell’essere umano» e che l’idea che i robot intelligenti potessero un giorno diventare i nostri bambini non fosse poi così lontana da quella nazista di creare l’uomo perfetto a ogni costo. «Per fortuna – conclude Price – proprio il pregiudizio favorevole alla nostra specie costituirebbe una potente barriera all’accettazione dell’estinzione dell’umanità, a condizione che esso venga proclamato ad alta voce e non nel chiuso di un cocktail party o di un laboratorio».