Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2021  maggio 30 Domenica calendario

L’intelligenza artificiale riuscirà a volerci bene?

Padre Philip, mentre parla, dice spesso il nome della persona con cui si sta confrontando. È un modo di porsi che conforta perché riesce a destare tutta la persona: a riconoscere all’altro tutta la sua individualità, il suo essere. E in fondo questo è il tema centrale del confronto con padre Larrey: all’intelligenza artificiale manca l’essere cosciente. È un punto che si ritrova spesso in molti sui libri, anche nell’ultimo «Dove inizia il futuro», quando prova a definire una discussione comune sull’intelligenza artificiale sostenendo che piuttosto che l’intelligenza è la coscienza a non poter essere artificiale. Philip Larrey, vive a Roma, decano alla Pontificia Università Lateranense dove insegna filosofia della conoscenza; organizza corsi come “Platone e il machine learning” e “Imparare dal Rinascimento per affrontare la rivoluzione digitale”.
Racconta della sua infanzia a Mountain View, piccola città agricola dove è nato, importante negli anni 70 per essere stata la base di una flotta aereo navale della marina americana e dopo qualche decennio famosa per essere la sede di Google. Il padre insegnante al liceo e la mamma psicologa comportamentale. Della vita a Mountain View, ricorda la famiglia, gli amici ma non torna volentieri nella città, che chiede molto, estrae e poco da. 
La prima legge di Asimov sulla robotica – i robot non possono fare del male all’uomo – non ha più senso, non vale più dal momento in cui abbiamo progettato delle macchine con una Ia che uccide. Possiamo provare a impedire che le Armed Unmanned Aerial Vehicles (Uav), i droni militari, continuino a uccidere? Padre Larrey risponde che ci sono più di 80 regolamenti etici, di imprese, centri di ricerca e istituzioni su come bisogna progettare la Ia e come deve comportarsi. Ma se Facebook o Google non sono d’accordo sono inutili. Deep mind di Google con Demis Hassabis fa delle cose straordinarie con la Ia, è un progetto con delle risorse quasi illimitate e decide il futuro degli algoritmi intelligenti. In fondo non sei tu – prosegue il ragionamento padre Larrey -che cerchi un lavoro in una delle grandi multinazionali del digitale Google Apple Facebook Amazon e Microsoft (Gafam), ma sono loro che cercano te, cercano le migliori intelligenze del campo, le trovano e è con loro che si deve costruire un’etica della Ia; a patto che ci siano di mezzo anche le intelligenze sulle scienze umane a partire dalla filosofia e dalle sue grandi domande. Tutto quello che sta dentro è più potente di quello che sta fuori. Compresi i pregiudizi della Ia che dipendono dagli umani e dai dati e ancor prima che dai programmatori che la sviluppano, dalla politica. 
Certo non ci sono soluzioni per un’etica universale dell’Ia ma si possono definire dei percorsi di ricerca. Meglio, dice Larrey, avere una Ia che ha un principio etico rispetto a quella che segue delle regole. Si può ad esempio formalizzare l’etica, quella di Aristotele basata sulla felicità, per poi programmare un computer o un robot con questo sistema. Ma non funzionerebbe, perché Aristotele parlava di un senso etico dell’essere umano che noi non possiamo dare alle macchine. Il senso etico appartiene solo all’uomo. Per dotarle di senso etico le macchine dovrebbero essere coscienti, avere una coscienza. 
David Chalmers, uno dei più grandi studiosi della coscienza, dice: «Se noi non sappiamo definire la coscienza, e a oggi non lo sappiamo, è inutile dire che la Ia è cosciente». Se non c’è consenso tra le persone su cosa significa essere cosciente è inutile dirlo delle macchine. Filosoficamente non è possibile che le macchine diventino coscienti.
Se noi non possiamo dare loro un senso etico, potremmo allora dare delle regole? E quali? Eric Schimdt, allora ceo di Google, in un libro di P.Larrey diceva: «Ok Padre, ma che regole gli diamo? Quelle del Vietnam, della Francia, della Cina?» Bisognerebbe partire da regole universali. Ma è difficile definire delle leggi universali. «Don’t be evil» il motto di Google poteva essere una legge universale ma Google lo ha tolto perché il significato di evil è diverso tra le culture. Il pensiero filosofico dell’etica è questo: che significa evil ?
Quindi per ora diamo le regole semplici, suggerisce padre Larrey. Sappiamo che gli algoritmi della Ia stanno in una black box ma non sappiamo quasi mai cosa c’è dentro e come pensano. Noi diamo le regole ma le macchine le possono cambiare con gli algoritmi genetici. Apprendono e cambiano le regole.
È possibile immaginare un pensiero intorno al mondo della Ia che parta dalla dimensione dell’esperienza spirituale dell’umanità? Le grandi domande escono dalle chiese e vanno in mezzo all’uomo. Non solo è possibile ma è necessario. Padre Philip deve andare, lo aspettano in una chiesa a Roma dove aiuta con le messe. L’ultimo pensiero è per l’uomo. Dobbiamo creare una Ia che ci vuole bene. L’intelligenza artificiale deve voler bene all’umanità.