La Stampa, 25 aprile 2018
I robot troppo simili a un umano e che possono far innamorare
Socializzare su Facebook, pontificare su Twitter, lavorare su Skype e poi ologrammi di rockstar decedute che cantano sui palchi del Billboard Music Award. Non sarà come vivere in «Matrix», ma poco ci manca. L’Intelligenza Artificiale ha conquistato il mercato delle relazioni umane: c’è «Jibo», il robot da compagnia che scimmiotta i cartoni animati della Pixar, c’è l’umanoide di UBtech in grado di riconoscere la voce del padrone ed effettuare ordini su Amazon e, ancora, c’è Kirobo Mini, capace di sostenere conversazioni e riconoscere le espressioni facciali. Ecco, appunto: il salto di qualità sta nell’avere reso «friendly» l’Intelligenza Artificiale. Tanto che una fetta di questo mercato, oggi, è l’assistenza ai pazienti e a chi soffre di Alzheimer.
La direzione è buona, purché vi siano regole: i robot devono restare tali per l’ammalato e non essere scambiati per essere viventi verso i quali l’investimento affettivo nuocerebbe. Ma «il rischio c’è», spiega Andrea Bertolini, ricercatore di diritto privato all’Istituto Dirpolis della Scuola Superiore Sant’Anna di Pisa e professore all’Università di Pisa. Bertolini si occupa delle implicazioni legali, economiche ed etiche della robotica e ha offerto il proprio contributo al convegno «L’assistenza agli anziani» di Rimini a cura del Centro Studi Erickson: «Esiste una soglia nella capacità di biomimesi oltre alla quale l’automa può ingannare l’uomo, specialmente se le sue relazioni sono limitate».
Proprio la capacità di ingannare, secondo il celebre test di Alan Turing, è l’elemento che distinguerebbe una macchina da un essere vivente e il discrimine non è più così irraggiungibile. «Comportamenti programmati e fattezze umanoidi evocano empatia – precisa il ricercatore -: pensiamo alle immagini di Angela Merkel alla fiera dell’hi-tech di Hannover immortalata con iCub, l’androide dell’Iit, mentre gli sorride come si farebbe a un bimbo».
Dire se queste reazioni sono un bene o un male è difficile. Sono un bene, se stimolano il paziente in vari compiti quotidiani, e d’altro canto la capacità empatica potrebbe essere sfruttata per indurre gli umani a comportamenti contro il proprio stesso interesse: esattamente come fanno i software che dal web ci propongono pubblicità e contratti. «Il mio pc non suscita empatia, quando mi dice “Hai 10 giorni per rinnovare l’antivirus”, ma, se le richieste provenissero da un umanoide, potrei essere indotto a fraternizzare più facilmente».
Chiunque può subire in modo abnorme il fascino degli umanoidi. Viene da pensare – ricorda Bertolini – al blogger giapponese Sal9000 che ha «sposato» un Nintendo DS o, meglio, il personaggio virtuale Nene Anegasaki, protagonista del gioco «Love Plus». E c’è il caso di Sophia, il primo robot a cui è stata concessa una cittadinanza. La questione etica è legittima: fino a che punto è lecito programmare un robot per suscitare l’attenzione degli umani o, meglio, per «ingannarli»?
BY NC ND ALCUNI DIRITTI RISERVATI
Stampa 25/4
Fabio Sindici
Per Joanna Bryson i robot non sognano pecore elettriche. «Dovrebbero essere schiavi», ha scritto in un saggio. Una dichiarazione con intento provocatorio. Bryson, cresciuta al Mit di Boston, si divide tra le università di Stanford in California e di Bath in Inghilterra. La sua ricerca è centrata sulla comprensione dell’intelligenza naturale attraverso la creazione di modelli di Intelligenza Artificiale. Studia anche la possibilità di un’etica applicabile ai robot. O meglio: un’etica per gli umani riguardo all’uso di automi sofisticati.
Nel cinquantenario del romanzo di Philip Dick «Do Androids dream of electric sheep?», da cui è stato tratto il film «Blade Runner» di Ridley Scott, l’Intelligenza Artificiale, corporea e incorporea, pervade le società umane. Chiunque navighi su Internet si è sottoposto, per accedere a un sito, a un test che certifichi il suo essere umano, mentre i bot sulla rete impersonano sempre più spesso individui umani. E ora l’Europarlamento ha adottato una mozione con linee-guida che vanno dalla creazione di un registro per smart robot all’eventuale attribuzione di una loro personalità giuridica.
Professoressa, ritiene sempre che i robot debbano essere schiavi?
«Bisogna chiarirsi sulla parola schiavi. I robot, per quanto intelligenti, sono progettati, costruiti e diretti da noi. Devono facilitarci la vita, non complicarla. Oggi non userei la parola schiavi, perché ha descritto una condizione umana, e potrebbe portarci a pensare che i robot abbiano qualcosa di umano. Pensare a un robot come un umano ci de-umanizza. Quindi direi che anche il più avanzato è uno strumento».
Esiste un’eccessiva identificazione degli umani con i robot?
«Credo di sì, sia che si tratti di robot incorporei sia con una struttura fisica. Accade per un errore di percezione: ci identifichiamo troppo con la parte computazionale della nostra intelligenza. Inoltre, non penso sia utile costruire automi troppo simili agli umani. Ed è sbagliato creare legami affettivi. Basta pensare agli umanoidi per servizi sessuali».
Tra i suoi campi di ricerca, tuttavia, c’è l’elaborazione di una coscienza artificiale e di emozioni sintetiche per i robot.
«È vero. Ma non dovremmo sentirci obbligati verso di loro, dal punto di vista etico, più di quanto ci sentiamo verso un arto artificiale. Un robot non può essere responsabile delle sue azioni. Il responsabile è il costruttore o l’operatore».
Lei è stata incaricata dalla British Robotics Funding Agency di aggiornare i principi della robotica di Isaac Asimov: quali cambiamenti ha apportato?
«Comincerei dal quinto: dev’essere possibile risalire a un responsabile umano. Il primo principio stabilisce che un robot non debba essere usato come un’arma, a eccezione di ragioni di sicurezza nazionale. Il secondo riguarda la privacy. Per il terzo un robot deve essere sempre sicuro. Il quarto ha come oggetto l’illusione di emozioni umane: queste non possono essere usate per manipolare un utente. Ora queste idee sono parte della politica informale britannica. Ci si preoccupa della “singolarità” e di rivolte di robot. Ma i vantaggi e i rischi dell’Intelligenza Artificiale sono qui e ora».