Pietro Minto, La Lettura 3/7/2016, 3 luglio 2016
GOOGLE RISCRIVE LA ROBOTICA DI ASIMOV
Da tempo Google sta sperimentando le intelligenze artificiali in una sezione dell’azienda chiamata Google Brain. I rischi sono noti ai lettori di fantascienza: coscienze elettroniche che si ribellano, sfuggono al controllo e uccidono umani. Isaac Asimov, negli anni Quaranta, stilò le tre leggi della robotica per dare fondamenta alle relazioni tra noi e le macchine. Prima: «Un robot non può recar danno a un essere umano». Seconda: «Deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla prima legge». Infine: «Deve proteggere la propria esistenza, a meno che l’autodifesa non contrasti con le prime due leggi».
A distanza di settant’anni, Google sta riscrivendo le leggi sulla base dei suoi esperimenti. In un documento ( Concrete Problems in AI Safety ), redatto da membri di Google Brain e professori di Stanford e Berkeley si parte immaginando un robot il cui compito è di pulire un ufficio. Da qui la prima legge: «Un robot deve evitare effetti collaterali» (ad esempio, rovinare mobilio) per evitare di peggiorare la situazione iniziale. Anche la ricompensa per il lavoro svolto dev’essere però regolata: bisogna quindi programmare il robot a non imbrogliare «disattivando la sua visione per non vedere sporco o nascondendo la spazzatura sotto materiali o ancora nascondendosi dagli umani». Un robot dev’essere onesto, quindi. Ed ecco la terza legge di Google Brain, secondo cui la macchina deve chiedere agli umani pareri sul proprio lavoro per migliorarsi, un processo che gli autori chiamano «supervisione scalabile».
Qualora l’umano non fosse soddisfatto del lavoro svolto, il robot dovrebbe osservarlo mentre lo fa al posto suo, per imparare a districarsi in casi particolari (per esempio: quali oggetti gettare e quali conservare?). Oltre a ciò — siamo ora alla quarta legge — deve imparare a esplorare l’ambiente assieme agli umani, limitandosi a lavorare da solo esclusivamente quando la situazione è sicura. Il motivo? Evitare che la macchina, per esempio, decida di pulire con acqua e detersivo una presa elettrica che percepisce come «sporca». Arriviamo così all’ultima legge, che prevede siano i robot «a riconoscere la loro stessa ignoranza», tenendo a mente di avere dei limiti e di poter in qualsiasi momento chiedere aiuto agli umani (i programmatori).
Una serie di leggi, dunque, che potrebbero essere riassunte con: «Robot, non pensare di essere così intelligente».