Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2016  luglio 03 Domenica calendario

GOOGLE RISCRIVE LA ROBOTICA DI ASIMOV

Da tempo Google sta sperimentando le intelligenze artificiali in una sezione dell’azienda chiamata Google Brain. I rischi sono noti ai lettori di fantascienza: coscienze elettroniche che si ribellano, sfuggono al controllo e uccidono umani. Isaac Asimov, negli anni Quaranta, stilò le tre leggi della robotica per dare fondamenta alle relazioni tra noi e le macchine. Prima: «Un robot non può recar danno a un essere umano». Seconda: «Deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla prima legge». Infine: «Deve proteggere la propria esistenza, a meno che l’autodifesa non contrasti con le prime due leggi».
A distanza di settant’anni, Google sta riscrivendo le leggi sulla base dei suoi esperimenti. In un documento ( Concrete Problems in AI Safety ), redatto da membri di Google Brain e professori di Stanford e Berkeley si parte immaginando un robot il cui compito è di pulire un ufficio. Da qui la prima legge: «Un robot deve evitare effetti collaterali» (ad esempio, rovinare mobilio) per evitare di peggiorare la situazione iniziale. Anche la ricompensa per il lavoro svolto dev’essere però regolata: bisogna quindi programmare il robot a non imbrogliare «disattivando la sua visione per non vedere sporco o nascondendo la spazzatura sotto materiali o ancora nascondendosi dagli umani». Un robot dev’essere onesto, quindi. Ed ecco la terza legge di Google Brain, secondo cui la macchina deve chiedere agli umani pareri sul proprio lavoro per migliorarsi, un processo che gli autori chiamano «supervisione scalabile».
Qualora l’umano non fosse soddisfatto del lavoro svolto, il robot dovrebbe osservarlo mentre lo fa al posto suo, per imparare a districarsi in casi particolari (per esempio: quali oggetti gettare e quali conservare?). Oltre a ciò — siamo ora alla quarta legge — deve imparare a esplorare l’ambiente assieme agli umani, limitandosi a lavorare da solo esclusivamente quando la situazione è sicura. Il motivo? Evitare che la macchina, per esempio, decida di pulire con acqua e detersivo una presa elettrica che percepisce come «sporca». Arriviamo così all’ultima legge, che prevede siano i robot «a riconoscere la loro stessa ignoranza», tenendo a mente di avere dei limiti e di poter in qualsiasi momento chiedere aiuto agli umani (i programmatori).
Una serie di leggi, dunque, che potrebbero essere riassunte con: «Robot, non pensare di essere così intelligente».