G.O.L., Avvenire 21/7/2013, 21 luglio 2013
LE LEGGI DI ASIMOV
In un racconto del 1942, Isaac Asimov propose le sue famose “leggi della robotica”, le quali, cablate nel cervello “positronico” dei robot, dovrebbero proteggerci dai loro comportamenti dannosi:
1) Un robot non può recar danno a un essere umano e non può permettere che, a causa di un suo mancato intervento, un essere umano riceva danno.
2) Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla prima legge.
3) Un robot deve proteggere la propria esistenza, purché la sua autodifesa non contrasti con la prima o con la seconda legge.
Queste leggi, di carattere antropocentrico, si presentano semplici, chiare, univoche, ma in realtà qualora fossero calate nel mondo reale susciterebbero molti problemi. In effetti la nozione di danno presenta qualche ambiguità: se un umano sta tentando di uccidere un altro umano, come si deve comportare il robot? Se interviene reca danno all’assassino, se non interviene reca danno alla vittima. E come si deve comportare un robot che riceva ordini contraddittori? Di fronte a una contraddizione gli umani se la cavano quasi sempre con scelte che li fanno “uscire dal sistema” all’interno del quale si annida la contraddizione. Ma questa evasione può avvenire grazie a una certa dose di irrazionalità o di follia creativa.
Per consentire al robot di non paralizzarsi di fronte a una contraddizione si potrebbe immaginare di iniettargli una certa dose di follia... ma si può immaginare la difficoltà di un’impresa del genere. (G.O.L.)