Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2015  novembre 24 Martedì calendario

Anche i robot devono imparare a dire no. La disobbedienza elettronica, la nuova frontiera dell’intelligenza artificiale

«Apri la saracinesca esterna, Hal». «Mi dispiace, David, purtroppo non posso farlo ». La drammatica scena di 2001 Odissea nello spazio in cui il supercomputer HAL 9000 cerca di eliminare l’astronauta Bowman impedendogli di rientrare a bordo è l’esempio più famoso di disobbedienza elettronica a un ordine umano. Ma l’esplosione robotica attesa nei prossimi anni, che renderà l’uso degli automi sempre più diffuso in qualsiasi ambito, farà moltiplicare le situazioni in cui potrebbero dover dire di no a comandi inappropriati o pericolosi. Basti pensare a un’auto senza guidatore cui un passeggero impaziente ordini di superare i limiti di velocità. Anche per i robot “benintenzionati”, diversi quindi dal malevolo HAL9000, l’obbedienza potrebbe quindi non essere più una virtù.
Pionieri nel campo della giusta ribellione robotica sono due ricercatori dello Human-Robot Interaction Laboratory della Tufts University di Medford (Usa), Gordon Briggs e Matthias Scheutz, che al recente Human- Robot Interaction Symposium di Washington hanno presentato uno studio dal titolo evocativo: “Sorry, I can’t do that”: Developing Mechanisms to Appropriately Reject directives in human- robot interactions”.
In quali casi il robot fa bene a ribellarsi? «Se pensiamo ai robot militari, sarà importante riuscire a codificare nel loro comportamento il rispetto delle convenzioni internazionali. Ma ci sono anche ambiti molto più vicini alla vita quotidiana in cui il robot dovrà potersi opporre ai voleri del “padrone” umano», spiega a Repubblica Matthias Scheutz. «Immaginiamo un robot-casalingo che ha messo una padella sul fuoco e riceve l’ordine di passare l’aspirapolvere in salotto. Per evitare il rischio di un incendio, dovrebbe rifiutare l’incarico spiegando che prima deve finire di preparare la cena. Oppure, figuriamoci un robot-badante che sta sorreggendo un anziano e riceve da altri l’ordine di riparare l’antenna sul tetto: deve rifiutare il comando almeno fino a quando l’anziano non è al sicuro».
L’importante è che il robot sia un “agente etico” esplicito, ossia che possa non solo agire in un modo etichettabile come etico, ma anche spiegare all’umano il motivo della sua disobbedienza: senza questa capacità, i robot da un lato non riusciranno ad essere accettati come “agenti etici”; dall’altro non avranno modo di essere corretti dalla controparte umana se prenderanno una decisione sbagliata.
La strada per creare il robot etico è ancora irta di ostacoli: «Per poter prendere decisioni di tipo etico il robot dovrebbe costruirsi un corretto modello della situazione in cui si trova, è questa oggi la sfida principale», sottolinea Scheutz. «Consideriamo un’auto robotica che corre sul ghiaccio. Può avere tutte le appropriate regole di guida prudente codificate nel software, ma non potrà applicarle se i suoi sensori non riconoscono il ghiaccio». E c’è un problema aggiuntivo: «Il robot può essere ingannato e tratto in errore dagli umani. Ad esempio l’auto potrebbe percepire il ghiaccio, ma io potrei dirle: “Questo non è ghiaccio: i tuoi sensori non funzionano bene. Continua a correre e ignora i controlli di sicurezza”».
Il rischio maggiore per il futuro non saranno dunque robot troppo etici, ma umani ben poco tali.