Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2016  luglio 10 Domenica calendario

Egoisti o vaccinati?

Da una parte, il caso della Google Car – un veicolo autonomo che porta a spasso i suoi passeggeri e i cui prototipi hanno ormai percorso più di un milione di chilometri per le strade di San Francisco. Dall’altra il rifiuto di far vaccinare i propri figli per via del rischio percepito. I due casi non sembrano aver nulla a che fare l’uno con l’altro. Uno studio brillante di Jean-François Bonnefon, Azim Shariff e Iyad Rahwan mostra invece come entrambi i casi siano accomunati dal loro profilo morale. L’opposizione alla vaccinazione è una forma di free ride, riflette il desiderio – come si diceva un tempo – di aver la botte piena e la moglie ubriaca: i free riders preferiscono che la maggior parte della popolazione sia vaccinata, perché questo permetterebbe loro di non far vaccinare i propri figli. Lo studio di Bonnefon mostra che lo stesso profilo morale determinerebbe le scelte degli individui riguardo alle politiche sui veicoli autonomi. In caso di incidente, preferiamo che i veicoli autonomi salvino il maggior numero di vite, anche a costo di sacrificare quella dei passeggeri. Ma non vorremmo acquistare una Google Car che prospetti il sacrificio dei passeggeri. Botte piena, moglie ubriaca. 
Gli esperimenti che portano a questo risultato sono varianti del problema del carrello ferroviario. Il guidatore di un veicolo si trova di fronte a un incidente imminente e inevitabile che scatena un dilemma morale: o tira dritto e travolge e uccide dieci persone, o sterza e ne uccide una sola; oppure ancora sterza e andando a sbattere muore egli stesso. Nel caso del veicolo autonomo, il dilemma passa dal conducente umano a un algoritmo. Questo passaggio sposta in maniera interessante i termini della questione. Il fattore aleatorio e il fattore istintivo che rendono difficile prevedere il comportamento di un agente umano tendono a sparire dalla scena. Che tipo di scelte farà l’algoritmo? Ovvero, che tipo di scelte fa chi progetta l’algoritmo? Se è vero che la vita è difficile da intrappolare nelle regole, come scrisse a suo tempo Stefano Rodotà, è anche vero che i robot possono funzionare solo con regole precise: e se vuoi vendere una Google Car, devi informare il tuo cliente sul suo comportamento preciso in caso di incidente imminente.
Bonnefon e colleghi non ci dicono come dev’essere fatto l’algoritmo; hanno studiato come reagiscono le persone di fronte a algoritmi che fanno scelte diverse. Ne risulta che le persone approvano gli algoritmi utilitaristi che massimizzano il numero di vite salvate (sterzare uccidendo un passante per salvarne dieci), e gli algoritmi altruisti, che a parità di vite risparmiate salvano il passante e sacrificano il passeggero. Al contempo, queste stesse persone dichiarano che acquisterebbero molto più volentieri un veicolo autonomo egoista (salvare il passeggero a ogni costo), lasciando sostanzialmente agli altri cittadini il compito di acquistare veicoli altruisti o utilitaristi. Come dar loro torto, vien fatto di dire. Ma in questo modo la soluzione del dilemma morale finisce con il creare un dilemma sociale. Da un lato l’adozione generalizzata di veicoli autonomi potrebbe ridurre in modo drastico gli incidenti automobilistici, dall’altro la problematicità degli algoritmi morali che questi usano limiterebbe la loro accettazione. 
Il legislatore impone la vaccinazione; non entri nella scuola pubblica se non sei vaccinato. Dovrebbe imporre dei veicoli autonomi altruisti? La conversazione è appena cominciata. Bonnefon e colleghi prospettano altri scenari che tengano conto per esempio delle età rispettive di passeggeri e passanti; se la Google Car trasporta un anziano, deve sacrificarlo per non investire un bambino? È facile ironizzare sulla lista di parametri da sottoporre all’algoritmo morale: uccidere un uomo per salvare una donna? Uno straniero per salvare un connazionale? Per salvare il proprio amato cane? E se Google offrisse la possibilità di scegliere tra diversi algoritmi, quale più, quale meno altruista, a chi imputare le responsabilità in caso di incidente? 
La discussione dovrebbe però spostarsi su un piano molto più generale. Se i robot come la Google Car, ma non solo, diventeranno sempre più parte del paesaggio, è inevitabile che per quanto rari degli incidenti avverranno comunque, e le collisioni evocate negli scenari automobilistici saranno tutto sommato i casi più semplici. È dunque inevitabile che i programmatori debbano mettersi a tavolino a immaginare scenari complicati e a proporre soluzioni a dilemmi stravaganti. 
La realtà è naturalmente in vantaggio sulla fantasia: i produttori di veicoli autonomi ammettono a denti stretti di aver già inserito qualche linea di codice nei loro programmi per assistere la decisione nel caso di incidenti imminenti che suscitano dilemmi morali. Vorrei sottolineare come questo ci obblighi a riconcettualizzare i veicoli autonomi come un vero e proprio dispositivo di puntamento; come un’arma, insomma, con una licenza di uccidere. Le righe di codice informatico vanno riconcettualizzate come regole di ingaggio; queste dovrebbero venir sottoposte alla discussione pubblica. 
Una proposta potrebbe essere una scelta dei colori: le auto egoiste, che salvano il passeggero a ogni costo, mettendo la sua vita al di sopra di quella del pedone, vengano dipinte a strisce gialle e nere. Da pedoni vogliamo sapere che cosa aspettarci quando insegniamo ai nostri figli a attraversare la strada.