Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2021  aprile 04 Domenica calendario

Un robot di dubbia moralità

In un’epistola di stupefacente preveggenza, Roger Bacon, il Doctor Mirabilis della Scolastica duecentesca, scriveva: «Arriveremo a costruire macchine alate, capaci di sollevarsi nell’aria come gli uccelli». Tre secoli e mezzo dopo, nella Nuova Atlantide, un altro Bacon – sir Francis – immaginò un’utopia tecnologica in cui la vita umana prosperava grazie al contributo di stupefacenti macchinari: sottomarini, congegni volanti, artefatti che controllavano le condizioni meteorologiche e macchine che costruivano altre macchine. Nel Settecento, poi, l’entusiasmo tecnologico venne propagato dagli enciclopedisti, che sull’incipiente sviluppo delle macchine basavano le loro speranze di un radioso futuro per l’umanità tutta. Speranze che, in seguito, con la  BelleÉpoque, divennero certezze diffuse. 
Certo, rispetto all’idea salvifica delle macchine si levò anche qualche voce dissenziente. Nel 1811, a Nottingham, gruppi di operai – atterriti all’idea che le macchine potessero privarli del lavoro – fecero scempio di telai meccanici e macchine a vapore, ispirandosi alle presunte gesta del mitico Ned Ludd. Ma che le macchine potessero generare disoccupazione lo pensarono anche grandi economisti come Ricardo e Marx; questa cupa previsione, però, non si avverò, perché le macchine avevano pur sempre bisogno di manodopera umana che le governasse. Poi, tuttavia, venne la prima guerra mondiale, con le sue sofisticatissime macchine distruttrici (bombardieri, sottomarini bellici, carri armati, mitragliatrici); e così il mito secondo cui l’avanzamento tecnologico avrebbe comportato l’inarrestabile progresso umano cominciò a declinare. Infine, con la seconda guerra mondiale e le bombe atomiche non ci fu più alcun dubbio che i progressi tecnologici, lungi dall’aumentare necessariamente il nostro benessere, possono sollevare notevoli problemi morali. 
Oggi le questioni morali legate al progresso tecnologico sono tornate di attualità in virtù dei roboanti sviluppi dell’intelligenza artificiale e della robotica. In primo luogo, stavolta sembra proprio che il progresso tecnologico possa effettivamente incrementare la disoccupazione (almeno della manodopera a bassa qualificazione): per fare un esempio, nei negli USA cinque milioni di persone che oggi lavorano come conduttori di automezzi in pochi anni potrebbero essere sostituiti da veicoli driverless, molto più sicuri ed economici. Questo, naturalmente, è un problema innanzi tutto sociale, economico e politico e solo indirettamente etico (nella misura in cui si può valutare la moralità delle politiche governative riguardo a questa questione). Altri problemi, però, hanno valenza più immediatamente morale: si pensi alla possibilità di usi eticamente distorti, o del tutto illeciti, delle tecnologie basate sull’intelligenza artificiale. Oppure, più modestamente, alla necessità di programmare le nuove macchine secondo linee morali condivisibili: anche in questo caso, infatti, non mancano problemi morali. 
Torniamo al caso delle vetture senza conducente: il problema principale, in questo caso, è come se ne debba programmare il comportamento in condizioni moralmente controverse. Come si chiede Guglielmo Tamburrini (Etica delle macchine, Carocci 2020), se due ciclisti, uno con il casco e uno senza casco, improvvisamente si parano innanzi a una macchina a guida autonoma, verso quale dei due il veicolo dovrebbe essere programmato a sterzare? La scelta morale migliore può sembrare quella di buttarsi verso il ciclista con il casco, perché può cavarsela con danni minori. Ma se si diffondesse la notizia che le vetture senza conducente prediligono come loro vittime i ciclisti con il casco, nota Tamburrini, alla lunga ne deriverebbe una diminuzione dell’uso del casco da parte dei ciclisti – con conseguenti maggiori danni sociali a lungo termine. Qui sono in conflitto due concezioni etiche: una secondo cui per valutare la moralità di un’azione bisogna considerarne le conseguenze a breve termine (in questo caso è meglio investire il ciclista con il casco) e un’altra che invece considera le conseguenze a lungo termine (e allora è meglio puntare al ciclista senza casco). 
La verità è che le nostre intuizioni morali sono in genere piuttosto confuse. Spesso oscilliamo, per esempio, tra l’idea che certe azioni siano buone o cattive di per sé (la cosiddetta concezione «deontologica» della morale, difesa per esempio da Kant) e l’idea che la moralità di un’azione si possa valutare solo considerandone le conseguenze (che è la posizione «conseguenzialistica», difesa per esempio da J.S. Mill). C’è poi l’ardua questione di quali siano i valori fondamentali a cui la nostra morale dovrebbe ispirarsi. Chi aderisce a un’etica conseguenzialistica, per esempio, potrebbe pensare che il valore da considerare sia il benessere della maggior parte degli individui: ma fino a che punto ciò può andare a discapito delle minoranze? E poi cosa vuol dire, precisamente, «benessere»? Chi difende un’etica deontologica ha invece il compito di definire i principi a cui le nostre azioni si dovrebbero uniformare. Ma su questo, si sa, le opinioni sono molto varie: si pensi a chi crede che la vita sia un valore assolutamente inalienabile (e dunque, per esempio, rifiuta l’eutanasia) e chi invece sostiene che il valore fondamentale è la dignità della vita (e perciò pensa che, in condizioni estreme, l’eutanasia possa essere moralmente accettabile). Insomma, sulla morale non abbiamo idee molto chiare. Ci mancavano solo le macchine a complicarcele ancora di più.