Goffredo Pistelli, ItaliaOggi 10/6/2015, 10 giugno 2015
IL COMPUTER NON CI PUÒ SOSTITUIRE
[Intervista a Nicholas Carr] –
Giornalista e scrittore, firma del New York Times, di Nature, di Wired e di molti altri giornali, Nicholas Carr, americano, classe 1959, è andato vicino al Pulitzer nel 2011, quando fu finalista del grande premio giornalistico, sezione «non fiction», per il suo saggio tradotto in Italia col titolo: Internet ci rende stupidi? ed edito da Raffaello Cortina.
Con lo stesso editore è arrivato da poco in libreria con la Gabbia di vetro, in cui esplora ancora il rischi della tecnologia, dell’automazione, della invasione digitale delle nostre vite.
Domanda. Lei mette in guardia dai tanti, cita alcuni campi in cui le conseguenze negative sono disastrosamente prossime, dall’aviazione civile alla revisione contabile. Vede altri settori a rischio?
Risposta. I rischi dell’automazione, e i benefici, continueranno ad espandersi come le tecnologie. Oggi assistiamo ad un rapido sviluppo delle abilità dei robot e delle machine robotiche, come le auto che guidano da sole e i droni militari, in lavori che richiedono capacità psicomotorie sofisticate, consentendogli di operare nel mondo reale. Inoltre vediamo progressi nella capacità degli algoritmi nel replicare la nostra capacità analitica in campi come la medicina, la legge e gli affari.
D. E il rischio dov’è?
R. Credo aumenterà la tentazione di delegare ai «big data» le decisioni civiche, politiche e personali.
D. Saremo sostituiti dai computer, vuol dire?
R. No, non significa che i computer sostituiranno l’uomo nel lavoro in questi campi, ma che noi diventeremo sempre più dipendenti dai computer in questi ambiti.
D. C’è una questione etico-morale connessa all’uso spinto dell’automazione. Nel suo libro le si chiede che cosa farà il pilota automatico della nostra auto, dinnanzi a un ostacolo improvviso, come un bambino. Deciderà per la nostra sicurezza o per la sua? E ricorda il rischio di cedere alle macchine «il potere di compiere scelte morali a nome nostro». C’è un punto di equilibrio possibile?
R. Le machine robotiche, siano esse auto o soldati, acquisendo la capacità di operare nel mondo reale, si confronteranno, sempre più spesso, con situazioni moralmente complesse, proprio come fanno le persone e dovranno prendere una decisione e agire in quella determinata situazione.
D. E quindi?
R. Quindi questa prospettiva solleva domande molto difficili con cui cimentarci: dovremmo delegare le decisioni morali alle machine? Chi programmerà la moralità di un robot? Può la morale essere ridotta ad una programmazione numerica? Queste, in ultima analisi , sono domande esistenziali.
D. Lei ha delle risposte?
R. No, non ho delle risposte ma credo che, come società, dovremmo affrontarle prima di lasciare che i computer e i robot agiscano autonomamente nel mondo.
D. Però, Carr, mi perdoni: due secoli di Rivoluzione industriale, mostrano che il genere umano ha conosciuto un sviluppo importante: questa tecnologia che ha costruito intorno a noi una gabbia di vetro, è la stessa che ci salva, oggi, da malattie che, ancora pochi decenni fa, ci uccidevano. C’era un’altra strada, più giusta, e non l’abbiamo imboccata?
R. Credo che noi possiamo decidere come progettare i computer e i programmi che ci affiancano e non credo si stiano facendo le scelte più sagge.
D. Vale a dire?
R. Programmatori e ingegneri, come le compagnie che li hanno assunti, mettono l’interesse della tecnologia al di sopra dell’interesse dell’uomo. Così, sempre più spesso, l’obiettivo è sostituire le persone, eliminare completamente il «fattore umano». Credo sia un errore.
D. Perché?
R. Perché noi umani abbiamo capacità e talenti, inclusa la capacità di pensare concettualmente, criticamente, creativamente e eticamente, che i computer non hanno, e se deleghiamo tutto ai computer, rischiamo di perdere questa ricchezza di talenti.
D. Esiste un approccio migliore, quindi?
R. Sì, un approccio migliore è pensare ai computer come nostri partner, assistenti e pensare a sistemi che mettano l’uomo al centro del lavoro, godendo dei benefici dei computer ma senza essere sostituiti da questi.
D. Siamo finiti nella Glass Cage, come lei racconta. Ma si poteva evitare? E soprattutto, chi e quando ha sbagliato? Quali sono le soluzioni? C’è una exit strategy? Si può rompere la Gabbia di vetro senza che ci frani addosso? O il percorso è quello della «decrescita felice» di cui parlano Serge Latouche e altri?
R. Direi che «la gabbia di vetro» della computerizzazione discende da quella che Max Weber chiamò la «gabbia di ferro» dell’industrializzazione, un secolo fa. In entrambi i casi, le nostre vite sono state cambiate, non necessariamente in meglio, dalla potenza delle nuove tecnologie.
D. Cioè?
R. Quello che avrebbe dovuto liberarci ci ha reso schiavi. Una ragione è economica: l’automazione e la meccanizzazione permettono agli affari di rimpiazzare il lavoro con il capitale e di concentrare i profitti nelle mani dei proprietari del capitale. Ma c’è anche qualcosa in noi, come individui, che dobbiamo rimproverarci.
D. Spieghiamolo.
R. Guardiamo ai computer come qualcosa che ci libererà da ogni sforzo, dal duro lavoro e dalle sfide più difficili, credendo che saremmo più felici se avessimo meno da fare. E invece , come dimostrano molti studi psicologici, ci mostriamo più soddisfatti quando affrontiamo e superiamo sfide difficili costruendo ricchi talenti. Credo dovremmo smettere di guardare ai computer come meri mezzi di produzione e consumo.
D. Per pensarli come?
R. Dovremmo considerarli mezzi esperienziali. Gli oggetti possono arricchire la vita di esperienze e credo dovremmo richiedere lo stesso ai computer. Allo stesso tempo fuggire dalla gabbia di vetro significa fuggire dalla presa che i computer hanno su di noi. Dobbiamo ricordare che siamo esseri viventi che vivono su un pianeta fisico. L’astrazione e il simbolismo degli schermi non può rimpiazzare la ricca esperienza sensoriale dell’essere attivamente coinvolti in un mondo fisico.
D. Perché dovremmo solo pensare alla scena finale di 2001 odissea nello spazio di Stanley Kubrik, col terribile Hall 9000, computer tiranno, e non immaginare un mondo dove la fatica, talvolta mortale, di molti uomini, come i minatori per esempio, possa essere risparmiata? In fin dei conti, sono gli uomini a scrivere gli algoritmi.
R. Credo si possano avere entrambi. Possiamo trarre giovamento dai benefici dei computer e dei robot senza sacrificare le nostre capacità. È un tema che riguarda una maggiore attenzione nel considerare l’uso e i limiti della tecnologia digitale.
D. Lei più volte segnale il rischio di una involuzione cognitiva dell’uomo: sollevandoci dalla fatica di pensare, la tecnologia, alla fine, ce lo renderà impossibile. Quindi i figli che stiamo allevando saranno un generazione a perdere? O c’è margine per introdurre dei correttivi?
R. Non lo vedo in termini generazionali. Penso che il pericolo di un’eccessiva dipendenza dai computer riguarda gli anziani come i giovani. In effetti credo che i giovani potrebbero scagliarsi contro il dominio degli schermi. Di solito sono le nuove generazioni che si ribellano allo status quo e, spero, sarà così anche in futuro.
D. Giovani che si ribellano, lei dice. Per questo c’è chi considera lei e gli altri scettici dell’automazione come nuovi luddisti. La storia ha dimostrato che Ned Ludd aveva torto, però. Questo paragone la fa arrabbiare?
R. Non credo che i Luddisti avessero sbagliato. Temevano che i macchinari avrebbero distrutto la loro piccola produzione, il loro modo di vivere e le loro comunità, e questo è accaduto. I luddisti hanno proposto un modo di pensare criticamente riguardo a come la tecnologia modifica la nostra vita. Quindi non è un problema se mi chiamano luddista. Non lo vedo come un insulto.
D. Senta, ma da dove viene il pericolo maggiore oggi? Dai social networks che ci avvolgono, ci controllano, ci profilano, o piuttosto l’industria dell’hardware e del software?
R. Personalmente, credo che le grandi compagnie di internet e social media, Google, Facebook, Amazon e così via, stiano creando la più grande minaccia. A differenza delle machine del passato, gli algoritmi che regolano i social media e le operazioni su Internet sono invisibili. Non sappiano come funzionano. Così aumenta il rischio di manipolazione.
D. Qual è l’emergenza secondo lei?
R. Che come individui e società, abbiamo bisogno di sapere esattamente come queste compagnie operano, quali dati hanno su di noi, cosa ne fanno e come i loro algoritmi lavorano. In particolare dobbiamo sfidare l’ideologia dominante della Silicon Valley che mi colpisce per essere fondamentalmente misantropica.
D. Senta però ora ci dica qual è il suo rapporto personale con la tecnologia? Quanta ne usa e come fa a tenerla a bada?
R. Cerco di essere più critico riguardo la tecnologia, tanto da usare solo gli strumenti che arricchiscono la mia esperienza e evitare quelli che la impoveriscono.
D. E ci riesce?
R. Non mi è riuscito sempre bene. Le tecnologie digitali possono essere molto seduttive. Ma ci provo comunque.
twitter @pistelligoffr
Goffredo Pistelli, ItaliaOggi 10/6/2015