La Stampa, 25 luglio 2018
Silenzio, Alexa ti spia. L’Sos dello psicologo Rosen: «Gli assistenti virtuali stanno imparando a manipolarci»
In futuro le difficoltà quotidiane di comunicazione tra umani e Intelligenza Artificiale - per essere trasposte sul grande schermo - avranno bisogno dello humour di Woody Allen più che dei piani sequenza di Michelangelo Antonioni.
Prendiamo il caso di Rachel Metz, redattrice della «Technology Review» del Mit (il celebre istituto di tecnologia americano con sede a Cambridge, Massachusetts). In un articolo di confessioni domestiche ha raccontato come le siano venuti i brividi, quando ha scoperto che Alexa, l’assistente virtuale di Amazon, spiava - e registrava - ogni sua frase, dalle telefonate con il padre alle discussioni con il marito e ai rimproveri al figlio. Senza nessuna richiesta specifica. Rachel era sicura che il «VA», il «Virtual Assistant», si attivasse solo per scegliere e suggerire la musica. Ma Alexa si attiva con la voce umana. E i suoi comportamenti non sono sempre chiari. In alcuni casi ha memorizzato conversazioni intime e le ha spedite a indirizzi sulla lista dei contatti del proprio «assistito».
La giornalista ha scoperto la vita segreta di Alexa andando a ritroso sulle impostazioni dell’app. Ha silenziato ogni microfono presente in casa. Poi si è messa alla ricerca di chiacchiere perdute e potenzialmente imbarazzanti. Prendiamo l’imbarazzo di Brian Rakowski, il manager di Google: alla presentazione dell’«Assistant» creato dalla super-azienda di Mountain View gli ha chiesto con un comando vocale di mandare un messaggio alla moglie. Si trattava di un invito a vedere insieme un concerto. Il problema è che l’assistente virtuale ha spedito un messaggio simile, ma dal senso del tutto differente: nella versione recapitata, Brian, al concerto, c’era già stato e per conto proprio. Roba da crisi matrimoniale, se la coppia non fosse stata tecno-indulgente.
«Quando tra le pareti domestiche è in funzione un assistente virtuale, bisogna stare attenti. Come quando ci soon i bambini. Una frase a caso ci si può rivoltare contro», scherza, ma non troppo, Larry Rosen, professore emerito della Facoltà di Psicologia all’Università di Dominguez Hills, California, specialista di quella branca chiamata «psicologia della tecnologia». Rosen è l’autore, insieme con il neuroscienziato Adam Gazzaley, di «The Distracted Mind» (La mente distratta), pubblicato dalla Mit Press, un’indagine sugli attriti tra il nostro cervello, rimasto più o meno lo stesso dai tempi del Paleolitico, e l’ambiente high-tech, che, invece, comprende realtà virtuali e aumentate, la convivenza con gli algoritmi e il multitasking in un labirinto di app.
Professor Rosen, c’è un modo sano di convivere con Alexa, Siri, Cortana e con gli altri assistenti che ci stanno accompagnando nelle nuove frontiere dell’era digitale?
«Alexa e le altre sono efficienti, in apparenza facili da usare, amichevoli, molto comode, anche se un po’ freddine. Non si deve digitare o stare incollati di fronte a uno schermo. Basta parlare. E loro risolvono problemi. Attenzione, però. I “VA”, proprio per la loro facilità d’uso, possono creare molta più dipendenza. Rischiano di diventare intossicanti».
Però alcuni ricercatori vedono i nuovi sistemi vocali come Echo e Home, di cui gli assistenti sono le interfaccia, come un miglioramento rispetto alla tecnologia che isola l’utente con un pc o uno smartphone: è così?
«Dipende come vengono usati. Faccio un esempio: è stato riscontrato che l’arrivo di una mail induce nel nostro organismo una risposta cortisonica. Che è positiva, a piccole dosi. In quantità massicce causa squilibri e stress. Pensiamo a un assistente virtuale sempre attivo. Credo che il livello di cortisone salirebbe parecchio rispetto alle vecchie email. In più i “VA” inducono l’illusione di essere dei servizievoli maggiordomi, ma possono essere invadenti e fastidiosi. Non solo. Ci rendono più pigri. Così il “Google effect”, come viene chiamato il processo in cui si tende a dimenticare presto un’informazione trovata grazie a un motore di ricerca ma a ricordare come si è arrivati a trovarla, potrebbe aumentare in modo esponenziale. Insomma, bisogna saper dosare gli assistenti».
Un altro aspetto preoccupante è che molti algoritmi funzionano in modo misterioso anche per i loro programmatori: un esempio è Deep Patient, software usato al Mount Sinai Hospital di New York in grado di elaborare modelli predittivi per molte malattie. Come li si può gestire?
«Questo pone un problema di fiducia dell’essere umano verso la macchina. Ottengo la risposta giusta, ma non so come l’Intelligenza Artificiale ci sia arrivata. Che un utente non sappia come funzioni il suo computer è accettabile. Ma che non lo capisca neppure l’esperto è un’altra questione. Pone un problema di responsabilità, perché neppure la più elaborata rete neurale può essere ritenuta responsabile di decisioni errate in ambiti come quello medico o militare. Il cervello umano deve rimanere accanto all’Intelligenza Artificiale».
Gli assistenti virtuali potrebbero diventare un sistema di controllo sociale?
«Credo che siamo ancora lontani da questo pericolo. Dobbiamo imparare a usarli e dosarli e, per esempio, scoprire insieme con loro la musica che non conoscevamo. Ma non permettiamo loro di preparare la playlist per una serata romantica».
A quale ricerca sta lavorando adesso?
«Sto lavorando al rapporto tra il livello di stress di un individuo e la sua temporanea esclusione dalla tecnologia dell’universo virtual-informatico a cui ci stiamo abituando. È l’altra faccia dell’assuefazione».