Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2015  aprile 23 Giovedì calendario

UN AMORE DI ROBOT

Immaginate di tornare a casa dal lavoro: aprite la porta e il piccolo automa si sveglia dal suo torpore digitale, vi saluta e vi chiede come state. «È ora di cena», esclama, «per caso devo ordinare dal cinese?». Rispondete di sì e, mentre lui contatta il negozio online per il servizio a domicilio, vi fa ascoltare il messaggio vocale che la vostra fidanzata gli ha affidato per voi.
Il primo robot familiare della storia si chiama Jibo e sarà consegnato entro fine anno a chi lo ha acquistato online (a 400 euro) rispondendo alla campagna di raccolta fondi sul sito Indiegogo.com. Poi sarà venduto a tutti gli altri. Jibo è l’evoluzione degli studi ultraventennali di Cynthia Breazeal, professore associato al Mit Media Lab, che nel 1990 aveva creato Kismet, il primo robot sociale in grado di simulare emozioni con l’uso di espressioni facciali e gorgheggi, e nel 2002 Leonardo, creatura animatronica realizzata col mago degli effetti speciali Stan Winston.
Ma se quei progetti erano confinati in laboratorio, Jibo entrerà nelle nostre case, coinvolgendo, secondo le intenzioni della sua “mamma hi-tech”, tutta la famiglia e capovolgendo il rapporto che ormai abbiamo con la tecnologia personale: anziché guardare lo schermo di un tablet o di uno smartphone, parleremo col piccolo automa, che ci informerà sulle ricette disponibili in Rete o sul meteo, ci scatterà le foto insieme a parenti e amici, ci ricorderà gli impegni in agenda. Non solo: permetterà di sperimentare la cosiddetta “telepresenza”, ovvero sfruttare il “corpo” del robot (il suo schermo lcd, le telecamere ad alta definizione, i microfoni e gli altoparlanti) per consentire di interagire con l’ambiente domestico anche a chi si trova lontano da casa. In prospettiva l’idea è quella di creare un compagno ideale che racconti le fiabe ai bimbi, intrattenga gli adulti, aiuti gli anziani o le persone sole.
Naturalmente perché l’interazione sia convincente è necessario che Jibo instauri un legame emotivo con chi lo circonda. L’evenienza di per sé non è poi così remota, come dimostrano alcuni studi: Matthias Scheutz, direttore del Laboratorio di interazione uomo-robot della Tufts University, ha verificato che ci sono persone in grado di stabilire un rapporto affettivo persino con i robot aspirapolvere, al punto di mandarli ogni tanto in “ferie” pulendo al posto loro; in modo analogo, Jennifer Carpenter, ricercatrice dell’Università di Washington, ha riscontrato l’empatia che alcuni soldati mostrano verso gli automi usati sul campo di battaglia per disarmare bombe e mine, tanto da provare una profonda tristezza se esplodono in servizio.
Casi limite. Al di fuori dei quali coinvolgere un essere umano, per un robot, può risultare più arduo. «Jibo lo fa anzitutto con il linguaggio del corpo», spiega Roberto Pieraccini, responsabile del linguaggio del robottino, «e assume pose in grado di esprimere sorpresa, tristezza, gioia, con la stessa efficacia di un cartone animato: per esempio se gli chiedi che tempo fa, potrebbe rispondere “c’è freddo, mettiti il cappotto!” e poi tremare con un brivido. Una reazione più calda, certo, rispetto alla risposta di un tablet».
Pieraccini, 59 anni, per oltre 30 si è occupato di tecnologie linguistiche per l’interazione uomo-macchina, tanto da scrivere il libro The Voice in the Machine (Mit Press), e oggi fa parte del team di Jibo. «All’inizio dirà frasi semplici e sarà in grado individuare felicità o infelicità dei suoi interlocutori facendo la scansione dei volti», continua lo scienziato italiano. «Poi, col passare del tempo, parlerà in maniera più ricca e coinvolgente, in modo analogo a quanto fanno altri programmi vocali come Siri, quello che si trova su iPad e iPhone. Proprio l’assistente virtuale di Apple dimostra come oggi le tecnologie, che permettono a un robot di capire il linguaggio naturale dell’uomo, stiano facendo passi da gigante: grazie alla potenza di calcolo disponibile nel cloud (una “nuvola” di computer collegati tra loro per condividere le prestazioni, ndr) e alla banda larga, sono le domande stesse che la gente pone continuamente a permettere al software di imparare. Più difficile per il programma è capire se chi parla è felice o triste». Chi promette di farlo è Pepper, in vendita (a 1.400 euro circa) dal mese scorso in Giappone e più in là negli Usa e in Europa.
«Pepper è un robot umanoide interattivo che è in grado di comprendere le emozioni delle persone», spiega Bruno Maisonniers, fondatore della società francese Aldebaran che nel 2006 aveva prodotto Nao, un robot educativo, e ora ha creato il “successore” per la società giapponese di telecomunicazioni Softbank. «Il segreto è il “motore emotivo” che analizza il tono di voce dell’interlocutore, le espressioni del suo volto, i movimenti del corpo e rumori come la risata. Da questi elementi Pepper “interpreta” le emozioni della persona che ha davanti, così può rispondere in modo appropriato usando non solo la voce, ma anche suoni e il movimento di testa e braccia». Lo fa in modo convincente? Presto lo scopriremo...
Pepper e Jibo rappresentano solo l’alba dei robot in grado di stabilire un contatto profondo con le nostre emozioni. Ma le ricerche scientifiche condotte sul tema aprono grandi prospettive. Wendi Heinzelman, professore di ingegneria elettronica e informatica all’Università di Rochester, lavora da tempo a un algoritmo per individuare l’emozione dal tono e dal volume della voce: il computer non analizza il significato ma il suono delle parole pronunciate da alcuni attori, per imparare il rumore prodotto da una persona felice, arrabbiata, impaurita, disgustata e così via e per mettere in pratica poi l’insegnamento. Maja Pantic, professore di computazione affettiva e comportamentale all’Imperial College di Londra, invece si è concentrata sul volto e tenta di insegnare a un computer, attraverso registrazioni video e analisi software, come estrarre informazioni dalle espressioni facciali, per capire le emozioni che esse veicolano.
Il programma per ora è capace di riconoscere fino a 30 differenti “stati d’animo” e di stabilire, per esempio, dai tempi di reazione e dalla durata, se una risata è spontanea: o meno. La ricerca è ancora agli inizi, perché le sfumature emotive su un volto umano sono molte di più. Naturalmente, una volta ridotte le emozioni ai loro componenti minimi espressivi e vocali, sarà possibile costruire una sorta di grammatica da insegnare ai robot, in modo che possano riprodurle in accordo con le informazioni che ricevono dall’interlocutore. Per questo c’è chi come Mehdi Dastani, professore associato all’Università di Utrecht, studia da anni come insegnare ai robot anche una logica delle emozioni, in modo da associarle in maniera appropriata a un pensiero razionale. Quando si parla di robot sociali inoltre non bisogna sottovalutare l’effetto psicologico che la macchina produce sull’essere umano col proprio aspetto. «Nel realizzare Jibo abbiamo optato per un display che può mostrare un occhio stilizzato ma anche raccontare fiabe con disegni, scartando l’idea di una faccia antropomorfa come quella di Pepper», spiega Pieraccini, «per evitare di avvicinarci alla cosiddetta uncanny valley, teorizzata da Masahiro Mori nel 1970, ovvero quel rifiuto psicologico che il nostro cervello crea quando un robot ha un viso troppo simile all’uomo, ma non completamente credibile». E nell’approccio al robot sociale non bisogna sottovalutare la voce: «Abbiamo scelto di mescolarne una sintetica con quella di un attore, per renderla meno respingente, soprattutto per i bambini», continua Pieraccini.
Per ridurre le distanze, suggerisce Andrea Thomaz, professore associato al Georgia Institute of Technology, una strada potrebbe essere quella di realizzare macchine in grado di imparare da una dimostrazione fatta dalla persona, come sperimenta in laboratorio col robot Curi, che è in grado di scolare la pasta e assimilare altri gesti copiando quelli di un umano. Dal punto di vista psicologico la relazione tra insegnante e allievo sembra avvicinarci agli esseri fatti di motori e sensori. È probabile che, grazie a rilevatori più sofisticati, potenze di calcolo maggiori e software sempre più complessi sviluppati grazie alla ricerca, i robot inizieranno a capire ed esprimere sempre più emozioni, assumendo le caratteristiche dell’umanità. «Dire quando avverrà è impossibile», spiega Pieraccini. Ma in fondo per ora basta che i robot siano attori convincenti, recitando una parte, come in fondo fanno Jibo e Pepper. «Per essere coinvolti emotivamente non è necessario associare a Jibo a una persona», conclude Pieraccini, «è sufficiente considerarlo un personaggio».
Marco Consoli