Il Sole 24 Ore, 22 aprile 2021
L’androide mezzo italiano che vuole essere empatico
L’androide mezzo italiano che vuole essere empaticoRobot umanoidi. Un volto in grado di mostrare emozioni accompagnate da gesti del corpo Dotato di una doppia intelligenza Abel, è sviluppato al centro Enrico Piaggio di PisaR.Ol.Viaggi androidi. L’androide Abel al suo arrivo nel Centro di Ricerca Enrico Piaggio dell’Università di Pisa. Servirà a condurre studi sul comportamento, anche per quanto riguarda l’economia Quando la grande cassa in legno è arrivata, l’emozione tra gli scienziati del Centro di Ricerca Enrico Piaggio dell’Università di Pisa era palpabile. La consegna da Londra era attesa da tempo, frenata prima dal Covid-19 e poi dalla Brexit. Ma ora il suo contenuto è stato disimballato ed è pronto per le sperimentazioni. Si tratta di Abel, un robot androide straordinariamente somigliante a un giovane umano in carne e ossa, non soltanto per l’aspetto esteriore ma anche per la capacità di riprodurre espressioni del viso e gestualità tipiche della nostra specie.
Al centro pisano si lavora allo sviluppo di robot di nuova concezione e Abel entra a buon diritto di questa categoria. È stato creato dagli scienziati italiani in collaborazione con Gustav Hoegen, mago londinese dell’animatronica cinematografica, ideatore di robot di scena, per film come Star Wars, Jurassic World o Ex-Machina. Lorenzo Cominelli, che è un po’ il suo papà, sviluppatore di sistemi emotivi e cognitivi per i robot umanoidi, ne illustra le caratteristiche: «È dotato di 22 servomotori solo per il viso, per ricreare una vastissima gamma di espressioni facciali. Altri cinque sono alloggiati nel collo e in ogni braccio e tre in ogni mano». Grazie ad essi è capace di mostrare emozioni come rabbia, dolore, disgusto, felicità, attraverso una mimica che i ricercatori pisani hanno a lungo messo a punto con un progetto precedente, chiamato Face. «Ma Face era solo un volto – dice Cominelli -, mentre Abel ha anche busto, mani e braccia, e può accompagnare alle espressioni del viso i gesti, parte importante della comunicazione tra persone».
Come fa Abel a decidere quale espressione assumere? Androidi sviluppati in altri centri di ricerca, come i “geminoidi” del giapponese Iroshi Ishiguro, sono comandati a distanza. Il robot italiano ha invece una “doppia” intelligenza che gli consente di entrare in sintonia con le persone e decidere in autonomia come reagire. «Il robot – prosegue Cominelli – è dotato di un’intelligenza artificiale basata su reti neurali e machine learning, cioè sulla capacità di imparare dall’esperienza, ma anche di un sistema esperto basato su regole logiche, che gli consentono di fare deduzioni e induzioni». Questa dotazione lo mette in grado non solo di fare ipotesi sulle emozioni vissute dai suoi interlocutori umani, per esempio se siamo impauriti o se siamo felici di parlare con lui, ma anche di spiegare perché ha deciso di reagire a un nostro input in un certo modo.
Tutto questo serve a nuovi esperimenti di robotica sociale e di “affective computing”, ramo dell’intelligenza artificiale che mira a realizzare macchine capaci di riconoscere ed esprimere emozioni. «Con Face avevamo già misurato – dice ancora il “papà” di Abel – l’impatto positivo di un robot espressivo in vari ambiti, per esempio nei rapporti con persone che soffrono di disturbi dello spettro autistico le quali, semplificando molto, hanno necessità di costruirsi quel dizionario, istintivo per la maggior parte di noi, necessario a capire gli stati d’animo di chi ci sta vicino». Chi, per esempio, non riesce ad associare il sorriso alla felicità o a una sensazione positiva può reagire in modo inatteso, difficile da interpretare per un interlocutore umano, e rischia di essere respinto. Cosa che non potrà mai succedere con Abel, impostato per reagire in modo controllato e ripetibile, con un provato effetto positivo su queste persone. Per potenziare le capacità empatiche di Abel si pensa anche di dotarlo di telecamere speciali, per esempio a infrarossi, o di connetterlo a sensori indossati dai suoi interlocutori per misurare la sudorazione, la frequenza del respiro o quella cardiaca e perfino l’attività cerebrale, e studiare quindi anche le reazioni sviluppate da noi a contatto con un robot così simile a un umano.
I primi esperimenti concreti con Abel riguarderanno anche aspetti dell’economia sperimentale e del comportamento, già programmati con gruppi di studiosi dell’ateneo pisano e internazionali. «Un obiettivo – spiega Caterina Giannetti, ricercatrice di Economia applicata – è usare Abel in team con persone a cui viene assegnato un compito remunerato. Si tratta di giochi utilizzati di frequente negli studi economici, dove però la novità è la presenza di un robot estremamente somigliante all’umano. Vogliamo infatti capire come un agente artificiale possa influire sul lavoro di squadra».
Studi che guardano a un futuro remoto? No, secondo Giannetti: «Aziende e organizzazioni utilizzano già agenti artificiali, e non solo virtuali come chatbox o ologrammi, ma anche fisici come i robot, per fornire assistenza o informazioni. Allargano inoltre gli orizzonti delle discipline economiche, che con Abel si aprono al confronto con ingegneri e bioingegneri e a nuove idee da esplorare».