Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2015  febbraio 21 Sabato calendario

ROBOCOLF


Camerieri, badanti, assistenti alle vendite. Ma anche insegnanti di sostegno e attori. Fino a vent’anni fa il 90% dei robot erano usati nella manifattura delle auto dove svolgevano compiti ripetitivi. Oggi la percentuale si è ridotta al 50%. Il resto è diviso tra ospedali, magazzini, laboratori e altre industrie. Automi intelligentissimi che stanno cambiando la natura del lavoro in modo radicale.
E per questo che la Stanford University ha appena annunciato AI100, uno studio di proporzioni gigantesche (durerà 100 anni!) che mormorerà gli effetti dell’intelligenza artificiale sulla vita quotidiana. Cosa succederà quando le macchine diventeranno superintelligenti e consapevoli? Secondo il fisico Stephen Hawking ci dovremo fare da parte: ci sorpasseranno. «La macchina evolverà da sé, si riprogetterà a una velocità crescente. Gli uomini, limitati dalla lenta evoluzione biologica, non potranno competere, e verranno rimpiazzati». Una predizione catastrofica che per fortuna non è condivisa da molti. «I rischi ci sono, ma il pieno dispiegamento dell’intelligenza artificiale è ancora lontano», dice Tony Cohn, professore alla Leeds University, «certamente non accadranno durante la mia esistenza». Anche per Bruce MacDonald, ricercatore dell’Auckland University, non c’è da preoccuparsi: i cambiamenti tecnologici semplicemente amplificheranno quello che possiamo fare noi. Faremo di più ma a un livello più sofisticato. «Dopo tutto la calcolatrice non ha fatto fuori i commercialisti», dice. In pratica una persona con una cassetta degli attrezzi ha più valore di una senza. Lo stesso accade a una persona con un computer e a una persona assistita da un robot. Pensiamo agli ospedali, dove ci sono compiti che potrebbero essere interamente delegati all’automazione – come la distribuzione dei pasti – permettendo agli infermieri di girare più spesso per le corsie e di concentrarsi per più tempo sul benessere dei pazienti.
Nel frattempo l’armata dei robot avanza inesorabile nel mondo reale. Entro il 2017 il Giappone, che già detiene il 60% del mercato, diventerà il primo paese al mondo per numero di automi. Lo scorso gennaio al Consumer Electronics Show di Las Vegas è stato presentato Furo-i Home, un robot alto una quarantina di centimetri con le sembianze di un cono su ruote e un tablet al posto della testa che riconosce le espressioni del viso. Costa relativamente poco, circa 1000 dollari, e può essere usato per una varietà di compiti casalinghi tra cui accendere e spegnere le luci, la musica, il riscaldamento, ma anche svegliare un anziano, prendere il polso, ricordargli di prendere la medicina, preparargli la colazione. Non sarà ancora all’altezza di una badante in carne e ossa, ma se c’è qualcosa che non va Furo-i è in grado di avvertire i familiari con un messaggio e di metterli in contatto con una video chat. Futurebot spera di venderne almeno 10mila entro l’anno.
In alcune scuole l’automa è già salito in cattedra. Come insegnante di sostegno. È il caso di Nao, un nanerottolo alto una sessantina di centimetri già “di ruolo” in alcuni istituti del Connecticut e a Birmingham, nella Topcliffe Primary School. A molti di noi l’idea può far storcere il naso. Pare invece che Nao sia particolarmente adatto a trattare con i bambini autistici. Le ragioni sono tante. Essendo piccolo i bambini sono meno intimiditi nel giocare con lui. A differenza di un computer può instaurare una relazione. Nao canta, balla, può parlare lentamente, domandare un’informazione e attendere con pazienza una risposta. Se la risposta è giusta dà subito un feedback: comincia a ronzare, alza le braccia, gli occhi si accendono e comincia a ridere. Se è sbagliata incoraggia a riprovarci. Paradossalmente, non reagendo in modo emotivo alle situazioni, rende gli alunni più sicuri e più capaci di concentrarsi sulla relazione con gli altri. «Per i nostri bambini è molto difficile esprimere delle emozioni», dice Jo Wilks, una delle insegnanti, «e anche seguire delle istruzioni. A volte però fanno col robot cose che sono riluttanti a fare con noi». Per esempio guardare negli occhi. Per questo Aldebaran Robotics, la casa produttrice, sta sviluppando un modello che traccia i movimenti facciali dei bambini in modo da fargli mantenere sempre un contatto visivo nella relazione.
George Clooney fatti più in là: in Giappone la Nestlè per vendere le macchine del caffè usa Pepper, un umanoide sviluppato da SoftBank Robotics e Aldebaran. «Che tipo di caffè beve?», chiede Pepper ai clienti. Poi, a seconda della risposta, spiega che cosa offre Nestlè e consiglia l’apparecchio adatto. Pare che Pepper sia il primo robot al mondo a riconoscere le emozioni umane, leggendo le espressioni del viso e ascoltando il tono di voce. Resta da vedere se i 1000 previsti entro la fine dell’anno saranno in grado di piazzare con le loro chiacchiere più macchine del caffè di un assistente alle vendite umano. Un esperimento simile e in corso a San Jose dove OSHbot è stato reclutato nel flagship store di Orchard Supply, un meganegozio di hardware. I clienti gli mostrano una lampadina, OSHbot la scannerizza, dopo di che li accompagna a prenderla in giro per lo stabilimento.
In tempi di Ebola cresce l’interesse per la disinfestazione. Chi può farlo meglio e senza alcun rischio di una macchina? In alcuni ospedali di Dallas, Gigi, un lontano parente del goffo R2-D2, è stato reclutato per uccidere i virus grazie alla luce ultravioletta. Niente sfugge a questo killer. Basta portarlo nella stanza di un paziente perché disinfetti e uccida ogni singolo germe sulle superfici, sotto il letto, tra le tende. «Possiamo pulire e igienizzare una stanza fino all’85%», dice Ray Casciari, l’esperto in malattie polmonari dell’ospedale, «ma con la luce ultravioletta possiamo arrivare al 99%». In più Gigi lavora 24 ore su 24 senza stancarsi. In questo modo sia infermieri che medici, esposti a rischi di ogni genere, possono stare tranquilli. Eppure chi pensa che i robot debbano svolgere solo lavori noiosi di routine che nessun umano è propenso a fare, sbaglia. Se il cervello è un computer, tratti prima considerati prevalentemente umani – creatività, immaginazione, coscienza – possono essere considerati l’equivalente di un software. Qualche mese fa un umanoide ha recitato in una riedizione della Metamorfosi di Kafka, La Metamorphose Version Androide che è andata in turnè dal Giappone alla Francia. Nell’originale Gregor Samsa si svegliava insetto, nella produzione del regista giapponese Oriza Hirata diventa un automa. «Volevo creare una situazione in cui un robot potesse commuovere il pubblico», racconta il regista che ha lavorato con l’Università di Osaka per creare un androide, Repliee S1, che potesse sorridere, ridere e recitare in modo empatico affiancando professionisti come Irene Jacob e Jerome Kircher. La produzione fa parte di un progetto sperimentale molto più grande, The Robot Theatre Project, che vuole diffondere l’uso di queste macchine nelle performance artistiche.