Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2016  maggio 28 Sabato calendario

COSÌ GLI ASSISTENTI DI GOOGLE

& CO. PENSERANNO PER NOI–

Negli ultimi sei anni gli investimenti sull’Intelligenza Artificiale sono stati rilanciati con una crescita di 15 volte rispetto al 2010. L’automazione cognitiva è diventata uno dei mercati più strategici nel medio periodo, con la prospettiva di valere 31 miliardi di dollari nel 2019, e di raddoppiare ogni venti mesi. Per la sociologia è la promessa di un mondo di assistenti virtuali assemblati come freak sensoriali (orecchi, lingue, occhi, bracci meccanici, reti di neuroni), che leggeranno per noi, organizzeranno gli appuntamenti, terranno sotto controllo la casa, ci trasporteranno in auto – e ci imboccheranno di gusti e desideri commerciali.
Eppure questo non è un mondo per androidi.
C’era una volta il paradosso di Moravec. Bastava invocare il suo nome per allontanare fiducia e investimenti da qualunque progetto di Intelligenza Artificiale. Nella sua formulazione emergeva la difficoltà che si oppone al compito di riprodurre l’apprendimento umano, e il sospetto di essere inciampati in qualche fatal error sulle previsioni di funzionamento della nostra stessa conoscenza. Hans Moravec è un profeta della robotica dagli anni Ottanta: il suo paradosso afferma che «con un computer è facile ottenere prestazioni da adulto nei test di intelligenza o nel gioco degli scacchi, mentre è difficile o impossibile riconoscergli anche solo le capacità di un bimbo di un anno, quando si passi alla percezione o al movimento».
Dal 2010 l’automazione del pensiero e la robotica hanno ricominciato a sedurre l’attenzione dei capital venture e dei giganti della Silicon Valley. La riscossa si è consumata scavalcando il problema Moravec con la strategia più efficace: ignorare la difficoltà e separare in percorsi diversi gli ambiti in cui si articola l’intelligenza. Negli ultimi sei anni Venture Scanner conta 910 startup ormai consolidate, e investimenti complessivi di circa 9 miliardi di dollari per il loro finanziamento. Le società si sostengono con una media di 50 dipendenti ciascuna, e una raccolta fondi per dieci milioni di dollari; il loro insediamento è avvenuto soprattutto negli Stati Uniti, nel Regno Unito e in Canada.
Il settore si è smembrato in almeno una dozzina di categorie di specializzazione, dal riconoscimento di pattern (logici, figurativi, sonori), alla comprensione del linguaggio naturale, alla traduzione simultanea, all’orientamento in ambiente reale e alle scelte comportamentali. I primi due segmenti per volumi di investimenti sono il deeplearning, considerato nella sua generalità (il processo che consente alle macchine di imparare a imparare in modo autonomo), e le sue applicazioni specifiche. L’urgenza di predisporre un’offerta commerciale in grado di compensare i costi di finanziamento, ha fatto preferire le declinazioni settoriali alla ricerca fondamentale: di conseguenza, 263 imprese si sono dedicate a prodotti di dettaglio (come il riconoscimento delle frodi bancarie, l’individuazione di processi chimici per la farmacologia, o la scoperta di profili di acquisto sul mercato domestico), e solo 150 alla costruzione di algoritmi più universali – quelli che permettono alla macchina di imparare a imparare. La scoperta di configurazioni stabili nei Big Data è il tema di qualunque processo di apprendimento: la macchina gioca a unire i puntini fino a quando trova una forma significativa. I modelli vengono ricavati da un palinsesto di tentativi, in cui si sovrappongono prove di strutturazione fino all’emersione di una regola stabile: così l’automa genera algoritmi per la lettura delle correlazioni tra i dati che ha recepito.
L’espansione del mercato avviene tramite le operazioni di acquisto delle startup da parte dei giganti della Rete (Google, Amazon, Apple, Facebook, Ibm, e a partire dal 2016 anche Salesforce): secondo CB Insight, questo tipo di operazioni ha conosciuto un in cremento di 15 volte dal 2010 al 2015. Ma l’aristocrazia della Silicon Valley si è attrezzata anche in casa propria: a Cupertino sono stati assunti 86 esperti di Intelligenza Artificiale dall’inizio dell’anno, mentre a Mountain View sono impiegati più di mille dipendenti a tempo pieno su cento progetti paralleli.
Nel 2014 Google ha acquistato per 600 milioni di dollari in contanti la startup britannica DeepMind, l’impresa più promettente in questo campo. Ricordando il clamore sollevato da Ibm con la vittoria contro il campione di scacchi Gary Kasparov nel 1997, Mountain View ha ripetuto l’operazione nel marzo 2016 con Lee Sedol, campione mondiale di Go. Quello che è cambiato è lo scenario, dal momento che nel 1997 l’avversario era ancora di nazionalità russa, e che il numero medio di mosse che il giocatore di scacchi può compiere a ogni turno si ferma a 35; ora il nemico è cinese, e per Go la combinatoria sale a 250. Nella serie di cinque partite, il software sviluppato da DeepMind targata Google, e battezzato AlphaGo, ha prevalso per 4-1. Il virtuosismo di intuizione e fantasia del software ha valicato i confini dell’intrattenimento, finendo per catturare l’attenzione della rivista Nature e imporsi come argomento di dibattito scientifico. Il cervello artificiale ha mostrato i suoi muscoli di silicio, senza muovere un dito. L’omaggio a Moravec era d’obbligo.
Ma oltre a compiere virtuosismi sulle plance da gioco, DeepMind incarna la piattaforma di evoluzione di tutta l’infrastruttura di Google. In meno di dieci mesi Alphabet ha rilevato altre tre startup di grandi dimensioni, Jetpac, Dark Blue Labs e Vision Factory. Il loro contributo ha focalizzato il virtuosismo degli algoritmi generali di apprendimento in settori specifici, quello della visione e quello della comprensione del linguaggio umano. Ne hanno beneficiato sia la ricerca di immagini, sia la costruzione dell’assistente domestico Google Home, presentato il 20 maggio all’evento I/O, la conferenza annuale in cui Big G presenta le ultime novità.
L’aggiornamento del settembre scorso che ha investito l’algoritmo di base del motore di ricerca, denominato BrainRank, è caratterizzato dall’iniezione di intelligenza artificiale nella macchina che ascolta le nostre domande sul web e schematizza le risposte. In realtà, la descrizione di un altro digital assistant di Google, Allo, all’I/O chiarisce che l’assistente personale immaginato da Alphabet ha molte facce e un destino comune, quello di confortarci con tutte le risposte prima ancora che qualche domanda abbia iniziato a tormentarci. Sundar Pichai, amministratore delegato del motore, vuole una piattaforma in cui «ogni utente possa modellare il suo Google personale». Allo è l’assistente con cui sarà possibile conversare tramite scrittura, sui monitor dei desktop, dei cellulari e dei tablet. Google Home invece è un dispositivo che interagisce con la voce, destinato a competere contro Amazon Echo come coinquilino artificiale dei nostri salotti: collabora alla gestione degli impegni quotidiani e diffonde musica e notizie dalla Rete. Il nucleo del software è lo stesso, e si adatta alla varietà delle interfacce, aspirando a diventare come i suoi modelli – il computer di bordo di Star Trek o Hal 9000 in 2001: Odissea nello Spazio. Cerca di conoscere l’ambiente reale in cui viviamo, si impegna a indicarci dove abbiamo dimenticato il maglione blu, a ricordarci che dobbiamo uscire per un appuntamento, a segnalarci che il frigo è deserto e che sta per scadere il tagliando dello scaldabagno. Per il controllo della temperatura di casa, e per il risparmio di energia, non avrà nemmeno bisogno di interrogarci: disporrà il clima che preferiamo, inferendole dalle nostre abitudini; organizzerà l’uso degli elettrodomestici, in armonia con consuetudini e impegni segnati in agenda.
Amazon Alexa, che si esprime attraverso lo speaker Echo, ha insegnato a tutti che per suscitare l’entusiasmo delle folle non occorre aspettare la realizzazione di androidi capaci di percepire l’ambiente di casa, e di muoversi come un maggiordomo factotum: basta convincere le persone ad accogliere un ospite a forma di cilindro, alto poco più di 20 cm, capace solo di ascoltare e parlare. Sa comprendere i comandi indispensabili, risponde correttamente quanto basta, e va fortissimo nel raccomandare prodotti e servizi del catalogo Amazon al momento giusto. Apple ha già messo in circolazione Siri da anni sugli iPhone, Microsoft ha sviluppato Cortana, Facebook ha rilasciato M; ma l’interpretazione delle domande, la ricerca di risposte adeguate e la formulazione di consigli commerciali, sono le materie su cui Google eccelle su chiunque altro. Lo ha ribadito Sundar Pichai quando ha proclamato che «oggi possiamo fare cose che prima non avremmo mai pensato di saper fare», grazie a Knowledge Graph, l’apoteosi dei Big Data, il repertorio di conoscenze sulla realtà offline che Alphabet alimenta dal 2013 tramite le informazioni che noi contribuiamo a classificare grazie alla compilazione crowdsourcing di Wikipedia, all’uso del motore di ricerca, ai movimenti in ambiente reale di Android, alle fotografie, ai video su YouTube. La configurazione di un Google personale da parte di ciascun utente, significa essere accompagnati da un assistente che sa cosa dovremmo domandare meglio di noi, per essere più brillanti, più interessanti, più amati, più appagati dai nostri hobby, più disposti a spendere – e che conosce cosa vorremmo comprare, quando l’impulso all’acquisto è stato opportunamente preparato.
Un nano paralitico, con un corpo composto solo da un orecchio e una bocca, è il tipo di domestico che ci si aspetterebbe di trovare a casa di Hieronymus Bosch; invece, come dimostrato da Echo, riscuote simpatia presso tutto il pubblico, ed è una mappa fedele dello stato dell’intelligenza artificiale. L’analisi dei processi linguistici, il riconoscimento vocale, l’assistente personale virtuale, sono i tre segmenti più coperti da finanziamenti e da startup, dopo i presidi di deep learning: nemmeno la Stasi ha mai preteso di più, né la propaganda fascista di guerra ha temuto altro.
Parla, l’amico (digitale) ti ascolta! L’imperativo è invertito di segno rispetto agli anni Quaranta, perché la collaborazione del pubblico nella produzione di informazioni è il compendio necessario – per fornirci le risposte più adeguate alle nostre domande e i consigli commerciali più adeguati a stimolare e soddisfare i nostri desideri – dei 31,3 miliardi di dollari che, secondo il primo documento semestrale 2016 di previsioni dell’IDC, costituiranno nel 2019 il mercato complessivo dei Sistemi Cognitivi Automatici, con una crescita tendenziale del 55% ogni anno. Questa somma è solo un corollario del volume di 135,4 miliardi stimato per il mercato della robotica nel 2019 – quasi il doppio dei 71 miliardi raggiunti nel 2015. Eppure senza le nostre fotografie, il software DeepFace di Facebook non saprebbe su cosa dilettarsi per identificare e taggare i nostri volti; senza le informazioni da noi stessi fornite la stessa frustrazione colpirebbe il software di analisi dei contenuti video su YouTube, quello delle raccomandazioni di prodotti su Amazon e Spotify, quello della traduzione simultanea e dei robot che leggono le emozioni.
E le cose non vanno meglio sul versante dell’automazione: i robot vedono cose che ancora non sanno immaginare, come i battaglioni di droni Kiva che governano i magazzini di Amazon senza più coordinamento umano (nel 2012 l’investimento di Jeff Bezos per rilevare la società produttrice è stato di 750 milioni di dollari in contanti); o capiscono cose di cui non scorgono l’aspetto, come accade agli assistenti di Google Home e Allo, a Nest e ad Alexa. Tra quanto tempo i nostri bambini cominceranno a somigliare a loro?