Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2016  marzo 24 Giovedì calendario

A.I. LIKE– [IN UN ANONONIMO UFFICIO FACEBOOK STA INSEGNANDO AI COMPUTER COME PREVEDERE I BISOGNI DEGLI UTENTI]


Tutti gli operatori sono occupati, attendere in linea per non perdere la priorità acquisita. Lo sappiamo perfettamente com’è stare al telefono per minuti e minuti nell’attesa di poter ascoltare una voce amica e accedere al servizio richiesto. Presto tutta questa inutile perdita di tempo, energie e soldi sarà un lontano ricordo. Non appena Facebook avrà finito la fase di sperimentazione di M, il suo nuovo assistente virtuale integrato nella chat Messenger. A M si potrà chiedere aiuto per organizzare una cena di compleanno, per trovare l’auto sotto casa o per prenotare un tavolo al ristorante. Immaginate di chattare con un amico e di parlare di uno show musicale: durante la conversazione M sarà in grado di chiedervi se volete acquistare un biglietto o di proporvi quali altri concerti ci sono nella stessa sera.
All’inizio gli assistenti virtuali avevano funzioni limitate, ed erano in grado di rispondere solo a poche richieste precise: che tempo farà oggi? Quali sono le ultime notizie? Mostrami le indicazioni stradali per tornare a casa. Tutto è cambiato quando hanno cominciato a comprendere il linguaggio naturale, integrandosi ai servizi e offrendo assistenza anche per acquisti e prenotazioni. A fare la differenza oggi è un tocco più “umano”, quell’abilità di utilizzare tutte le informazioni disponibili per suggerire diverse soluzioni. Per rendere a portata di smartphone questo livello di complessità, però, serviranno ancora anni di ricerca e sviluppo degli algoritmi dell’intelligenza artificiale. Una ricerca già iniziata: decine di scienziati infatti sono in questo momento al lavoro dentro il Facebook Artificial Intelligence Research (Fair).

Dentro, il Fair non è molto diverso da un ufficio qualsiasi: non ci sono ologrammi, robot che si aggirano né gente che smanaccia comandi gestuali in aria o che indossa visori. Solo scrivanie piene di computer che si susseguono negli open space. Il progetto che si porta avanti qui è invisibile, concentrato sull’obiettivo di dare alle macchine l’abilità di apprendere senza essere state esplicitamente programmate per farlo. Nessuno ha un mandato per lavorare su un’area specifica: si studia il riconoscimento del linguaggio naturale, la comprensione e interpretazione di immagini e video e, in ultima battuta, l’apprendimento automatico delle macchine. Si guarda al futuro a 10 anni da oggi, anche se capita spesso che gli avanzamenti vengano testati e utilizzati nei prodotti strada facendo.
L’ufficio parigino di Facebook è piccolo, troppo piccolo per ospitare un laboratorio di ricerca importante come quello dedicato all’intelligenza artificiale: a 9 mesi dalla sua inaugurazione, nel giugno dell’anno scorso, ci lavorano già 15 persone provenienti da tutta Europa e altre sono attese nei prossimi mesi. La sede locale del Fair è stata aperta lo scorso giugno per rispondere alla necessità di allargare il team senza rinunciare a quei ricercatori che non volevano trasferirsi negli Stati Uniti, a Menlo Park o New York. La scelta di Parigi è stata facile, dicono in Facebook, perché gli scienziati francesi sono riconosciuti tra i migliori del mondo e perché qui è stato possibile fare un accordo con l’Inria, l’Istituto Nazionale di Ricerca in Informatica e Automatica francese, che garantirà una serie di opportunità a ricercatori e studenti coinvolti nel programma di Facebook. Dopo l’estate si uniranno al team altri ricercatori, compresi tre provenienti dalla Russia, dal Senegal e dall’Italia.
I risultati della ricerca condotta fin qui hanno già avuto impatto su Moments, l’applicazione di Facebook per le foto: ora riconosce le facce degli amici nella galleria fotografica dello smartphone, in base alla geolocalizzazione le raccoglie in album dedicati a singoli eventi e permette di condividerle automaticamente sul social network solo con i contatti presenti nella foto stessa. L’altro prodotto che utilizza intelligenza artificiale, come abbiamo detto, è M: in questo caso, la chat è portata avanti dagli algoritmi, assistiti da un team dedicato al dialogo che insegna a comprendere la conversazione, aiuta a rispondere alle domande degli utenti e suggerisce come sviluppare ulteriormente il discorso in base agli interessi manifestati dalle persone proprio su Facebook.
E poi, ovviamente, c’è la timeline: fin dal suo lancio del 2006, l’algoritmo è stato interamente basato sull’intelligenza artificiale, per stabilire quali delle decine di aggiornamenti delle centinaia di contatti mostrare di volta in volta. Per esempio, maggiore è il numero di interazioni con una persona, maggiore è la probabilità di vedere un suo post nel News Feed, così come di vedere più foto o più video se si dimostra interesse verso un particolare tipo di format. Il prossimo passo sarà spingere l’analisi del contenuto fin dentro le immagini, per arrivare a raffinare le proposte anche in base al loro contenuto. Non solo genericamente foto o video, ma foto e video di qualcosa in particolare: gatti, bambini, sport, cibo o altro ancora. «La cosa che più mi colpisce è la velocità di sviluppo della ricerca sull’intelligenza artificiale», dice Florent Perronnin, direttore del Fair di Parigi. «Non solo oggi siamo arrivati a un punto impensabile solo pochi anni fa, ma ormai bastano appena due settimane da quando otteniamo un risultato per vederlo integrato nei prodotti».

Un altro progetto che Facebook sta sviluppando si chiama “Embed the world” (includi il mondo) e punta a migliorare al massimo i suggerimenti di amici da aggiungere o contenuti da visualizzare a seconda delle interazioni con tutti i post passati in timeline: like, foto e video. È una sfida enorme che richiede tutta la potenza di calcolo dei tre centri di ricerca per essere realizzata al meglio. Si basa contemporaneamente su riconoscimento testuale, logica computazionale e computer vision. Basti pensare che ogni giorno vengono processati i dati di 800 milioni di nuove foto caricate sulla piattaforma e 2 miliardi di video riprodotti dagli utenti di tutto il mondo.
L’obiettivo del social network è garantire la serendipità: non quindi usare l’intelligenza artificiale per segnalarti quello che già ti interessa, ma sfruttarla per predire e raccomandare qualcosa che è probabile che ti piacerà nel futuro. «Uno dei progetti che stiamo sviluppando a New York punta a modificare i suggerimenti che Facebook ti dà rispetto alle storie che leggi o condividi, proponendo non altre fonti della stessa notizia, ma diversi punti di vista per approfondirla», racconta Perronnin.
I protocolli su cui si basano le raccomandazioni attuali sono basati sul cosiddetto reinforced learning e sono solo la ciliegina sulla torta dell’intelligenza artificiale: gustosi, ma del tutto marginali. I ricercatori sono già al lavoro sulla glassa, che rappresenta il supervised learning, mentre la torta vera e propria l’avremo quando le macchine saranno in grado di apprendere ed evolversi in perfetta autonomia, anche se c’è più di qualche timore per un futuro governato dai computer. Secondo un sondaggio realizzato lo scorso dicembre dall’Ifop, l’Istituto Francese per l’Opinione Pubblica, il 65% dei cittadini è preoccupato dalla crescente autonomia delle macchine.
Calma. «Innanzitutto, siamo lontani diversi decenni dal costruire macchine davvero intelligenti: ci sono principi basilari dell’apprendimento autonomo che ancora non abbiamo capito. E poi non abbiamo computer abbastanza potenti per la quantità di calcolo che andrebbe processata, quindi dobbiamo comunque aspettare un miglioramento della tecnologia per poter proseguire», dice Yann LeCun, da due anni alla guida del programma Fair. Informatico, ha pubblicato contribuiti su machine learning, computer vision, robotica e neuroscienze computazionali, è docente alla New York University e da quest’anno anche al Collège de France. «Creare macchine intelligenti è troppo complicato per gli ingegneri, quindi non possiamo far altro che programmarle per imparare e poi trovare il metodo migliore per insegnare loro a studiare da sole», aggiunge.
L’apprendimento supervisionato è simile a quello che si tenta con i bambini piccoli quando si fanno vedere immagini di cose o animali pronunciandone il nome. Le macchine sono come i bambini. Si mostrano loro migliaia di foto e si lascia che l’intelligenza artificiale sistemi i parametri fino a produrre la risposta corretta. «Questa parte funziona molto bene ed è efficace per riconoscere e organizzare immagini: su Facebook viene utilizzata per proporti il tipo di foto a cui hai mostrato più interesse nel News Feed. È l’approccio che usano anche altre aziende, come Google, Flickr, Microsoft e Ibm». L’algoritmo utilizzato è in giro da diversi anni: viene usato per il riconoscimento automatico di oggetti, facce e loghi e per l’analisi di documenti. È la stessa tecnica su cui LeCun ha sviluppato un modello di apprendimento grazie al quale oggi oltre l’80% degli assegni degli Stati Uniti sono processati automaticamente. Il problema è che per sfruttare questo metodo c’è bisogno di tanti dati, perché la macchina imparerà solo quello che le mostri ed è quindi obbligatorio elaborare singolarmente tutte le informazioni necessarie.

«Un altro tipo di apprendimento è quello rinforzato e assomiglia agli addestramenti degli animali da circo, che vengono premiati quando rispondono a uno stimolo nel modo corretto», spiega Perronnin. «In questo caso, le macchine sono costruite per massimizzare la ricompensa e quindi tenteranno risposte diverse per capire quale sia la risposta più appropriata quando si dovesse ripetere quella situazione». Questo genere di insegnamento è molto lento, richiede diversi tentativi e funziona bene con i giochi, perché la macchina può avere un quadro completo di tutte le opzioni disponibili entro poche ore. Un buon esempio è Deep Blue, il computer di Ibm che nel 1996 vinse la prima partita di scacchi contro il campione del mondo in carica, Garry Kasparov. Qualche settimana fa, DeepMind è stata la prima macchina in grado di battere un campione a Go, antico gioco orientale simile agli scacchi. Per programmarla, i risultati dell’apprendimento supervisionato sono stati raffinati con l’apprendimento rinforzato, raggiungendo un livello insperato solo due anni fa, quando si era ipotizzato servissero ancora una decina d’anni di ricerca per arrivare a una vittoria del computer contro un umano.
Poi c’è l’apprendimento non supervisionato, che è quello che fa più paura, perché suona come se le macchine, senza controllo, potessero decidere di conquistare il mondo. «In realtà si tratta di un metodo simile a quello con cui gli umani capiscono come funziona il mondo semplicemente osservandolo», se la ride LeCun. «Ti basta guardare per sapere che un libro in bilico su una scrivania cadrà se qualcuno urterà la scrivania. Non abbiamo ancora davvero capito come applicare questo ragionamento alle macchine. Qui a Parigi stiamo provando con la programmazione neurolinguistica, che funziona abbastanza bene: sottoponiamo pezzi di testo alle macchine e chiediamo cosa succederà dopo». Ma questo metodo non funziona con i video.
Lo stato delle macchine, oggi, è come quello di un neonato che riconosce le immagini, ma ha un’esperienza limitata. Così come per i bambini quello che non vedono non esiste (ed ecco perché si divertono tanto a fare “bubu settete”), anche i computer non sono in grado di considerare elementi diversi da quelli del calcolo a cui stanno lavorando. «Dopo pochi mesi l’uomo è perfettamente in grado di capire che, se una persona lascia la stanza, continua a esistere al di fuori di essa. Una macchina non lo sa ancora». Se un computer analizzasse il video di un oggetto in movimento, nel momento in cui passasse dietro un altro oggetto più grande verrebbe considerato assente anziché nascosto. Questa analisi è importante anche per insegnare alle macchine la dimensione del tempo, anche se ancora non è stato trovato un metodo adatto per farlo. «Al momento non sappiamo nemmeno come porre il problema correttamente: potrebbero volerci anni, decenni», ammette LeCun.

Eppure il timore di un’intelligenza artificiale cattiva è già reale, tanto che il fisico Stephen Hawking, il co-fondatore di Apple Steve Wozniak e il boss di Tesla e SpaceX Elon Musk si sono uniti a centinaia di altri esperti nel firmare una lettera aperta che chiede lo sviluppo dell’intelligenza artificiale solo a fin di bene e di bandirne l’utilizzo bellico. «Le macchine sono specializzate, sono costruite per uno scopo e miglioreranno da sole solo per il compito per cui sono programmate: se è stata creata per guidare guiderà, non avrà mai l’idea di ribellarsi e investire passanti», dice il capo del programma Fair. Ci vengono in mente Person of Interest e la battaglia tra Samaritan e The Machine: è possibile un futuro in cui due intelligenze artificiali combatteranno tra loro? «È possibile, come già oggi ci sono già macchine che combattono contro altre macchine: hacking scripts e virus da una parte, crittografia e antivirus dall’altra. Ma è comunque sempre l’uomo a manovrarle. Chiedersi se l’intelligenza artificiale avrà i nostri stessi valori morali è una domanda filosofica: l’etica delle macchine è lontana ancora diversi decenni, ma è qualcosa a cui dobbiamo cominciare a pensare oggi, così come ci siamo interrogati per tempo sull’etica della biologia o sul dna».