Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2009  ottobre 01 Giovedì calendario

LE MACCHINE DEL SENSO


Domanda: «Quali sono gli altri film girati dal regista di Forrest Gump?». Un amico esperto di cinema lo ricorderebbe facilmente. Per un motore di ricerca, invece, sarebbe più difficile comprendere la richiesta e trovare una risposta su internet: la sua "memoria", infatti, è una galassia di documenti archiviati online. Una babele di segni connessi, simile alla via Lattea. Ma qualcosa sta cambiando. E alcuni giovani italiani sono in prima linea.
Sette anni fa Lorenzo Thione, milanese, arriva a San Francisco come ricercatore universitario: «A partire da tecnologie sviluppate nello Xerox Parc, ho costruito un algoritmo indipendente dalle parole e dal modo in cui sono indicizzate: è una formula matematica in grado di fornire risposte efficienti in tempo utile» dice Thione. Nel 2006 ha fondato con due amici Powerset, un motore di ricerca che utilizza tecniche semantiche (cioè per l’analisi del senso delle parole), dimostrandone le potenzialità sui testi di Wikipedia. Si può scoprire subito, per esempio, che a girare Forrest Gump è stato Robert Zemeckis, risalendo agli altri film dove era dietro la macchina da presa. Powerset convince Microsoft: è stato integrato nel motore di ricerca Bing ed è diventato una marcia in più nella competizione con Google. Che età ha Thione adesso? Trent’anni. E se pensate a un cervellone rinchiuso nella sua stanza, sbagliate. Ha in cantiere una produzione teatrale per Broadway che andrà in scena nel 2011.
Allora le macchine saranno presto in grado di capire domande molto precise, senza doversi più scervellare per trovare le parole chiave adatte? «In teoria un’interfaccia in grado di "capire" la lingua naturale è già progettabile, ma il processo sarebbe lentissimo: ecco perché viene ridotto a un linguaggio "controllato", cioè comprensibile per le macchine» evidenzia Massimo Marchiori, 39 anni, ricercatore all’università di Padova. Negli anni 90 le formule del suo progetto HyperSearch hanno contribuito a Pagerank, l’algoritmo che è l’anima di Google. Chiarisce il matematico di Mestre: «Immaginiamo che le pagine web siano persone: ho proposto di non osservarle singolarmente, ma di analizzare le loro conversazioni (cioè i link) per capirne la rilevanza». Marchiori ha spiegato la sua idea in una conferenza a Santa Clara, in California: tra gli ascoltatori c’era Larry Page, uno dei fondatori di Google. Che, in seguito, ha confermato i meriti del matematico italiano. «Ora siamo fermi alla seconda fase: possiamo conoscere persone (le pagine web) e gli amici (attraverso i link), ma non capiamo cosa si dicono. Il problema principale resta la velocità», sottolinea Marchiori.
A coordinare lo sforzo globale per l’esplorazione della galassia in espansione di internet è arrivato anche Tim Berners Lee, l’inventore del web, con il consorzio W3C. su questa scia che lavora all’Eire Giovanni Tummarello. Veronese, 33 anni, il suo progetto di punta è Sig.ma: dopo ogni domanda, estrae le informazioni dai siti (testi, video, fotografie, cifre) e li organizza in una scheda. Provate con il vostro nome o con un personaggio famoso. Sono sistemi già impiegati da aziende per i loro portali web. Eppure ognuno di noi, a volte senza saperlo, contribuisce all’impresa collettiva di rendere intellegibile il web per le macchine. A partire dai social network. Spiega Tummarello: «Quando accettiamo gli amici su Facebook, diciamo che preferiamo o meno qualcosa: in questo modo creiamo un’informazione strutturata». Nel mondo dei blog si parla, invece, di folksonomy: «Sono categorie (tag) aggiunte dalle persone ai propri post che contribuiscono a migliorare i risultati delle ricerche», ricorda Marco Palombi, napoletano, fondatore di Splinder.
La nascita di Google. L’ascesa di Bing. L’impegno globale per il web semantico. Dovunque i contributi italiani sono in primo piano. L’analisi del linguaggio attraverso grandi quantità di testi e le conoscenze semantiche semi-formalizzate di internet avranno un impatto sulla sanità, sul governo, sulla business intelligence e, soprattutto sulla vita quotidiana della gente» commenta David Ferrucci di Íbm research, un pioniere (statunitense) degli studi sull’intelligenza artificiale. Ma c’è un altro sentiero che, a pochi passi dalla Stazione Termini di Roma, sta percorrendo un gruppo di ricercatori: una strada che può portare alla comprensione dello sviluppo del linguaggio. Stefano Nolfi dell’Istc-Cnr fa parte del team internazionale di Italk, un progetto legato al robot iCub dell’Istituto italiano di tecnologia: «I sistemi di ricerca su internet sono simbolici: si basano su una descrizione grammaticale del linguaggio, ma non sono davvero in grado di comprendere» osserva Nolfi. Invece, iCub deve apprendere il linguaggio da zero, attraverso prove ed errori. Come un bambino. «E sviluppa capacità comportamentali, cognitive e linguistiche, imparando dall’ambiente e dalle persone» evidenzia Nolfi. Magari iCub non saprà dire chi è il regista di Forrest Gump, ma sarà un esperimento che potrebbe svelare aspetti finora invisibili nei processi cognitivi umani.