ELENA DUSI , la Repubblica 20/3/2011, 20 marzo 2011
ECCO COME NASCE LA PRIMA PAROLA
Giochi, parole, movimenti, direzione dello sguardo, pianti e ridolini: i primi tre anni di vita del figlio di Deb Roy, ricercatore del Mit di Boston, sono stati tutti registrati. Attimo per attimo, dalle otto del mattino alle dieci di sera, in audio e in video, la sua storia di bebè è depositata in un server del MediaLab del Massachusetts Institute of Technology.
Un fotogramma dopo l´altro, il papà e i suoi colleghi stanno ripercorrendo la sua vita in uno sforzo che durerà forse il decuplo dei tre anni di registrazione. L´obiettivo: scoprire come un bambino impara a parlare.
«Nei primi mesi di vita le abilità linguistiche si evolvono di giorno in giorno. Non ha senso effettuare una registrazione ogni tanto, come avviene negli esperimenti normali. Il processo va colto nella sua continuità, nel momento stesso in cui si svolge» spiega Roy, che nei giorni scorsi ha presentato il suo esperimento alla conferenza Ted (Technology, Entertainment and Design) a Long Beach, in California, ripercorrendo in una sequenza audio il progresso da "ga-ga" a "wa-wa" fino alla parola "water". Inconsciamente, sia i genitori che la baby sitter davanti al piccolo Roy pronunciavano le loro parole lentamente, allungando le vocali e con una forte intonazione. Man mano che il bimbo acquisiva padronanza con un vocabolo, correggevano la sua pronuncia e iniziavano a inserire la parola in frasi sempre più complesse. All´età di due anni il bambino aveva imparato 503 termini.
Più che per i risultati - la cui analisi richiederà anni e che non appaiono per ora così rivoluzionari - l´esperimento colpisce per l´invasione totale della privacy che comporta. Casa Roy è stata cablata con un chilometro di fili elettrici, 11 telecamere e 14 microfoni montati sul soffitto di tutte le stanze della casa, bagno incluso. Unica salvezza per moglie e marito: un bottone con la scritta "Oops" sulla parete di ogni camera per cancellare gli ultimi minuti di registrazione.
Nel progetto soprannominato "Speechome" (da "speech" come discorso e "home" come casa), la combinazione di audio e video ha permesso ai ricercatori del MediaLab di collegare la "nascita" di ogni parola all´attività svolta in quel momento, alla stanza occupata, all´atteggiamento di madre, padre e baby sitter e perfino alla direzione del loro volto, per capire quale oggetto stavano inquadrando con lo sguardo durante le interazioni con il bambino.
L´obiettivo finale della ricerca di Roy - dopo aver sbrogliato la matassa dei 10 milioni di parole trascritte finora, solo una parte minoritaria dei 200 gigabyte di dati accumulati ogni giorno per tre anni - sarà quella di insegnare a parlare a un computer. Oltre a un figlio in carne e ossa, il ricercatore del Mit infatti ha anche una "creatura" di silicio chiamata Ripley cui finora, con sforzi enormi, è riuscito a insegnare solo i nomi dei colori e di alcune forme geometriche. Scandagliare il metodo che un bambino usa per imparare a parlare - spera Roy - gli permetterà di applicare la stessa strategia anche a un´intelligenza artificiale. Nel frattempo, tenendo i piedi molto più per terra, lo scienziato americano ha ottenuto un finanziamento per studiare i problemi di linguaggio dei bambini autistici.