Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2023  marzo 20 Lunedì calendario

Sorpresa algoritmo: ci legge nel pensiero

In tecnologia, ogni strappo che spinge in avanti la ricerca è sempre preceduto da alcune scosse. E di scosse che annunciano l’inizio di una nuova era negli ultimi mesi ne abbiamo avvertite parecchie. Dal chatbot ChatGPT che stila saggi in cui parla di sé stesso fino al software DALL-E che crea illustrazioni partendo da una parola, il trend è chiaro: siamo all’alba dell’era dell’IA generativa. Un’era in cui le macchine possono imitare ogni manierismo della nostra voce e tradurla in tempo reale in tutte le lingue conosciute. Un’era in cui, grazie alla ricerca sviluppata da un team di scienziati giapponesi dell’università di Osaka, quegli stessi algoritmi adesso potranno essere utilizzati anche per leggerci nel pensiero.
PROGRESSI
La task force guidata dal ricercatore Yu Takagi lavora al progetto da più di dieci anni ma la svolta è arrivata proprio grazie ai recenti progressi nell’IA generativa. Utilizzando Stable Diffusion, un software incluso nella versione 2.0 di DALL-E, il team di Takagi è riuscito a ricreare immagini "mentali" partendo da alcune scansioni cerebrali. I risultati sono sorprendenti: di 10mila foto mostrate ai soggetti che si sono prestati all’esperimento, il software è riuscito a ricostruirne più di mille.
Funziona così: dopo aver visualizzato alcune foto, i partecipanti vengono sottoposti a una serie di risonanze magnetiche. Le scansioni così ottenute vengono poi date in pasto all’algoritmo, che lavora per tradurle nuovamente nelle immagini pensate originariamente dal soggetto. All’inizio l’IA "veggente" mostra su schermo solo un segnale statico, che si arricchisce man mano di dettagli fino a trasformarsi in un orsacchiotto, una cascina nel bosco, un aereo al decollo. Più che leggere, il software in realtà "ipotizza" cosa stia accadendo nella nostra mente, associando gli input presenti nelle risonanze al database su cui è stato addestrato. Ma lo fa con una precisione dichiarata dell’80%. E il risultato finale, almeno a giudicare dalle immagini pubblicate, è incredibilmente simile all’originale.
Certo parliamo di un progetto ancora allo stadio embrionale. Intanto perché il modello è stato testato solo su quattro persone, ed è subito emerso come il software funzioni meglio su alcuni individui piuttosto che su altri. Oltretutto, per calibrare il software sono necessarie lunghe sessioni di scansione e l’uso di enormi macchinari per la risonanza magnetica.
EVOLUZIONE
Un approccio non proprio tascabile né adatto ad un uso quotidiano, insomma. Ma che rappresenta comunque un enorme passo avanti rispetto a quanto visto finora. Netta l’evoluzione rispetto a quel Neuralink promesso da Musk, che per funzionare richiede una procedura chirurgica estremamente invasiva. E un passo avanti anche rispetto a quel Synchron Switch che consente di pilotare uno smartphone con la mente, ma che richiede l’introduzione di alcuni sensori sottopelle. Combinando l’IA generativa con le scansioni cerebrali, la variabile chirurgica diventa così un problema del passato.
E si può già pensare alle prime applicazioni pratiche. La bussola della ricerca rimane salda verso l’obiettivo dichiarato di restituire voce a chi l’ha persa. Vengono subito in mente i casi più drammatici dei pazienti "locked-in", quelli rimasti cioè senza la possibilità di comunicare con il mondo esterno. Ma il team di Osaka si è spinto più in là della semplice applicazione medico-diagnostica. In un futuro non troppo lontano, spiegano i ricercatori, una versione più evoluta dello stesso modello potrebbe consentirci di creare immagini, scrivere libri o programmare usando semplicemente il pensiero.
LA SFIDA
Ma se davvero si riuscirà a miniaturizzare il processo quel tanto che basta a renderlo praticabile lato consumer, ci troveremo di fronte a una rivoluzione tale da far sembrare il braccialetto neurale di Meta (che è già in grado di tradurre i nostri impulsi cerebrali in comandi motori) vecchio di due generazioni ancor prima del lancio.
D’altronde il successo straordinario di Chat GPT parla chiaro: l’IA generativa al pubblico piace, in tutte le sue declinazioni. Google sta per portarla nella ricerca sul web, Microsoft nelle nostre case. La domanda è: siamo pronti? L’Ai Act, la prima legge europea sull’intelligenza artificiale, è ferma a Bruxelles da due anni. E non è detto che eventuali paletti su IA generativa e lettura biometrica entrino nel testo finale. Ma sono paletti imprescindibili in previsione di un futuro in cui questi device verranno progettati da aziende terze, che con la regolamentazione vivono da sempre un rapporto complicato. E che dalla lettura della nostra mente avrebbero tutto da guadagnarci.