La Stampa, 22 febbraio 2017
La corsa per l’Algoritmo Definitivo: «Vedrà anche i tumori in anticipo»
«Un algoritmo è una sequenza di istruzioni che dice a un computer cosa fare», dice Pedro Domingos, professore di computer science all’università di Washington e autore del bestseller «L’algoritmo definitivo» (Boringhieri). «I computer contengono miliardi di interruttori, i transistor, che gli algoritmi accendono e spengono miliardi di volte al secondo». Lo stato di un transistor – racconta – corrisponde a un bit di informazione: vale 1 quando il transistor è acceso, 0 quando è spento. Nel computer della vostra banca, per esempio, c’è un bit che dice se il vostro conto è in rosso».
«Gli algoritmi si combinano per utilizzare i risultati di altri algoritmi e i risultati finiscono in pasto a ulteriori algoritmi – aggiunge –. Formano così un nuovo tipo di ecosistema paragonabile per complessità solo alla vita stessa. Come in tutti i paradisi, però, anche qui c’è un mostro: la complessità. Una è quella spaziale, lo spazio occupato dall’algoritmo nella memoria del computer. Poi c’è la complessità temporale, il tempo necessario per eseguire l’algoritmo stesso. Il volto più spaventoso del mostro, tuttavia, è la complessità umana: quando gli algoritmi si fanno troppo complicati perché il nostro cervello possa capirli, all’interno si insinuano errori che non riusciamo a trovare e tantomeno a correggere e così l’algoritmo non fa ciò che vorremmo».
In soccorso arriva il «machine learning», l’apprendimento automatico, che è una branca dell’Intelligenza Artificiale, quella alla base di AlphaGo. Il principio è replicare il processo di apprendimento volto all’esecuzione di un compito. Invece che disegnare un algoritmo che esegue una specifica sequenza, implementando un modello matematico del fenomeno da riprodurre, si creano algoritmi di tipo più generale, il cui scopo è regolare parametri, ad esempio di una rete neurale, in modo che le risposte ai valori in entrata – come delle immagini – incorporino una conoscenza pregressa.
Esistono vari tipi di apprendimento: l’apprendimento supervisionato, in cui vengono forniti i dati di input (come l’immagine di un nevo) e i risultati previsti («maligno» o «benigno»), o quello non supervisionato, in cui si inseriscono input senza che vi sia un output noto. Qui lo scopo è scoprire schemi nascosti: un esempio è il «clustering», in cui i dati vengono suddivisi per somiglianza al fine di scovare fattori comuni. È il caso delle analisi di immagini istologiche che hanno identificato alcuni fattori rilevanti per la sopravvivenza al tumore della mammella che erano sfuggiti agli umani per 80 anni.
C’è, infine, l’apprendimento con rinforzo, quello di AlphaGo: gli input sono immessi attraverso l’interazione con un ambiente che varia e lì le azioni danno luogo a una ricompensa o a una penalità. L’algoritmo, quindi, cerca di svolgere un compito massimizzando la ricompensa. «Esistono cinque approcci al machine learning e funzionano per certi compiti, ma non per tutti. Ciò che vorremmo – conclude Domingos – è un unico strumento, l’Algoritmo Definitivo». Se esiste, è in grado di dedurre dai dati tutto il sapere: passato, presente e futuro. «La sua invenzione rappresenterebbe uno dei più grandi passi della storia della scienza».