Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2017  ottobre 12 Giovedì calendario

Le zone d’ombra dell’intelligenza artificiale

Crolli e rimbalzi istantanei dei prezzi. Flash crash che sembrano scomparsi ma, in realtà, sono ancora ben presenti nelle Borse. Certo, non si vedono più, anche grazie alla stretta dei regolatori, tonfi monstre come quello del 5 maggio 2010 a Wall Street. Ma i terremoti flash continuano a colpire: dalla sterlina (19 maggio del 2017) ai titoli di Amazon (mini flash crash del 9 giugno scorso) fino al future sull’argento (7 luglio 2017). Un susseguirsi di “scrolloni”. Spesso provocati per fare soldi. In altri casi, invece, danni collaterali di sofisticatissimi algoritmi. Un’operatività automatica che non di rado si presenta oscura agli stessi esperti. «In certe condizioni di mercato – spiega Cathy O’Neil, già professoressa di matematica al Barnard College ed ex analista quantitativa nel noto hedge fund D.E.Shaw – l’intero ecosistema, pieno di complicati trading automatici, diventa imprevedibile. Caotico nel significato matematico del termine».
Meccanismi complessi
Insomma: la tecnologia in Borsa non quale semplice strumento. Bensì come habitat che da una parte diventa sempre più autoreferenziale e, dall’altra, rischia di assumere i caratteri dell’incomprensibilità. «Il tema esiste – afferma Enrico Malverti, co-fondatore di Cyber Trade, una società Fintech che si occupa di robotrading e roboadvisory – e tuttavia, eviterei gli allarmismi». Vale a dire? «In primis, finora, il problema è solamente sul breve periodo. Riguarda particolari tipologie di scambi intra-giornalieri». In un arco di tempo maggiore, al contrario, «continuano a incidere variabili tradizionali quali, ad esempio, i risultati economici di un’azienda». Inoltre, «gli algoritmi, dal più semplice al più complicato, prevedono meccanismi di gestione del rischio. Basta pensare ai banali “stop-loss”». Di conseguenza l’impatto sul mercato «può, e deve, essere limitato». Ciò detto però la sempre maggiore diffusione di robot-investitori, agevolati dalla super-informatizzazione dei mercati, spinge verso l’adozione di sistemi altamente complessi. Compresa la stessa intelligenza artificiale. Un contesto in cui il fenomeno della non comprensione di quanto accaduto nel sistema stesso (“black box” nel gergo dei mercati finanziari),«può costituire – ammette lo stesso Malverti – un problema reale».
Sistemi neurali e «black box»
Già, reale. Ma in cosa consiste veramente una “black box”? Per rispondere può farsi l’esempio di un’intelligenza artificiale basata sul sistema neurale. Questo, già studiato negli anni ’70 e oggi in voga grazie ai big data e alla potenza di calcolo, in parole molto semplici funziona così: il sistema prevede un’operatività in parallelo e a più livelli. L’informazione (input) viene immessa nel nodo (neurone simulato) il quale, dopo averla «elaborata», la trasmette ai nodi successivi e in parallelo. Si giunge così a un primo risultato (output) transitorio. Questo viene «passato» al livello superiore dove si ripete il processo. Di livello in livello si arriva all’elaborazione finale dell’informazione. Ebbene: un simile sistema è considerato autodeterminato. L’input (informazione iniziale) viene definito come dato certo (ad esempio, l’immagine di un uomo). L’output (informazione finale) deve essere coerente con l’input: la macchina deve indicare che si tratta di un uomo. Fino a quando ciò non accade il procedimento viene ripetuto. Alla fine l’intelligenza artificiale riconoscerà l’uomo e i percorsi seguiti nell’elaborare gli input saranno stati decisi in autonomia dall’Artificial intelligence (Ai). E qui, a fronte del fatto che i sistemi neurali prevedono milioni di nodi, può sorgere il problema della “black box”. Ovvero della non comprensibilità dei processi che hanno portato a un certo risultato.
Non solo finanza
Ora, è chiaro che l’esempio realizzato costituisce una semplificazione ed è null’altro che un archetipo. Tuttavia appare utile a far comprendere la complessità del tema. Un’articolazione che, con riferimento ad altre tipologie di Ai, la stessa “Mit Technology Review” sottolinea. La rivista riporta, al di fuori del mondo finanziario, l’esperienza in un ospedale di New York. Qui l’intelligenza artificiale è stata utilizzata sui dati che riguardavano circa 700mila individui. Il robot ha scoperto correlazioni nascoste tra i dati e ha diagnosticato diverse malattie che altrimenti sarebbero passate inosservate. Un successo. Senonché l’Ai è stata anche in grado di rilevare i sintomi di possibili casi di schizofrenia. Un risultato raggiunto, però, senza che i medici fossero capaci di comprendere quali “ragionamenti” la macchina avesse realizzato. «Noi costruiamo i modelli – ha affermato Joel Dudley, responsabile del programma – ma non sappiamo come veramente lavorano». Certo, può obiettarsi: non c’è un reale problema; l’importante è che il risultato sia corretto. Vero. Ma cosa succede se l’output è errato? A ben vedere non comprendere qual è il meccanismo su cui si basa il risultato finale è un rischio.
Il tema, ovviamente, è complesso. «In altri casi di utilizzo dell’Ai nella diagnostica medica – spiega al Sole 24 Ore Daniela L. Rus, direttore del Computer science and artificial intelligence laboratory del Mit – il margine d’errore del robot è risultato del 7,5%». Quello dei medici umani del 3,5%. «Ma nel momento in cui c’è stata la collaborazione tra uomo e macchina la percentuale d’errore è scesa allo 0,5%». Vale a dire: l’interazione tra il medico e l’Ai è la strada giusta, quella da seguirsi.
Possibili soluzioni
Il ragionamento dell’uomo che interagisce con la macchina è ragionevole. E, tuttavia, il tema della “black box” resta. «Si tratta – spiega Giorgio Metta, vicedirettore dell’Iit e “papà” del robot umanoide iCube – di un problema di complessità. In linea teorica una piccola rete neurale potrebbe comprendersi nei suoi passaggi». E, però, per funzionare ha bisogno di «milioni e milioni di neuroni simulati. Quindi l’elemento “black box” è ineludibile». Una questione non da poco, insomma. Che induce preoccupazione. «Evitiamo il terrorismo mediatico.Dapprima – aggiunge Metta – anche i sistemi informatici “tradizionali” possono fare emergere le medesime difficoltà». Inoltre la soluzione che può porsi rispetto, ad esempio, a determinati «output che hanno effetti nell’immediato è la cosiddetta ridondanza». Cioè? «Costituisco altri sistemi neurali; oppure meccanismi di backup, di cui conosco il funzionamento, capaci di sostituire quello in errore». Come dire, quindi, che le soluzioni possono trovarsi.
Ciò detto, fin qui sono state indicate alcune suggestioni rispetto al tema in generale della “black box” e dell’Ai. E, tuttavia, l’esplosione dell’utilizzo dei big data, su cui la stessa Artificial intelligence spesso si basa, porta con sé problemi più specifici. Per capire quali, bisogna ritornare al mondo della finanza. «Le difficoltà nascono – riprende Cathy O’Neil, autrice tra l’altro del libro “Armi di distruzione matematica” (Bompiani) – quando le persone si fidano ciecamente dei sistemi d’intelligenza artificiale». Invece dovrebbero «chiedersi se il meccanismo è corretto, giusto». Basta in tal senso pensare ai modelli finanziari che, ad esempio, vengono utilizzati per concedere oppure no il mutuo sulla casa. Qui si cercano «di quantificare concetti complessi quali quello del “buon impiegato”». Una situazione in cui l’«ingiustizia – dice O’Neil – è dietro l’angolo».
Il nodo dell’affidabilità creditizia
Per rendersene conto può ricordarsi, tra le altre cose, come funzionano i cosiddetti electronic score. Negli Stati Uniti diverse società, al fine di costruire modelli che definiscono l’affidabilità creditizia di un possibile mutuatario, attingono a piene mani dai big data. Cioè: non solo sfruttano modelli basati esclusivamente sulla situazione economica del potenziale debitore. Bensì, grazie a complessi algoritmi, utilizzano anche «la navigazione in Internet della persona, le sue abitudini d’acquisto, l’ubicazione del suo computer e tanto altro ancora» spiega O’Neil. Vale a dire: desumono, in via indiretta e da dati non strutturati, il merito di credito. Con il che possono nascere problemi. Simili informazioni spesso sono soggette a nessuna regolamentazione. Quindi ci sono scarsi appigli legali per chiedere la motivazione dell’eventuale diniego.
Non solo. Può accadere, ricorda O’Neil, che se una persona si collega a Internet da un turbolento quartiere di periferia il sistema gli attribuisca un punteggio elettronico basso. E questo nonostante lui sia un soggetto irreprensibile. Di nuovo, anche a fronte del fatto che questi meccanismi matematici non vengono resi pubblici, sarà difficile modificare la scelta. «La problematica – dice Stefano Zanero, professore associato del dipartimento di Elettronica, informazione e bioingegneria del Politecnico di Milano – è indubbia. Nei controlli anti-frodi informatiche sui conti correnti viene, ad esempio, usata l’Ai “non supervisionata”». Cioè: un sistema che costruisce lui il modello per capire se ciò che accade è anomalo rispetto ai dati storici. Nuove correlazioni, tuttavia, che potrebbero essere sbagliate. «In tal senso – conclude Zanero – oltre a validare i dati, è necessario applicare simili innovazioni con gradualità. Partendo prima da situazioni non definitivamente pregiudizievoli per un’azienda o una persona».