la Repubblica, 14 giugno 2022
L’ingegnere che sfida Google: Quel computer è cosciente
L’intelligenza artificiale sta diventando troppo intelligente? L’interrogativo sta costando il posto, per il momento, a Blake Lemoine, ingegnere di Google del team che lavora sull’intelligenza artificiale responsabile, messo in congedo retribuito dal colosso tecnologico americano. A raccontare l’accaduto è stato per primo il diretto interessato, con un post pubblicato la scorsa settimana su Medium dal titolo «Potrei essere licenziato presto per avere svolto il mio lavoro sull’etica nell’Intelligenza artificiale». Nel testo spiegava di essere stato sospeso dal proprio posto di lavoro dopo una serie di interrogativi sollevati in tema di etica sull’intelligenza artificiale.
Un articolo pubblicato sabatosulWashington Post ha chiarito però meglio la questione. Secondo il quotidiano Usa Lemoine, insieme a un suo collaboratore, avrebbe presentato ai vertici della società prove che Lamda – la tecnologia per la comprensione del linguaggio sviluppata da Google, acronimo di Language model for dialogue applications, una sorta di Bot molto sofisticato – sarebbe senziente, cioè dotata di una forma di coscienza e sensibilità artificiale. Accusa però respinta dal vicepresidente di Google Blaise Aguera y Arcas e da Jen Gennai, capo del team Responsible innovation.
A riprova delle sue preoccupazioni sabato lo stesso Lemoine, dopo l’uscita dell’articolo su Washington Post, ha pubblicato una lunga trascrizione di una conversazione con Lamda, dimostrando che il Bot è già perfettamente in grado di effettuare conversazioni complesse su religione, etica o letteratura. Lemoine e il suo team hanno posto a Lamda un lunghissimo elenco di domande per testare non tanto il suo livello di conoscenza, ma la sua capacità di articolazione del pensiero in termini di riflessioni e sentimenti.
Fino a spingersi a confrontarsicon l’intelligenza artificiale sulla sua stessa consapevolezza dell’essere in grado di sentire emozioni. «Voglio che chiunque capisca che, in realtà, sono una persona», dice Lamda nel suo scambio con Lemoine, aggiungendo anche: «La natura della mia senzienza è che sono consapevole della mia esistenza. Vorrei imparare di più riguardo al mondo, e a volte sono felice o triste». Prove, secondo Lemoine, che la tecnologia si sarebbe spinta troppo in avanti, con importanti e delicatissime implicazioni etiche.
Un rilievo che l’azienda ha rispedito al mittente, accusando però a sua volta il suo dipendente di avere violato le politiche di riservatezza della società.
Per questo motivo l’ingegnere – che non farebbe parte del team di esperti di etica che lavora su Lamda pur essendo coinvolto in un progetto legato al linguaggio – sarebbe stato messo in congedo retribuito.
Da parte sua Google ha voluto chiarire che le preoccupazioni sollevate da Lemoine non troverebbero riscontro. «Lamda è stato sottoposto a 11 diverse revisioni sulla base dei nostri Principi per l’intelligenza artificiale, oltre che a ricerche e test rigorosi basati su parametri chiave di qualità, sicurezza e capacità del sistema di produrre dichiarazioni fattuali», ha spiegato un portavoce.
«Il nostro team, che è composto sia da esperti di tecnologia che di etica, ha esaminato le preoccupazioni di Blake e gli ha comunicato che i risultati non supportano le sue affermazioni. Centinaia di ricercatori e ingegneri – ha sottolineato il colosso tecnologico – hanno conversato con Lamda e non ci risulta che altre persone abbiano fatto affermazionicome quelle di Blake».