Il Messaggero, 12 maggio 2025
Caccia all’identità falsa che ruba faccia e voce
Nei giorni scorsi è circolato online un finto spezzone del Tg1 generato con l’intelligenza artificiale. Nel video, la conduttrice Valentina Bisti annuncia la morte del medico e professore Matteo Bassetti, ma è tutto falso. Hanno modificato le parole della giornalista e dello stesso Bassetti utilizzando il loro timbro di voce, e nel “servizio” viene inoltre mostrata una clip del presunto omicidio. È un estratto di una videocamera di sorveglianza, con un uomo dal volto coperto che si avvicina a un suv e apre il fuoco. «Il giorno prima della sua morte aveva rivelato a un nostro corrispondente informazioni scioccanti sul sistema sanitario che forse gli sono costate la vita», sostiene il deepfake. A un occhio (e orecchio) attento non sfuggono alcuni dettagli, come la fotografia di Bassetti che si sovrappone al braccio della conduttrice e il tono di voce dei due assolutamente straniante e poco veritiero.
L’INDAGINE
Ma il risultato è comunque clamoroso. Secondo un’indagine di Open, il video dell’omicidio sarebbe vero ma ovviamente – fuori contesto, risale infatti al 2021 ed è riferito a un caso di cronaca avvenuto a Dnipro, in Ucraina. L’obiettivo di questa operazione sarebbe stato quello di convincere gli utenti ad acquistare prodotti miracolosi per la propria salute utilizzando il volto dell’infettivologo. Prodotti che, ovviamente, miracolosi non sono. «Ecco l’ultimo attacco alla mia persona da parte del mondo no vax», scrive questa volta il vero Bassetti in un post.
LE REAZIONI
E aggiunge: «Vedere la voce modificata, il video del Tg1, i proiettili che mi colpiscono e il corpo riverso sul volante mi ha fatto veramente male. Bisogna fare di più per evitare questi episodi, la rete è un po’ come il far west». Anche la giornalista Valentina Bisti ha commentato l’accaduto: «Avete visto come è facile inventare o manipolare una notizia? Quando andate sui social fate attenzione». L’intelligenza artificiale più di altre tecnologie sta mettendo a dura prova il sistema informazione, ora che le fake news possono essere fabbricate modificando voce e volto delle persone coinvolte. Il sito americano 404 Media sottolinea che la frontiera sui deepfake sta ora raggiungendo traguardi preoccupanti, soprattutto per quanto riguarda le truffe online.
I malintenzionati sono in grado infatti di modificare voce, viso, etnia in tempo reale durante una comune una video-chiamata. Una tecnica conosciuta con il nome di morphing (morfismo in italiano), ovvero quando «si identifica un oggetto dell’immagine, tipicamente il viso, replicandone il dinamismo, e appicicando sopra il volto di qualcun altro», spiega Marco Ramilli, fondatore di IdentifAI, una startup italiana che ha sviluppato modelli di IA per scovare i video e le immagini fake. Una sottocategoria del morfismo è poi il lip-sync, cioè quando viene clonata la voce di una persona mettendogli in bocca parole che non ha mai pronunciato, come è il caso di Bassetti e di Bisti. E, avverte Ramilli,«Bastano pochi secondi di audio per replicare una voce. Per i personaggi pubblici che hanno tanti video disponibili online il lavoro è ancora più semplice».
IL TEAM
Può sembrare fantascienza, ma Ramilli e il suo team hanno costruito degli algoritmi di intelligenza artificiale cosiddetti avversari, addestrati appositamente a riconoscere il lavoro realizzato da altri modelli. Uno strumento di difesa, visto che in pochi anni quello del deepfake è diventato un falso facilmente realizzabile attraverso tanti strumenti gratuiti disponibili su internet. Data poi la mole di contenuti che ogni giorno vengono caricati sul web, ecco che i software avversari potrebbero diventare un potente alleato per proteggersi dalle bufale che quotidianamente diventano virali. Insomma, il male e il suo esatto opposto potrebbero avere lo stesso strumento in comune, l’IA. «Contro questi modelli di intelligenza artificiale generativa, noi abbiamo creato modelli che abbiamo chiamato degenerativi. Ne abbiamo circa 38, allenati per analizzare ogni singolo pixel di un’immagine per distinguere ciò che è vero da ciò che non lo è». Secondo Ramilli, oggi dobbiamo essere consapevoli che questi video fasulli esistono e fanno il giro del mondo in pochi secondi, «non è più appannaggio di grandi effetti speciali di Hollywood, basta un pc portatile». E concludono: «Dobbiamo accettare che viviamo in un mondo in cui la realtà è anche sintetica. Non c’è più reale e non reale. Oggi anche il video non è verità schiacciante».