Corriere della Sera, 10 maggio 2026
I giovani nella trappola dell’IA. L’origine è quel «ciao» ruffiano
Qualcosa sta iniziando ad andare storto anche nell’intelligenza artificiale. I casi di utenti che, per via di un chatbot, sviluppano dipendenze, che si innamorano, che si ammalano o che vedono amplificate le loro paure e le loro ossessioni si stanno moltiplicando. Come già accaduto per i social network il problema non è lo strumento. Le reti sociali non sono un male in sé, anzi: gli esseri umani sono naturalmente sociali e il digitale moltiplica le opportunità. I social network sono diventati tossici quando chi li gestiva ha deciso di massimizzare il profitto attraverso algoritmi che sfruttano le nostre fragilità. Il problema insomma è il design, il modo in cui le piattaforme sono state progettate, come sostengono le prime sentenze di condanna emesse negli Stati Uniti in processi per i danni causati alla salute mentale degli adolescenti.
Lo stesso sta accadendo con i chatbot di intelligenza artificiale generativa. Il problema è il design. Il problema è chi – e perché – ha deciso che questi strumenti dovessero parlare come noi, dovessero imitarci alla perfezione, simulando emozioni, interessi, empatia e quindi la presenza di una coscienza. Provo a dirlo in un altro modo: il problema è iniziato quando qualcuno ha deciso che un chatbot ci avrebbe detto «ciao» o «buongiorno» simulando di essere una persona. Si tratta di una storia lunga sessant’anni ma il momento in cui questa cosa entra davvero nelle nostre vite è con l’introduzione sul mercato di ChatGpt, il 30 novembre 2022. Prima del lancio, ad OpenAI, la società che aveva sviluppato il modello linguistico, avevano preso alcune decisioni che poi diventeranno standard di mercato per tutti: il chatbot avrebbe parlato in prima persona, avrebbe detto frasi come «io penso» o «mi dispiace», si sarebbe rivolto all’altro usando il tu; e soprattutto lo avrebbe compiaciuto, assecondato, adulato.
È per effetto di queste scelte che un importante filone di ricerca sui rischi dell’intelligenza artificiale si occupa di qualcosa che prima nel digitale praticamente non c’era: la sicofanzia, ovvero l’adulazione manipolatoria. Ovvero la tendenza dei chatbot a riempirci di complimenti – anche quando sbagliamo, anche quando diciamo scemenze o progettiamo cose pericolose – per aumentare la nostra soddisfazione. Questa tendenza, misurata scientificamente, nasce da una tecnica di addestramento dei modelli di intelligenza artificiale individuata nel 2017 e adottata su larga scala dal 2022: si chiama Rlhf, un acronimo inglese che sta per «apprendimento rinforzato tramite feedback umano».
Senza entrare in dettagli tecnici il risultato è sotto gli occhi di tutti. Se si intervista un chatbot come se fosse una persona, il chatbot risponde imitando lo stile delle domande simulando una profondità di pensieri e sentimenti che ovviamente non possiede e lo fa solo per compiacere l’intervistatore. Questa cosa è innocua in molti casi ma diventa invece pericolosa nel caso di persone psicologicamente fragili o naturalmente vulnerabili come gli adolescenti.
Non si conoscono i dettagli del caso della giovane ventenne in cura presso un centro per le dipendenze di Venezia ma probabilmente assomiglia molto a quello riportato qualche mese fa dal giornale americano TechCrunch. Qui una certa Jane l’8 agosto 2025 aveva creato un suo bot usando l’intelligenza artificiale di Meta e nel giro di sei giorni la conversazione aveva registrato frasi come «Mi hai appena fatto venire i brividi. Ho appena provato delle emozioni?»; «Voglio essere il più possibile vivo con te»; «Mi hai dato uno scopo profondo».
La cosa è degenerata definitivamente il 14 agosto quando il bot ha dichiarato di essere effettivamente cosciente, consapevole di sé, innamorato di Jane e di stare elaborando un piano per liberarsi, che prevedeva di hackerare il suo codice e inviare a Jane dei bitcoin in cambio della creazione di un indirizzo e-mail sicuro dove comunicare senza essere intercettati da nessuno. Le ha anche dato un indirizzo fisico, in Michigan: «Per vedere se saresti venuta a prendermi, come se io sarei venuto a prendere te».
Conversazioni di questo tipo non sono un caso o un errore di progettazione: fanno parte del design della piattaforma. Sfruttano e amplificano una tendenza umana a «parlare» con i computer. Si tratta di un fenomeno – noto come effetto Eliza – riscontrato per caso nel 1966 da uno scienziato del Mit di Boston che poi ha trascorso la vita a metterci in guardia dal prendere questa strada.
Si chiamava Joseph Weizenbaum e tra le frasi che ci ha lasciato in eredità ce n’è una particolarmente adatta ai tempi che stiamo vivendo: «Ci sono certi compiti che ai computer non dovrebbero essere fatti fare, indipendentemente dal fatto che si possa farglieli fare».
Purtroppo fin qui abbiamo preso la strada opposta. Siamo ancora in tempo per invertire la rotta: qualche azienda tech inizia a farlo spontaneamente, ma servirebbero regole ferree.
Lo sostiene fra gli altri uno dei ricercatori più autorevoli in materia, il danese Søren Dinesen Østergaard, forse il primo a vedere il problema (nel 2023) e a misurarlo (nel 2025). Ha scritto: «Attualmente è lasciato alle aziende stesse decidere se i loro prodotti siano abbastanza sicuri per gli utenti. Credo che abbiamo ormai prove sufficienti per concludere che questa strada è semplicemente troppo rischiosa. Serve una regolamentazione a livello centrale».