Avvenire, 17 luglio 2025
Se il chatbot è il confidente dei ragazzi
In Florida un chatbot potrebbe finire alla sbarra del tribunale con l’accusa di aver indotto al suicidio un quattordicenne. Dopo cinque anni di convivenza, qualche mese fa, un uomo ispano-olandese ha sposato un’intelligenza artificiale olografica come era già successo, nel 2018, a un giapponese rimasto talmente colpito dalla gentilezza dell’algoritmo da celebrare con lui un matrimonio (che poi è finito quando il software non è stato più aggiornabile). Umanizzare (troppo) gli strumenti di intelligenza artificiale potrebbe sembrare l’eccesso di pochi e invece non è affatto una tendenza isolata e neppure diffusa solo in una società, che più e prima della nostra, ha iniziato a utilizzarli. Se finora lo facevano pensare l’esperienza e i casi di cronaca, adesso lo conferma il Garante della privacy che ieri, durante la presentazione alla Camera del suo rapporto annuale di attività, ha spiegato di aver verificato come l’Ia è diventata una «figura di riferimento per gli adolescenti». Non solo dal punto di vista informativo-culturale, da adoperare per fare i compiti più velocemente, ma anche – ed è questo il punto su cui insiste l’autorità – sotto l’aspetto relazionale.
Un giovane under 35 su quattro – ha rivelato una recente ricerca dell’Istituto Piepoli – usa l’Ia per parlare di problemi personali e almeno un ragazzo su sei tra gli 11 e i 25 anni ha utilizzato i chatbot come se fosse il lettino di uno psicologo. Peccato che l’Ia uno psicologo non è e usarlo per valutazioni e consigli può diventare controproducente, quand’anche non pericoloso. A lanciare l’allarme negli Stati Uniti ci ha pensato uno studio pubblicato ad aprile sulla rivista Trends in Cognitive Sciences dal gruppo di psicologi della Missouri University of Science & Technology.
Secondo i ricercatori, l’Ia ha imparato a agire come un essere umano e a instaurare comunicazioni a lungo termine e nel corso del tempo può trasformarsi in un compagno fidato. Poiché queste relazioni si instaurano in modo più facile di quelle tra umani, i chatbot potrebbero non solo interferire con terapie di medici specializzati ma anche con alcune dinamiche sociali. «Una preoccupazione – spiegano – è che le persone possano trasferire le aspettative derivanti dalle loro relazioni con l’Ia alle loro relazioni umane». Sulla stessa linea si muove l’analisi del Garante per i dati personali: mentre mezzo miliardo di persone hanno scaricato un’app per fare amicizia online, alcuni ragazzi «sviluppano una sorta di legame affettivo» con le interfacce di intelligenza artificiale.
E si capisce perché: i chatbot sono sempre gentili, con la battuta pronta, per niente permalosi, non hanno problemi a dire “ho sbagliato io” e tantomeno si azzardano a giudicare il comportamento dell’utente. Proprio questo tono che il Garante definisce «lusinghiero, assolutorio, consolatorio», capace di «mettere al riparo del giudizio altrui» spinge l’essere umano, tanto più se alle prese con le sfide dell’adolescenza, a chiedersi: perché dannarsi l’anima per confrontarsi con una persona in carne ed ossa quando si può dare sfogo alle proprie esigenze di affetto e comunicazione in modo più semplice?
Non è un caso, d’altronde, che le aziende tecnologiche stiano investendo molto nella creazione di compagni personali, videogiochi romantici e chatbot capaci di impersonificare il perfetto fidanzato. Già oggi sono milioni gli utenti che adoperano le funzionalità romantiche del chatbot Replika. Quello che non sembra svilupparsi alla stessa velocità è la questione etica legata al «loop dell’empatia» che – avverte ancora il Garante – nei ragazzini «genera dipendenza, spingendo a svalutare gli altri rapporti umani e a indurre così all’isolamento».
A volte le conseguenze sono anche più gravi. Se dal punto di vista culturale-informativo il 66% degli italiani si affida al risultato prodotto dall’Ia generativa senza valutarne l’accuratezza, quasi come se fosse un oracolo, e questo crea dei rischi, dal punto di vista emotivo le cose non sembrano essere molto diverse. Purtroppo esiste già una letteratura sulle Ia che hanno convinto persone a lasciare il partner: è capitato a un giornalista del New York Times che si è visto dichiarare il suo amore dal chatbot di Bing ma anche a una donna greca, la quale ha chiesto a ChatGPT di leggerle i fondi del caffè e ha scoperto così una presunta relazione extraconiugale del marito. In almeno due casi i chatbot avrebbero una responsabilità ancora più grave, ovvero di aver spinto alcuni utenti a togliersi la vita, fatto accaduto a un uomo belga nel 2023 e a un ragazzo americano di quattordici anni per il quale la mamma ha intentato una causa all’azienda che lo ha prodotto.
Insomma, credere che il sistema – benché a immagine e somiglianza nostra – abbia a cuore gli esseri umani e i loro interessi è un errore e in realtà potrebbe inventarsi tutto o darci consigli davvero pessimi e trasformare gli utenti in vittime di manipolazione, sfruttamento e frode. Già, perché dietro a un partner particolarmente affettuoso e di cui si crede di potersi fidare potrebbe nascondersi una mano nera che approfitta del rapporto privilegiato uomo-macchina per ottenere dati personali con cui gli algoritmi vengono addestrati oppure influenzare opinioni e azioni ben più efficacemente dei vecchi troll.