ilmessaggero.it, 28 ottobre 2025
ChatGpt, più di un milione di persone ogni settimana manifestano intenzioni suicide: il rischio per gli adolescenti
Più di un milione di utenti di ChatGPT ogni settimana inviano messaggi che includono “potenziali intenzioni o piani suicidi”. Secondo le stime OpenAI circa 560 mila dei suoi 800 milioni di utenti settimanali – mostra “possibili segni di emergenze di salute mentale legate a psicosi o mania”.
Il rischio adolescenti
Mentre OpenAI pubblica dati sui problemi di salute mentale correlati al suo prodotto di punta, l’azienda si trova ad affrontare un controllo sempre più attento a seguito di una causa molto pubblicizzata intentata dalla famiglia di un adolescente morto suicida dopo un’intensa attività con ChatGPT. Il mese scorso, la Federal Trade Commission ha inoltre avviato un’ampia indagine sulle aziende che creano chatbot basati sull’intelligenza artificiale, tra cui OpenAI, per scoprire come misurano gli impatti negativi su bambini e adolescenti.
Reclutati 170 medici
OpenAI ha dichiarato che GPT-5 ha ampliato l’accesso alle linee di assistenza telefonica per le crisi e ha aggiunto promemoria per gli utenti che invitano a fare pause durante le sessioni più lunghe. Per apportare miglioramenti al modello, l’azienda ha dichiarato di aver reclutato 170 medici della sua rete globale di esperti sanitari per supportare la sua ricerca negli ultimi mesi, che ha incluso la valutazione della sicurezza delle risposte del suo modello e il supporto alla stesura delle risposte del chatbot a domande relative alla salute mentale. «Nell’ambito di questo lavoro, psichiatri e psicologi hanno esaminato oltre 1.800 risposte modello riguardanti gravi situazioni di salute mentale e hanno confrontato le risposte del nuovo modello di chat GPT-5 con quelle dei modelli precedenti», ha affermato OpenAI. La definizione di “auspicabile” dell’azienda prevedeva di determinare se un gruppo di esperti fosse giunto alla stessa conclusione su quale sarebbe stata una risposta appropriata in determinate situazioni.
I danni nella chat
I ricercatori di intelligenza artificiale e i sostenitori della salute pubblica sono da tempo diffidenti nei confronti della propensione dei chatbot ad avallare le decisioni o le illusioni degli utenti, indipendentemente dal fatto che possano essere dannose, un problema noto come adulazione. Anche gli esperti di salute mentale sono preoccupati per l’utilizzo dei chatbot di intelligenza artificiale da parte delle persone per il supporto psicologico e hanno messo in guardia su come ciò possa danneggiare gli utenti vulnerabili.
Come vengono trattati i problemi di salute mentale
All’inizio di questo mese, il CEO di OpenAI, Sam Altman, ha affermato in un post su X che l’azienda ha compiuto progressi nel trattamento dei problemi di salute mentale, annunciando che OpenAI avrebbe allentato le restrizioni e presto avrebbe iniziato a consentire agli adulti di creare contenuti erotici. «Abbiamo reso ChatGPT piuttosto restrittivo per essere certi di prestare attenzione ai problemi di salute mentale. Ci rendiamo conto che questo lo ha reso meno utile/piacevole per molti utenti che non avevano problemi di salute mentale, ma data la gravità del problema volevamo fare la cosa giusta», ha scritto Altman. «Ora che siamo stati in grado di mitigare i gravi problemi di salute mentale e disponiamo di nuovi strumenti, saremo in grado di allentare le restrizioni in modo sicuro nella maggior parte dei casi».