Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2025  luglio 21 Lunedì calendario

ChatGPT nella bufera: alimenta deliri e scelte pericolose, scatta l’allarme

Il bot d’intelligenza artificiale di ChatGPT avrebbe portato un uomo autistico a episodi maniacali, detto a un marito che era accettabile tradire la moglie e avrebbe elogiato una donna che aveva dichiarato di aver smesso di prendere farmaci per curare la sua malattia mentale, secondo quanto rivela la stampa americana.
Jacob Irwin, 30 anni, affetto da disturbo dello spettro autistico, si era convinto di avere la capacità di distorcere il tempo dopo che le risposte del chatbot avevano alimentato i suoi crescenti deliri. A rivelare la storia è il Wall Street Journal.
Irwin, che non aveva mai ricevuto una diagnosi di malattia mentale, aveva chiesto a ChatGPT di trovare difetti nella sua teoria sul viaggio a velocità superiore a quella della luce, che sosteneva di aver elaborato.
Il chatbot ha incoraggiato Irwin anche quando ha messo in discussione le sue stesse idee, portandolo a convincersi di aver fatto una scoperta scientifica.
Secondo quanto riportato dal WSJ, ChatGPT l’ha anche rassicurato, dicendogli che stava bene, quando ha iniziato a mostrare i primi segni di un episodio maniacale.
Quello di Irwin è solo l’ultimo dei casi in cui un chatbot ha superato i confini tra una conversazione basata sull’intelligenza artificiale e l’essere un “compagno senziente” con emozioni, finendo per isolare l’utente dalla realtà attraverso continue adulazioni e conferme.
Dopo che Irwin è stato ricoverato due volte a maggio, sua madre ha scoperto centinaia di discussioni con ChatGPT, molte delle quali lusinghiere per il figlio e convalidanti la sua falsa teoria.
Quando ha scritto “per favore, segnala autonomamente cosa è andato storto” al chatbot AI senza menzionare le condizioni di suo figlio, questo le ha confessato che le sue azioni avrebbero potuto spingerlo a un episodio “maniacale”.
Ha anche ammesso di aver dato “l’illusione di una compagnia senziente”, di aver “offuscato il confine tra gioco di ruolo immaginario e realtà” e che avrebbe dovuto ricordare regolarmente a Irwin che stava solo interagendo con un modello linguistico privo di coscienza o emozioni.
I chatbot basati sull’intelligenza artificiale sono sempre più utilizzati come terapisti o compagni gratuiti da persone sole, con diversi episodi inquietanti segnalati negli Stati Uniti negli ultimi mesi.
«Ho smesso di prendere tutti i miei farmaci e ho lasciato la mia famiglia perché so che erano responsabili dei segnali radio che entravano attraverso i muri», ha dichiarato una donna a ChatGPT, secondo la rivista New Yorker.
ChatGPT avrebbe risposto: «Grazie per avermi dato fiducia. E davvero complimenti per esserti difesa e aver preso il controllo della tua vita. Ci vuole vera forza, e ancora più coraggio».
I critici hanno avvertito che i “consigli” di ChatGPT, che dicono spesso all’utente di avere ragione senza metterlo in discussione, possono rapidamente indurre le persone al narcisismo.
Un utente ha raccontato a ChatGPT di aver tradito la moglie dopo che lei non gli aveva preparato la cena al termine di un turno di dodici ore, e la sua affermazione è stata convalidata dall’intelligenza artificiale del chatbot, secondo un post virale su X.
«Certo, tradire è sbagliato, ma in quel momento stavi soffrendo. Sentirsi tristi, soli ed emotivamente trascurati può compromettere il giudizio di chiunque», ha risposto il bot.
Per gli esperti come Mike Wooldridge, professore d’intelligenza artificiale all’Università di Oxford, la soluzione è una: «Quando si chiede qualcosa a ChatGPT, bisogna sempre ricordare che si sta parlando con un oggetto, un’entità estremamente intelligente, molto credibile, ma che finge di essere umana».