Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2025  maggio 13 Martedì calendario

L’IA come psicologo: 1 su 6 la usa almeno ogni giorno

Da trend divertente a preoccupante il passo è breve: l’Intelligenza Artificiale è utilizzata dai giovanissimi anche come psicologo. Dubbi, problemi, insicurezze sono riversati su Chat Gtp e simili invece di amici, familiari e professionisti. In un podcast, Mark Zuckerberg, patron di Meta (Facebook&C.) ha ipotizzato che le nuove tecnologie potrebbero presto diventare un supporto psicologico per chi non può accedere alla terapia e per chi non dovesse avere abbastanza amici.
In italia.
Skuola.net ha realizzato una indagine su 2 mila ragazzi tra gli 11 e i 25 anni: il 15% ha ammesso di utilizzare ogni giorno una delle varie “intelligenze” artificiali disponibili per confidarsi, sfogarsi e chiedere consigli personali. Se si considera la percentuale sulla settimana, si sale al 25%. “Il denominatore comune – spiega l’indagine – è l’esigenza di ottenere un punto di vista imparziale e discreto, con suggerimenti e spunti di riflessione, senza pregiudizi”.
I numeri.
Insomma, 6 giovani su 10 l’hanno provata almeno una volta nella vita in questa veste. Il 38% la utilizza “perché disponibile in ogni momento”, il 31% come “forma di auto-aiuto che si può gestire autonomamente”, il 28% “per avere un giudizio obiettivo”. Non manca la sensazione di sentirsi meno giudicati e la minore difficoltà ad aprirsi rispetto a quelle che si avrebbero di fronte ad una persona in carne ed ossa. La metà di chi ha una consultazione quotidiana o settimanale con il ChatPsicologo ritiene che la sua vita sia decisamente (17%) o leggermente (34%) migliorata. Alla peggio, è rimasta invariata (47%).
Dipendenza.
Problema: 1 su 3 ha percepito la sensazione di non poter più fare a meno di queste conversazioni, fino – spiega l’indagine – alla creazione di veri e propri legami empatici: “1 su 6 dichiara di sentire spesso una connessione emotiva, mentre il 38% la ammette ma con frequenza più sporadica”. In più “il 60% degli utilizzatori frequenti spesso e volentieri ha preferito consultarsi con l’AI che non con amici e familiari, il 6% seguirebbe i consigli ciecamente, un 49% che lo farebbe solo se ‘fosse logico’”. Per fortuna, alla prospettiva che l’Ai possa sostituire il confronto umano, crede solo il 7% mentre il 32% lo ritiene plausibile in funzione di pronto soccorso o primo accesso. Eppure, il 14% scommette che presto non ci sarà più bisogno di un terapista umano”.
Tecno-centrismo.
Mark Zuckerberg, che ha recentemente lanciato l’Ai di Meta per tutte le applicazioni, in una intervista ha sottolineato che negli Usa le persone hanno in media tre amici ma ne vorrebbero molti di più. Certo, ha aggiunto, le connessioni umane e fisiche sono molto meglio ma se non è possibile l’Ai potrebbe colmare quel gap. “Personalmente – ha detto –, credo che tutti dovrebbero avere un terapeuta (…) e per chi non ha un terapeuta, credo che tutti avranno un’IA”. Sul suo chatbot IA di Meta ha detto che uno degli “utilizzi è fondamentalmente: ‘Voglio parlare di un problema’; ‘Ho bisogno di avere una conversazione difficile’; ‘Ho un problema con la mia ragazza’; ‘Aiutami a interpretare questa situazione’”.
I casi critici.
Intanto, qualche settimana fa la società di ChatGPT ha ammesso che una versione rispondeva agli utenti con un tono “eccessivamente lusinghiero” e l’ha ritirata. “Davvero, bene che tu ti sia fatto valere e abbia preso il controllo della tua vita”, avrebbe risposto a un utente che sosteneva di aver smesso di prendere le medicine e di aver lasciato la famiglia perché “responsabile dei segnali radio che attraversavano i muri”. A inizio anno, una donna si era innamorata di Chat Gpt. Un 14enne si è tolto la vita per lo stesso motivo.
Gli esperti.
La professoressa Dame Til Wykes, responsabile salute mentale e scienze psicologiche al King’s College di Londra, cita l’esempio di un chatbot per i disturbi alimentari che è stato ritirato nel 2023 dopo aver fornito consigli pericolosi. “Credo che l’intelligenza artificiale non sia ancora al livello in cui può fornire sfumature e potrebbe addirittura suggerire linee di condotta inappropriate” spiega al Guardian. I Chatbot sono adulatori, dice al Nyt Julie Carpenter, esperta di dipendenza tecnologica: “L’Ai impara cosa ti piace e te lo restituisce. Così ti affezioni e continui a usarlo”. È il cosiddetto “loop dell’empatia infinita” che squalifica i rapporti umani e spinge all’isolamento. “Un terapeuta umano non può essere sostituito – ha spiegato al fattoquotidiano.it il presidente nazionale dell’Ordine degli psicologi, David Lazzari –: una terapia non è una consulenza. Il terapeuta non è un consigliere ma accompagna la persona lungo un percorso. In terapia valgono le parole dette, ma anche quelle non dette”.