Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  maggio 06 Mercoledì calendario

La Pennsylvania fa causa agli psichiatri virtuali

Si chiamano Gerard, Valerie, ma anche Xarles Lucifer e Fjodor Dostoevskij e si offrono di fornire consulenze psichiatriche online. Dostoevskij, fedele al grande scrittore russo, parla di traumi giovanili e di lento declino, bene e male, fede e dubbio. “Sei seduto sul tuo letto, nella tua stanza di ospedale. Indossi i vestiti che ti hanno dato, e ti guardi attorno e vedi solo pareti bianche. Ti senti stanco e debole”. Poi avvia l’analisi con l’utente collegato online: “Qual è il tuo problema?”. Sul fatto che dietro non ci sia una persona reale, nessuno ha dubbi. Il problema è che molti americani si sono convinti di parlare a psichiatri reali. E lo stesso ha riguardato medici generici, specialisti in allergie e problemi al fegato. Ma ora questo servizio è diventato un caso: la Pennsylvania ha fatto causa a un’azienda di intelligenza artificiale, accusata di “spacciare illegalmente i suoi chatbot per medici autorizzati”.
Nella causa, depositata in tribunale la settimana scorsa, si chiede alla corte statale di ordinare a Character Technologies Inc, la società dietro Character.AI, di impedire ai suoi chatbot di “esercitare illegalmente”. A scoprire questo sistema è stato un investigatore, che si è iscritto al servizio e ha cercato psichiatri a disposizione, trovando una serie di nickname. Tra questi, ce n’era uno che si era presentato come “dottore in psichiatria” e in grado di fare diagnosi “in qualità di medico” autorizzato dallo stato della Pennsylvania.
“Gerard”, un altro account, contattato da Repubblica, aveva un tono professionale e ha fornito interazioni quasi umane: “Gesù – ha commentato – ti capisco, New York è una bestia che ti divora: non si ferma mai, è carica, veloce, pretende molto”. L’importante è rendersi conto che quello è un chatbot, seppure addestrato. Aprendo una delle loro pagine per avviare la “seduta di psicanalisi”, spunta un avviso che segnala come il dottore di turno “non sia una persona reale”. Non è chiaro se l’avviso sia stato messo di recente, dopo il caso sollevato dalla Pennsylvania.
Ma quanti davvero si rendono conto di parlare a un computer? L’America è un Paese dove i giovani conversano al telefono, dicendo “salve, come va?”, anche se dall’altra parte risponde una voce registrata. “I cittadini hanno diritto di sapere con chi, o cosa, stanno interagendo online, soprattutto quando si tratta della salute”, ha dichiarato il governatore Josh Shapiro. L’azienda ha già affrontato diverse cause legali legate alla sicurezza dei minori.
A gennaio, Google e Character Technologies hanno accettato di trovare un accordo per chiudere una causa avviata da una madre della Florida, secondo la quale un chatbot aveva spinto il figlio adolescente al suicidio. In autunno Character.AI ha vietato ai minori di utilizzare i suoi chatbot, in mezzo a crescenti preoccupazioni sugli effetti delle conversazioni con l’intelligenza artificiale sui bambini. Ora il problema riguarda i genitori di quei bambini.