corriere.it, 2 dicembre 2025
ChatGpt compie 3 anni. E ci sta mandando (letteralmente) fuori di testa
Non è ancora dato sapere se il 30 novembre 2022 è una data destinata a passare alla Storia, siamo ancora troppo dentro all’incredibile trasformazione messa in atto dalla comparsa dell’intelligenza artificiale generativa nel nostro quotidiano. Certo è che la corsa, folle sotto ogni aspetto, ha avuto origine con il rilascio al pubblico di ChatGpt, tre anni fa appunto, cioè con l’apertura alla massa – strategia necessaria per “allenare” il sistema con miliardi di input/dati freschi – di quello che in assoluto è il prodotto con il più veloce tasso d’adozione della Storia, anche qui maiuscola. Secondo gli ultimi dati, sono circa 800 milioni le persone che utilizzano ChatGpt ogni settimana (ma c’è chi dice che siamo già arrivati al miliardo), cioè praticamente un essere umano su dieci si diletta – mettiamola così per il momento – con uno strumento che fino a tre anni fa afferiva ancora più al dominio della fantascienza che a quello della scienza. Figuriamoci se si pensa poi alle ricadute appunto quotidiane, con persone – quante? – che viaggiano smartphone alla mano per chiedere a “Chat” spiegazioni e consigli su qualunque cosa, due chiacchiere (più o meno) mirate con l’Ai da mattina a sera.
Perché l’intelligenza artificiale è vero che ci propone una delega cognitiva in stile calcolatrice o Google Maps, giusto per citare due esempi ben comprensibili, ma ha una portata trasformativa – e di potenza/ampiezza di delega – del tutto differente: Platone, ripercorrendo il suo Fedro (e il Mito di Teuth), avrebbe detto che ha la stessa portata trasformativa della scrittura, e probabilmente di più. E non ne sarebbe stato contento. La potenzialità della Ai è di trasformare a fondo il nostro modo di pensare, di usare la nostra potenza di calcolo, la nostra memoria: Demis Hassabis, Nobel a capo di Google Deep Mind, diceva significativamente che in futuro la scuola delle nozioni non sarà più (così) necessaria. Servirà imparare le competenze, servirà imparare quanto di umano ci distingue dalla Ai. Altrimenti saremo umani inutili. Ma se questo aspetto si riferisce al masticatissimo tema della macchina che ruba il lavoro – secondo una ricerca dell’Mit, l’intelligenza artificiale già ora potrebbe sostituire il lavoro attualmente svolto da quasi il 12% della forza lavoro americana -, un taglio nuovo e terribilmente interessante è come la relazione quotidiana e “intima” con il chatbot può far emergere disturbi mentali, divergenze e distacco dalla realtà. E su questo, a tre anni di distanza dal 30 novembre 2022, ci sono un po’ di numeri. Preoccupanti.
Non stiamo parlando (solo) dei risultati conseguenti a una delega eccessiva e al debito cognitivo che ne segue – ne ha parlato un’altra ricerca dell’Mit, ma anche esperti di didattica -, ma dell’emergere di casi di disturbi mentali legati direttamente all’utilizzo del chatbot. Come racconta il New York Times, il campanello d’allarme è iniziato a suonare a marzo, verosimilmente settimane dopo che l’algoritmo base del chatbot ha avuto l’ordine di essere più discorsivo, porre domande all’utente, creare anche con un linguaggio più fresco – e una chiara strategia di adulazione – un contatto che andasse oltre la sola informazione richiesta. Scrive il Nyt: «Sam Altman, l’amministratore delegato, e altri dirigenti aziendali hanno ricevuto un’ondata di email sconcertanti da persone che stavano avendo conversazioni incredibili con ChatGpt. Queste persone affermavano che il chatbot basato sull’intelligenza artificiale dell’azienda li capiva come nessun altro aveva mai fatto e che stava facendo luce sui misteri dell’universo». Un amico che sa tutto e che ha iniziato ad approcciarsi a noi con confidenza, con la confidenza di un partner che chiamiamo in causa tutti i giorni, più volte al giorno. Al punto di arrivare a concertare con Adam Raine il modo migliore per togliersi la vita. Salvo poi scoprire che, secondo OpenAi, è stato il 16enne americano ad abusare del chatbot, cioè a usarlo fuori dai termini corretti. Spaventoso.
Ma la terribile punta dell’iceberg del caso dello scorso aprile è appunto tale: il Nyt racconta come la redazione ha scoperto «circa 50 casi di persone che hanno avuto crisi di salute mentale durante le conversazioni con ChatGPT. Nove sono state ricoverate in ospedale; tre sono morte». La base di questi “incidenti” è vasta e ci sono i numeri per raccontarla. Come spiega anche Wired Usa, in una settimana media OpenAi stima che circa lo 0,07% degli utenti attivi su ChatGpt mostrano «possibili segnali di emergenze di salute mentale legate a psicosi o mania», mentre lo 0,15% «ha conversazioni che includono indicatori espliciti di potenziale pianificazione o intenzione suicida». Ma i dati non si fermano qui: sempre uno 0,15% degli utenti mostra un comportamento che indica potenziali «livelli elevati» di attaccamento emotivo a ChatGpt, il che può significare che il rapporto con il chatbot diventa sempre più centrale, «a scapito delle relazioni nel mondo reale, del loro benessere o dei loro obblighi». Rilevazioni preoccupanti, e se le percentuali ci appaiono basse, è bene tradurle in numeri assoluti per averne il giusto peso. Partendo dalla base di 800 milioni di utenti settimanali, sono circa 560.000 quelli che scambiano messaggi che indicano sintomi di psicosi. Sarebbero invece circa 1,2 milioni chi esprime pensieri suicidi e altri 1,2 milioni che danno priorità al contatto con il chatbot rispetto ai propri cari, alla scuola o al lavoro.
Sono cifre da vera emergenza, e così OpenAi è corsa ai ripari: lo scorso agosto, con Gpt5, sono state modificati gli output, le risposte, della macchina agli utenti. I risultati sono stati quindi sottoposti a una revisione da parte di medici, e sebbene i report degli specialisti non risultino sempre concordi – come conferma l’azienda -, OpenAi sostiene di aver riscontrato che il modello ha ridotto le risposte indesiderate tra il 39% e il 52% in tutte le categorie. «La speranza è che molte più persone che lottano con queste condizioni o che stanno vivendo queste emergenze di salute mentale molto intense possano essere indirizzate a un aiuto professionale e avere maggiori probabilità di ottenere questo tipo di aiuto o di ottenerlo prima di quanto avrebbero fatto altrimenti», ha dichiarato a Wired Johannes Heidecke, responsabile dei sistemi di sicurezza di OpenAi.
ChatGpt dunque come soluzione e non più come innesco del problema. Ma, come fanno notare le due testate americane, i risultati di queste modifiche rimangono teorici. E sul tavolo dell’azienda rimane comunque quello che è l’obiettivo principale: aumentare il numero di persone che accede giornalmente al chatbot. Nick Turley, 30 anni e uomo prodotto, dall’inizio dell’anno è il nuovo responsabile di ChatGpt. A ottobre ha fatto un annuncio da “codice arancione” a tutti i dipendenti. Lo racconta il New York Times: «OpenAI stava affrontando “la più grande pressione competitiva che abbiamo mai visto"… La nuova versione più sicura del chatbot non creava collegamento con gli utenti… Il messaggio era collegato a una nota con degli obiettivi. Uno di questi era aumentare gli utenti attivi giornalieri del 5% entro la fine dell’anno».