Corriere della Sera, 19 gennaio 2026
Se L’IA prende il posto del medico
OpenAI ha annunciato ChatGpt Health, una sezione di ChatGpt con maggiore sicurezza dei dati, dove gli utenti possono caricare cartelle cliniche o collegare feed di app per il benessere. La creazione di una sezione specifica per chi pone domande sulla propria salute alle piattaforme di Intelligenza Artificiale basate su Large Language Model (LLM) risponde a una domanda ma impone qualche riflessione. La domanda sta nei numeri: secondo OpenAI oltre 230 milioni di persone interrogano a questo scopo ChatGpt ogni settimana. Non sorprende visto che in alcuni Paesi chiamare un’ambulanza o andare in Pronto soccorso può tradursi in un «bagno di sangue» economico, mentre in altri può essere difficile vedere un medico o «resistere» a chiedere un consiglio all’AI mentre si è in una lunga lista d’attesa per una visita. Ciò però propone una prima riflessione, che verte sulla fiducia che si può porre in un LLM quando gli si affida «la pelle». Se ChatGpt Health – assicurano – è stata «istruita» da 60 medici con centinaia di migliaia di feedback, non è detto che, in generale, ci si possa mettere nelle mani di un LLM senza cautele stando a una ricerca, caricata sul repository ArXiv nel dicembre 2025 (First, do NOHARM: towards clinically safe large language models), che ha testato 31 importanti LLM riscontrando risposte potenzialmente molto dannose nel 22% dei casi. Una seconda riflessione riguarda l’impatto che questo tipo di uso dell’AI può avere sul rapporto con gli operatori sanitari. Anche per i medici l’AI è ormai un utile supporto. Ma è un supporto, non un vicario. Se per noi l’AI diventa vicario del medico lo scenario cambia. In teoria il problema non si dovrebbe porre dal momento che gli LLM – in teoria, appunto – non sarebbero progettati per formulare diagnosi o dare raccomandazioni mediche. Ma davvero non li usiamo proprio per questo quando facciamo loro domande sulla nostra salute?