Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  gennaio 19 Lunedì calendario

Se L’IA prende il posto del medico

OpenAI ha annunciato ChatGpt Health, una sezione di ChatGpt con maggiore sicurezza dei dati, dove gli utenti possono caricare cartelle cliniche o collegare feed di app per il benessere. La creazione di una sezione specifica per chi pone domande sulla propria salute alle piattaforme di Intelligenza Artificiale basate su Large Language Model (LLM) risponde a una domanda ma impone qualche riflessione. La domanda sta nei numeri: secondo OpenAI oltre 230 milioni di persone interrogano a questo scopo ChatGpt ogni settimana. Non sorprende visto che in alcuni Paesi chiamare un’ambulanza o andare in Pronto soccorso può tradursi in un «bagno di sangue» economico, mentre in altri può essere difficile vedere un medico o «resistere» a chiedere un consiglio all’AI mentre si è in una lunga lista d’attesa per una visita. Ciò però propone una prima riflessione, che verte sulla fiducia che si può porre in un LLM quando gli si affida «la pelle». Se ChatGpt Health – assicurano – è stata «istruita» da 60 medici con centinaia di migliaia di feedback, non è detto che, in generale, ci si possa mettere nelle mani di un LLM senza cautele stando a una ricerca, caricata sul repository ArXiv nel dicembre 2025 (First, do NOHARM: towards clinically safe large language models), che ha testato 31 importanti LLM riscontrando risposte potenzialmente molto dannose nel 22% dei casi. Una seconda riflessione riguarda l’impatto che questo tipo di uso dell’AI può avere sul rapporto con gli operatori sanitari. Anche per i medici l’AI è ormai un utile supporto. Ma è un supporto, non un vicario. Se per noi l’AI diventa vicario del medico lo scenario cambia. In teoria il problema non si dovrebbe porre dal momento che gli LLM – in teoria, appunto – non sarebbero progettati per formulare diagnosi o dare raccomandazioni mediche. Ma davvero non li usiamo proprio per questo quando facciamo loro domande sulla nostra salute?