Corriere della Sera, 3 maggio 2026
Le Ia danno pareri medici a volte utili. Non fanno bene «triage»
Quanto sono attendibili i chatbot AI? Secondo un’analisi di MIT Technology Review, la risposta è ancora incerta. Da un lato, esistono segnali incoraggianti: alcuni modelli hanno dimostrato di poter fornire consigli utili e, in contesti sperimentali, di raggiungere livelli di accuratezza paragonabili a quelli dei medici. Dall’altro, gli esperti sottolineano una mancanza cruciale: la validazione indipendente. Questo rappresenta un problema soprattutto in ambito sanitario, dove errori o imprecisioni possono avere conseguenze gravi. Uno dei punti più critici è il cosiddetto triage, cioè la capacità di distinguere tra situazioni urgenti e non urgenti. «Un recente lavoro pubblicato su Nature Medicine dimostra come il “crash test” non sia andato bene – sottolinea Simona Giubilato —. In questo studio ricercatori statunitensi hanno esaminato l’affidabilità di ChatGPT Salute, lanciato a gennaio da OpenAI ma non ancora disponibile in Italia. Ebbene, su quattro possibili suggerimenti da dare che andavano dal restare a casa al recarsi subito al Pronto Soccorso l’applicazione è risultata molto accurata nei casi intermedi ma ha sopravvalutato sintomi trascurabili nel 65 per cento dei casi. E, soprattutto, ha sottovalutato emergenze gravi in più del 50% dei casi. In breve, consigliava a pazienti che avrebbero dovuto correre in ospedale di aspettare un giorno o due per farsi visitare dal medico di famiglia».
Per non parlare delle «allucinazioni»: «Il dato più allarmante viene da un trial randomizzato su studenti di medicina pubblicato nel 2026. In questo studio le spiegazioni fuorvianti fornite dall’AI hanno ridotto significativamente l’accuratezza diagnostica, mentre le spiegazioni corrette non hanno offerto miglioramenti significativi. La disinformazione si è dimostrata più potente e robusta nel causare danni, di quanto le informazioni corrette lo siano nel produrre benefici. E in certi contesti un falso negativo non segnalato è più pericoloso di un errore riconoscibile», aggiunge.
Non basta. Uno studio pubblicato su JAMA Network Open ha dimostrato che i chatbot «medici» possono anche essere manipolati con estrema facilità. In simulazioni controllate, attacchi informatici mirati sono riusciti a modificare le risposte dei chatbot nel 94,4% dei casi, inducendo raccomandazioni cliniche errate o pericolose.