corriere.it, 12 gennaio 2026
Google limita i consigli medici dell’intelligenza artificiale AI Overviews: troppe allucinazioni e rischi per la salute
Se OpenAI ha deciso di spingere l’acceleratore sui consulti medici con ChatGPT Salute, Google tira il freno a mano: un recente report del quotidiano The Guardian (coadiuvato da un team di esperti) avrebbe messo la «pulce nell’orecchio» su presunte inesattezze cliniche del modello di intelligenza artificiale di Google, spingendo la compagnia californiana alla rimozione di alcune ricerche mediche fuorvianti dai suoi «sommari», posizionati sopra i risultati tradizionali.
A questo si aggiungono le parole (rilasciate ai microfoni del Guardian) di Vanessa Hebditch, direttrice delle comunicazioni dell’organizzazione britannica «British Liver Trust», secondo cui Google si limiterebbe, con queste singole rimozioni, ad arginare momentaneamente il problema. Parafrasandola in termini medici (tanto per rimanere in tema), la compagnia curerebbe il sintomo ma non la malattia, semplicemente rimandando una criticità (l’imprecisione delle AI) che tutt’oggi perdura.
In risposta alle accuse mosse dal quotidiano britannico, Google è corsa subito ai ripari con una difesa che scricchiola: un suo portavoce ha infatti dichiarato che, stando a quanto emerso dalla riunione di un team interno di medici, le risposte segnalate non sarebbero errate, ma avrebbero perfino trovato il supporto di siti web d’alta qualità.
«Quali sono i valori normali per i test di funzionalità epatica?», «Qual è il valore ottimale di pressione arteriosa?»: a partire da oggi, dunque, le risposte a domande simili potrebbero non essere più contemplate (o sensibilmente ridimensionate) all’interno della sezione AI Overview.
La scelta di Google sarebbe riconducibile alle inesattezze nelle risposte e (soprattutto) all’assenza di contesto reale: i modelli linguistici di grandi dimensioni forniscono infatti valori medi indicativi, senza tenere conto di caratteristiche (fondamentali, in un campo estremamente eterogeneo e «sartoriale» come la Medicina), come l’età, il sesso, le comorbilità o l’etnia, che possono spostare anche di molto i parametri di riferimento.
Un’anziana cardiopatica di 85 anni, tanto per fare un esempio, presenta valori target di pressione arteriosa superiori a quelli di un giovane adulto «fit» di 23 anni, e (ad oggi, almeno) AI Overview non sarebbe in grado di tenere conto di queste differenze cliniche, portando a situazioni potenzialmente pericolose e dannose per la salute dell’utente.
Intelligenza artificiale e salute: la proposta di Anthropic
Mentre Google limita le risposte ai consulti medici e OpenAI scommette su ChatGpt Salute, anche la rivale Anthropic vuole dire la sua ed entrare nell’arena lanciando Claude for Healthcare, un nuovo servizio che viene in aiuto agli utenti comuni, i professionisti sanitari e perfino gli assicuratori, alleggerendo di molto il pesante carico burocratico e amministrativo che si portano sulle spalle.
Il suo punto forte? La stretta regolamentazione sulla privacy: già dal suo esordio Claude for Healthcare ha aderito alle normative HIPAA, che negli Stati Uniti disciplinano la sicurezza delle informazioni sanitarie dei pazienti. E proprio negli Stati Uniti, poi, gli utenti avranno a breve la possibilità di collegare le cartelle cliniche elettroniche e i dati sanitari provenienti da dispositivi wearable, a patto di sottoscrivere un abbonamento (a pagamento) a Claude Pro o Max.
Che si tratti di Google, OpenAI o Anthropic, l’elefante nella stanza rimane: le allucinazioni. Ad oggi, i modelli linguistici di grandi dimensioni devono ancora affrontare il rischio di fornire informazioni errate, aspetto che in un settore complesso come quello sanitario (dove sono in gioco la salute e la vita di milioni di pazienti) assume un peso specifico importante.