Corriere della Sera, 3 maggio 2026
Pensieri lenti e Intelligenza Artificiale
L’intelligenza artificiale è già entrata nel cuore delle decisioni sanitarie. I dati del sondaggio di Rock Health mostrano che i chatbot vengono utilizzati in modo trasversale lungo tutto il percorso di cura, dalla comparsa dei sintomi alla gestione delle terapie.
Le richieste più frequenti riguardano le opzioni di trattamento (fino al 60%) e la diagnosi basata sui sintomi (circa 55-57%), seguite dalle informazioni su farmaci ed effetti collaterali. Ma ciò che colpisce è la progressiva estensione dell’uso anche ad ambiti meno «clinici»: prevenzione, stile di vita, comprensione degli esami, fino alla preparazione delle visite mediche.
Il ricorso all’AI, inoltre, cresce con l’aumentare delle condizioni croniche. Tra chi ha quattro o più patologie, oltre la metà utilizza i chatbot per comprendere esami, gestire la propria condizione e orientarsi nelle cure. Anche il supporto alla salute mentale e il recupero post-intervento diventano più frequenti.
Quasi tre quarti degli interpellati dichiarano di essersi rivolti a ChatGPT, ovvero il 23% di tutti gli intervistati, a differenza del 5% che si è servito di chatbot offerti dai fornitori di servizi sanitari o del 4% che ha utilizzato chatbot offerti dalle compagnie assicurative.
A utilizzare questi strumenti sono soprattutto i più giovani, ma non solo. Si tratta di utenti più attivi, più coinvolti, più abituati a monitorare la propria salute. Tengono traccia di sonno, attività fisica, dieta, stress, producendo una quantità crescente di dati personali che alimenta ulteriormente l’uso dell’AI.
Come sottolinea Giorgio Quer, direttore dell’Intelligenza Artificiale e professore di Medicina Digitale allo Scripps Research, questo livello di monitoraggio continuo rappresenta al tempo stesso un’opportunità e un rischio: «Può generare ansia per problemi non clinicamente rilevanti ma anche aiutare a intercettare segnali importanti che precedono lo sviluppo di una malattia e che altrimenti verrebbero trascurati». Parallelamente cresce la fiducia verso questi strumenti, ma in modo non sempre proporzionato alla loro reale affidabilità. Gli utenti dell’AI tendono a considerare attendibili le informazioni provenienti da chatbot (56%), app (55%), social media (36%) molto più dei non utenti.
Secondo Simona Giubilato, coordinatrice dell’Area dedicata all’Intelligenza Artificiale in Cardiologia di Anmco (Associazione nazionale medici cardiologi ospedalieri), è un segnale preoccupante: «L’intelligenza artificiale non è ancora pronta per assumere un livello di responsabilità clinica di massa». Il rischio più insidioso, spiega, non è tanto l’errore evidente quanto quello invisibile, «formulato con tono autorevole e privo di segnali di incertezza», che può indurre il paziente a fidarsi senza mettere in discussione la risposta ricevuta.
Il problema è amplificato dal fatto che questi sistemi comunicano con sicurezza e fluidità, mentre la medicina reale è fatta di dubbi, probabilità e valutazioni progressive. Come sottolinea il sondaggio, a complicare ulteriormente il quadro contribuisce la progressiva scomparsa dei «disclaimer», quelle avvertenze che ricordavano all’utente di non trovarsi di fronte a un medico. «È vero ed è preoccupante – conferma Giubilato —. I disclaimer negli output degli LLM (Large Language Model) sono crollati dal 26,3% nel 2022 allo 0,97% nel 2025, mentre nei VLM (Vision Language Model) sono scesi dal 19,6% nel 2023 all’1,05%. Entro il 2025, la maggior parte dei modelli non mostrava alcun disclaimer». Nel frattempo, la distanza tra l’AI utilizzata dai cittadini e quella impiegata nei contesti clinici resta enorme. «La differenza è paragonabile a quella tra leggere un consiglio su un forum e sottoporsi a un esame medico» esemplifica il professor Carlo Tacchetti direttore, insieme al professor Antonio Esposito, del Programma Strategico AI dell’ Università San Raffaele di Milano. «L’AI clinica, infatti, è sottoposta a criteri rigorosi di validazione, sicurezza, trasparenza e supervisione umana, mentre gli strumenti usati dai consumatori operano in una zona grigia, senza certificazioni e con rischi elevati di errore o “allucinazioni”». Il nodo è proprio quello della trasparenza, come evidenzia la professoressa Elena Bignami, presidente della Società Italiana di Anestesia Analgesia Rianimazione e Terapia Intensiva (Siaarti) ed esperta di AI: «Gli strumenti privati funzionano con algoritmi chiusi e l’utente non può valutare la qualità delle informazioni».
Per questo, sostiene, «è necessario sviluppare piattaforme pubbliche, sicure e integrate, capaci di gestire dati sensibili e dialogare con il sistema sanitario. In prospettiva, il valore non sarà solo nella potenza dei modelli, ma nella qualità dei dati e nella loro integrazione».
Ma che cosa succede, dopo che si è consultato un chatbot? Qui il sondaggio rivela quale sia già oggi il reale impatto dell’AI. Otto interpellati su dieci (81%), infatti, riferiscono che l’interazione con i chatbot li ha spinti comunque a prendere una decisione. E se è vero che la maggior parte ha cercato ulteriori informazioni online o attraverso diverse fonti (42%) oppure si è rivolta a un’assistenza formale (il 40% ha consultato un medico), quasi altrettanti hanno provato a cambiare comportamento in tema di salute (32%) o hanno persino modificato le terapie farmacologiche (18%). «Dobbiamo però capire qual è l’effetto finale – chiosa Quer —, quali siano i vantaggi e i rischi nell’usare o meno un determinato strumento. Sono necessari studi clinici, che randomizzino la popolazione in individui a cui è proposto l’uso di AI e altri a cui non viene proposto». Resta una domanda cruciale: chi stabilisce quando un sistema è abbastanza sicuro per essere utilizzato su milioni di persone? «Non può essere una decisione lasciata esclusivamente al mercato o ai produttori tecnologici. Aziende come OpenAI, Anthropic e Microsoft stanno entrando rapidamente nel settore della salute, ma lo stanno facendo attraverso un percorso “consumer-driven”, non attraverso i tradizionali processi di validazione clinica», conclude Semeraro.