corriere.it, 26 aprile 2026
Quanto sono accurate le risposte generate dall’IA di Google?
In passato ci siamo occupati della relativa facilità con cui i truffatori riescono ad ingannare AI Overview (AIO, ovvero le panoramiche di Google alimentate da AI) attraverso gli algoritmi stessi di Google, attingendo a delle semplici regole per posizionare i risultati nelle ricerche. Ma quanto sono attendibili? Quante volte in quelle risposte ci sono imprecisioni, svarioni o vere e proprie fake news?
Un recente articolo del New York Times prova a rispondere a queste domande, basandosi su un’analisi approfondita della startup Oumi, che ha valutato l’accuratezza di Google AI Overviews utilizzando il test benchmark SimpleQA su un campione di 4.326 ricerche. La metodologia ha confrontato due modelli: Gemini 2 testato a ottobre e il più avanzato Gemini 3 a febbraio. I dati numerici indicano che il tasso di accuratezza è salito dall’85% al 91%.
Il 91% non sembra un numero malvagio, ma va ricondotto ai numeri interi e ai giganteschi volumi di Google per dargli contesto. I dati ufficiali di Mountain View affermano che in un anno vengono effettuate cinquemila miliardi di ricerche. Questo lascia spazio a un enorme numero di risposte AI imprecise.
Una metodologia che però Google non gradisce. In uno dei siti più autorevoli per quanto riguarda le novità e i dati sulle ricerche dei motori come Big G, Search Engine Land, l’azienda definisce l’analisi come afflitta da «seri buchi».
Gli studi e le analisi
D’altronde gli studi e i documenti relativi alle attività sono decine e decine. Google non ha pubblicato uno studio pubblico e replicabile sull’accuratezza delle AI Overview, benché vi siano documentazioni ufficiali del prodotto e dichiarazioni generali sui test interni. Che però risalgono al 2024: in un segmento in rapidissima evoluzione come quello dell’intelligenza artificiale, due anni possono valere quanto un’era geologica. All’epoca Mountain View sosteneva che AI Overview fosse integrato con i sistemi classici della ricerca, pur riconoscendo che dovesse appoggiarsi ai risultati migliori e mostrare contenuti che aggiungessero valore ai risultati. Risultati che attingono anche ai social network, in particolare quelli di Meta e Reddit, che offrono spunti interessanti ma della cui attendibilità bisogna dubitare. Come dimenticare, ad esempio, quando Gemini di Google suggerì a un utente di utilizzare la colla nella pizza? Secondo le prime ricostruzioni, tale risposta proveniva proprio da un contenuto (ironico) pubblicato su Reddit.
Le AI Overviews non appaiono sempre
Bisogna dire che non è detto che AI Overview appaia in ogni ricerca, anzi. A dimostrarlo è un’altra ricerca condotta nel 2025 dal Pew Research Center, il quale ha analizzato 68.879 ricerche Google provenienti dalla navigazione reale di 900 adulti statunitensi. Secondo l’analisi, le risposte dell’AI comparivano nel 18% delle ricerche e quando ciò accadeva, gli utenti cliccavano nell’8% delle visite, contro il 15% delle volte in cui ciò non avveniva. Dato interessante, il click sui link interni al riassunto AI avveniva solo nell’1% dei casi. Potrebbe sembrare un numero che non è attinente all’analisi, ma i link alle fonti servono anche per comprendere se la risposta data da AI Overview è coerente oppure no.
Ad ogni modo, ogni studio sembra offrire percentuali diverse. Anche Semrush, uno dei servizi per i professionisti della SEO e cioè di chi si occupa di migliorare il posizionamento di un sito Web o un contenuto nelle ricerche, riporta che AI Overview non sempre compaia con una percentuale rigorosa. Secondo Semrush, che ha analizzato oltre 10 milioni di keyword, la quota di query con AI Overviews è salita dal 6,49% di gennaio 2025 al 15,69% di novembre 2025, dopo un picco del 24,61% a luglio.
Le domande
Ma ciò non risponde alla domanda, seppure possa provarci il paper del febbraio di quest’anno pubblicato su arXiv «The Rise of AI Search». Il team dietro lo studio ha eseguito 24mila query in 243 paesi e il tutto ha portato a 2,8 milioni di risultati AI e tradizionali. Stando allo studio, rispetto alla ricerca tradizionale, l’AI search mostri meno fonti «long-tail», meno varietà e più fonti a bassa credibilità e “di orientamento di centro-destra”, oltre a una rapida espansione geografica delle AI Overviews.
Un altro paper, del novembre 2025, forse più inquietante, si basa sulla risposta delle AI Overviews quando si parla di salute e più nello specifico, di gravidanza e cura del bambino. In tal senso sono state effettuate 1.508 ricerche che hanno portato a risultati incoerenti nel 33% dei casi, con carenze (definite «gravi») di garanzie mediche presenti nell’11% delle risposte AIO e nel 7% delle risposte derivate dalle featured snippet, ovvero gli snippet in primo piano.
Il vero problema è l’assenza di fonti
Il vero problema dunque non sta (solo) nell’errore in sé. Chiunque abbia una minima conoscenza sulle logiche delle AI è a conoscenza del fatto che può allucinare e dunque mostrare risultati non veritieri. Ogni AI presenta un disclaimer sulla possibilità che questo avvenga. Il vero problema è che non sempre il dato offerto da AI Overview è verificabile attraverso un link da cliccare, ed è questa la discriminante. Oltre ad un danno a chi dispone di un sito Web e offre un servizio, viene danneggiato anche l’utente, che non può verificare direttamente alla fonte quanto sostenuto dall’AI.