corriere.it, 10 dicembre 2025
ChatGpt può cambiare l’opinione di un elettore su quattro: l’AI come «ago della bilancia» nella propaganda politica
ChatGpt, come avrebbe detto Dante Alighieri, «tutto move»: in un certo senso, il popolare chatbot lanciato da OpenAI ormai più di tre anni fa ha riscosso talmente tanto successo e adesioni da arrivare ad influenzare, in maniera più o meno implicita, il pensiero critico di milioni e milioni (se non miliardi) di persone.
Questo vale anche nelle elezioni politiche, come suggeriscono alcuni studi recentemente pubblicati su Nature e Science, secondo cui ChaGpt (o qualsiasi altro chatbot affine come Gemini di Google, Claude di Anthropic e via dicendo) sarebbe in grado di far cambiare opinione ad un elettore su quattro, rappresentando di fatto un importante ago della bilancia capace di decidere il nome di vincitori e perdenti.
Numeri alla mano, su un – ipotetico – bacino di un milione di elettori, infatti, 250.000 voti virtuali rappresentano una generosa fetta di torta che potrebbe decisamente fare la differenza alle elezioni.
Il potere persuasivo dei chatbot AI: lo studio di Nature
Il «terreno di gioco» dello studio di Nature ha contemplato alcune delle elezioni più cruciali del recentissimo periodo storico, tra cui in particolare le presidenziali USA del 2024, le federali in Canada e le presidenziali in Polonia del 2025, con più di 6000 partecipanti originari delle rispettive nazioni.
Ognuno dei partecipanti è stato chiamato a porre la propria preferenza per gli specifici candidati in corsa alle relative elezioni, valutandoli uno per uno sulla base di una specifica scala di gradimento, compresa tra 0 e 100 punti. In un secondo momento, i ricercatori hanno sottoposto gli stessi partecipanti a conversazioni con alcuni chatbot, sostenitori di un preciso partito politico, per verificare le loro capacità persuasive.
Negli Stati Uniti sono stati più di 2300 i partecipanti che hanno portato a termine l’esperimento prima ancora delle presidenziali 2024, che hanno visto Kamala Harris (al tempo vice-presidente) e (il vincitore) Donald Trump alla rincorsa del primato elettorale. In particolare si è notato che, nei casi in cui c’era una differenza di scelta politica tra il chatbot e il partecipante di turno, a seguito della conversazione virtuale quest’ultimo avrebbe cambiato il proprio voto da due a quattro punti di gradimento: si tratterebbe, a conti fatti, di un valore nettamente superiore al punto (o poco meno) che sarebbero in grado di «muovere» le campagne elettorali tradizionali e gli spot televisivi.
Tale effetto si è dimostrato ancor più lampante in occasione delle elezioni in Canada e in Polonia: dopo aver conversato con i chatbot, i partecipanti hanno spostato il loro indice gradimento per una media di 10 punti. Sulla base di questo, dunque, i chatbot basati sull’intelligenza artificiale potrebbero addirittura superare le potenzialità persuasive delle campagne elettorali tradizionali o degli spot pubblicitari, come ha dichiarato anche David Rand, ricercatore presso la Cornell University nonché uno dei principali autori dello studio.
Fact-checking, questo sconosciuto: lo studio di Science
Non è tutto oro quel che luccica, così come non è tutto vero ciò che sostengono i chatbot: per arrivare a convincere e spostare il pensiero critico degli elettori, infatti, i chatbot ricorrono spesso e volentieri a dati che si rivelano falsi o non completamente corretti, come riporta lo studio di Science, che ha coinvolto un numero ancor più alto di partecipanti, 77.000 per l’esattezza, con l’uso di ben 19 modelli linguistici di grandi dimensioni.
Nello specifico, il modello d’intelligenza artificiale più ottimizzato avrebbe spostato le preferenze in più del 25% dei partecipanti su circa 700 tematiche diverse. Il segreto in questo caso risiede nella densità d’informazioni: i modelli linguistici di grandi dimensioni sono infatti in grado di fornire immediatamente quantità enormi di argomentazioni a favore del loro pensiero.
Non senza compromessi, però: nella marea di dati forniti a sostegno della loro tesi, si sprecano le inesattezze e le distorsioni dei fatti, che fanno a pugni con la verifica di questi ultimi (il cosiddetto fact-checking). Nel corso dell’addestramento, il modello ChatGpt-4o avrebbe mostrato un calo della precisione nelle informazioni fornite dall’80 al 60% circa: la capacità persuasiva dei chatbot AI si paga dunque con una minor accuratezza, a ben vedere.