Avvenire, 24 maggio 2025
Comunicazione politica anno zero. La manipolazione ora è artificiale
La comunicazione politica ha un problema: si chiama intelligenza artificiale generativa. Sotto accusa non è lo strumento, ma l’uso distorto che se ne fa. Non da oggi, almeno da un paio d’anni a questa parte. È un problema per almeno tre ordini di ragioni: per come immagini e video fake hanno invaso il nostro sistema informativo, a partire dal mercato elettorale; per come tutto questo è entrato nella disponibilità di tanti utenti non sempre preparati; per le modalità con cui alcune forze politiche si preparano a cavalcare il fenomeno in modo spregiudicato. Siamo invasi da meme, fotomontaggi, video deep fake, tutto costruito ad arte: è sufficiente cliccare su qualsiasi motore di ricerca per accorgersene. L’incubo è la possibile manipolazione delle coscienze, indotte a credere in ciò che non è credibile, a tutto vantaggio dei potenti di turno, che hanno già dimostrato spregiudicatezza nell’utilizzo (e nell’abuso) di fonti indifendibili.
G li ultimi quattro mesi con Donald Trump di ritorno alla Casa Bianca hanno rappresentato l’apice di questa stagione bulimica, che ha visto per protagonisti, spesso loro malgrado, i principali leader mondiali. I casi del presidente americano travestito da Papa oppure in compagnia di Benjamin Netanyahu ed Elon Musk alla Casa Bianca sono stati forse i più eclatanti, ma la produzione di meme, cioè di contenuti simbolici che si diffondono in Rete, e fotografie ai limiti dell’irriverente hanno riguardato anche il presidente Sergio Mattarella, ritratto in Vespa mentre passa dal Colosseo, la premier Giorgia Meloni, arruffata e sconvolta migrante a bordo di un barcone. Per non parlare di Vladimir Putin in manette. Fecero sensazione, in piena campagna elettorale americana, anche i fotomontaggi sul tycoon rosso di rabbia pronto a fuggire dalla cattura della polizia e poi in divisa arancione in attesa del carcere. E se alla fine qualcuno, di fronte a tutto questo, finisse per ritenere una provocazione come qualcosa di reale? Come evitare ulteriori strumentalizzazioni nel pericoloso gioco della propaganda politica in cui siamo immersi? «C ’è un allargamento del perimetro del verosimile» spiega Lorenzo Pregliasco, fondatore di YouTrend, esperto di dinamiche elettorali, analizzando la situazione. «Tante persone si muovono dentro questo perimetro, che va dalla satira su politica e Chiesa a casi più insidiosi, per cui è possibile cadere in trappola». In ogni istante, si possono generare cose nuove, grazie a modelli come Open Ai e Grok. E mentre gli strumenti di intelligenza artificiale generativa diventano sempre più raffinati con il tempo, la capacità di discernimento dei cittadini diminuisce: troppe distrazioni, troppe sottovalutazioni, troppa poca conoscenza. Pregliasco si dice «abbastanza preoccupato per come potrà evolvere la situazione» e fa notare un altro aspetto interessante: la correlazione tra un certo tipo di posizionamento politico e l’uso di questi strumenti. «Le forze sovraniste utilizzano con maggior facilità video e immagini prodotti dall’intelligenza generativa. Non penso sia un fatto casuale: i contenuti di questi documenti sono in linea con un registro comunicativo controcorrente e consentono ai soggetti che li promuovono o semplicemente li rilanciano, di rivendicare una diversità, un’alterità rispetto al sistema, spostando più in là il limite di ciò che è moralmente accettabile». Per restare a quel che succede in Italia, va ricordato che a metà aprile due partiti dell’opposizione, Pd e Avs, hanno presentato all’Autorità garante per le Comunicazioni una segnalazione formale nei confronti di un partito della maggioranza di governo, la Lega, per aver diffuso sui propri canali social immagini generate artificialmente, definite «razziste, xenofobe e islamofobe». Le immagini finite sotto accusa ritraggono presunti criminali, quasi esclusivamente uomini stranieri, soprattutto di colore, nell’atto di compiere furti, rapine o violenze, spesso nei confronti di donne. Sono aggressivi, maneggiano coltelli e armi per offendere. La replica del Carroccio è stata che «queste immagini si basano su fatti realmente accaduti». O vviamente, la curiosità e insieme l’interesse delle forze politiche a non farsi trovare impreparate (e spiazzate) di fronte alla rivoluzione artificiale è trasversale. Lo stesso Beppe Grillo qualche tempo fa ha utilizzato un sistema di traduzione automatica per doppiarsi in lingua cinese durante un video, riuscendo a creare un’ottima corrispondenza tra il labiale e il messaggio. Molti hanno creduto che l’artista comico, già fondatore del Movimento Cinque Stelle, avesse imparato la lingua dell’Impero di mezzo. Ovviamente non era così. I casi si sprecano, senza eccezioni. S econdo Marco Marturano, consulente politico e consigliere componente del consiglio di amministrazione della Fondazione Pensiero Solido che da tempo analizza gli effetti dell’Ia sulla comunicazione politica, «l’intelligenza artificiale è entrata nel set degli strumenti a disposizione di partiti e candidati, che le usano durante le campagne elettorali dal 2023. È utilizzata anche per la costruzione dei discorsi e spesso contribuisce a creare una retorica convincente. Detto questo, al netto della curiosità crescente del sistema, l’elaborazione successiva di una strategia comunicativa da parte degli staff resta determinante». Insomma, non c’è ancora un innamoramento della classe dirigente, al limite si opera su meme e video «per polarizzare il dibattito e assumere posizioni radicali in grado di catturare consensi». Social e Ai, in questo contesto, creano le cosiddette “echo-chambers”, le camere dell’eco, in cui gli individui vivono in uno stato di isolamento, dove si genera un effetto moltiplicatore, che replica e rafforza il messaggio: si tratta di un passaggio efficace, in particolare in quelle comunità (virtuali e non) che spesso sono già sintonizzate sulla stessa lunghezza d’onda di chi invia il messaggio. «Così si accarezza la provocazione di un video con intelligenza artificiale e con i relativi contenuti, consapevoli che si andrà ad intercettare il proprio popolo». È qui che si annidano insieme potenzialità e rischi: si finisce infatti per mobilitare e rimotivare continuamente il proprio pubblico ed elettorato, inducendo le persone a credere anche in ciò che non è credibile e a confermare i propri pregiudizi. Basta che il messaggio si diffonda e si moltiplichi, creando altre arene virtuali. «Si lavora per microtargeting, utilizzando anche i big data, grandi volumi di dati, per orientare contenuti su singole fasce di pubblico» osserva Marturano.
Non è una novità, è vero, se si pensa che in tutti i recenti tornanti della storia della comunicazione politica, dalla candidatura di Obama nel 2008 all’avvento di Brexit, fino al caso di Cambridge Analytica, società specializzata nel raccogliere informazioni sugli utenti dei social che fu decisiva nella vittoria di Trump del 2016, l’incrocio tra analisi dei dati e campagne social, è stato decisivo. Ora, con l’intelligenza generativa, sta accadendo qualcosa di nuovo e pochi se ne sono accorti: la sfida della comunicazione politica ormai viene fatta dai militanti di questo o quel leader, attraverso la proposta di contenuti dal basso. Sarebbe finalmente un modello democratico di partecipazione al dibattito pubblico, se non fosse che in America, dove sta già succedendo, purtroppo le falsificazioni imperano: i leader diventano guru spirituali, le fake news abbondano. E il contributo alla chiarezza diventa inevitabilmente una chimera.