Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2016  febbraio 12 Venerdì calendario

L’ERA DELLA (DIS)INFORMAZIONE

Vi è mai capitato di essere a cena con amici o familiari, magari anche con un certo livello di istruzione, e che l’argomento di conversazione fosse centrato sull’ultima notizia letta su Internet, per esempio su come il cambiamento climatico sia indotto dalle scie chimiche o sui vantaggi della medicina alternativa? Oppure seguire in televisione argomentazioni di noti comici o cantanti, senza le più basilari nozioni di statistica o economia, diventati all’improvviso fini analisti economico-politici che palesano quanto signoraggio bancario e Nuovo Ordine Mondiale stiano attentando alla società?
Che cosa è cambiato nel nostro modo di informarci e quindi di costruirci un’opinione? Quale ruolo hanno i social media nella diffusione e nella popolarità di tesi alternative e complottiste?
La scienza se ne sta occupando. Di recente sono state sviluppate tecniche che hanno permesso di studiare le dinamiche sociali a un livello di risoluzione elevato sfruttando la grande mole di dati dei social media. Inoltre in un rapporto del 2013 sui rischi globali il World Economic Forum, un’organizzazione internazionale indipendente che discute i problemi più pressanti del mondo, mostra che uno dei temi più interessanti e allo stesso tempo tra i più pericolosi per la società, al pari del terrorismo, riguarda la viralità legata a informazioni infondate o false.
Il Web ha cambiato il modo in cui le persone si informano, interagiscono tra loro, trovano amici, argomenti e comunità di interesse, filtrano informazioni e formano le proprie opinioni. Questo scenario, unito all’analfabetismo funzionale, ovvero l’incapacità di comprendere efficacemente un testo (in Italia riguarda quasi la metà della popolazione tra i 15 e i 65 anni, secondo l’Organisation for Economic Cooperation and Development, OECD) e all’esposizione selettiva dei contenuti, guidata principalmente dal pregiudizio di conferma (il cosiddetto confirmation bias) a determinati contenuti può creare veri e propri fenomeni di massa attorno a informazioni false.
Dallo studio anatomico di queste dinamiche sociali emergono sia un quadro allarmante sia una inadeguatezza di fondo delle soluzioni, in particolare quelle algoritmiche e meccaniche, pensate per arginare la formazione, diffusione e rinforzo di narrative fasulle, o misinformation.
Nel 2009 David Lazer della Harvard University e colleghi hanno pubblicato su «Science» l’articolo Computational Social Science, che ha sancito la nascita del nuovo campo di ricerca. Tramite un approccio basato sui dati, questa disciplina tende a unire matematica, statistica, fisica, sociologia e informatica, e ha lo scopo di studiare i fenomeni sociali in maniera quantitativa sfruttando le tracce digitali che lasciamo sui vari social media come Facebook, Twitter, YouTube e così via.
Gli utenti nel cyberspazio selezionano, condividono, commentano e lasciano traccia delle proprie azioni; questo ha reso possibile lo studio della società a un livello di risoluzione senza precedenti, che va molto oltre la mera e pura speculazione. Lungo questa linea sono stati fatti notevoli progressi riguardo alla comprensione della diffusione e del consumo delle informazioni, del loro effetto sulla formazione delle opinioni e su come le persone si influenzino a vicenda.

A ciascuno il suo
Come accennato, nel 2013 il World Economic Forum ha catalogato la diffusione massiva di informazioni fasulle (massive digital misinformation) come una delle minacce più serie per la società. Questo dipende principalmente dal fatto che nel Web il paradigma di produzione e consumo dei contenuti è fortemente disintermediato. Tutti possono pubblicare la loro versione e opinione su qualunque tematica, senza che poi ci sia un’effettiva verifica sulla fondatezza o quantomeno sulla sostenibilità di quello che è stato pubblicato.
I contenuti fruibili sono prodotti dagli stessi fruitori e la veridicità come anche l’utilità delle informazioni sono asservite alle necessita del singolo utente che cerca spesso conferme coerenti a un suo sistema di credenze già strutturato e consolidato.
Su Facebook proliferano le pagine su megacomplotti mondiali, scie chimiche, signoraggio bancario, correlazione tra vaccini e autismo, diete fruttariane, fino alle mirabolanti teorie sull’energia infinita che ci viene «astutamente» tenuta nascosta dalle grandi multinazionali a tutela dei loro interessi finanziari.
Nonostante la speculazione positivistica basata sull’assunto dell’essere umano razionale, lo studio quantitativo di questi fenomeni ha accesso spie in direzione contraria. In un contesto informativo non filtrato, l’essere umano prende tutto ciò che più gli aggrada ed è conforme al proprio pensiero (confirmation bias, appunto) alimentando la formazione di argomentazioni strampalate che vanno a sostegno delle narrazioni più disparate. Per esempio, nel caso della narrazione fruttariana si sostiene che i nostri antenati non fossero onnivori ma frugivori, nonostante prove empiriche e pitture rupestri indichino l’esatto contrario. Per non parlare di altre leggende metropolitane come i microchip sottocutanei o i finti sbarchi sulla superficie della Luna che sono gli argomenti forti di noti parlamentari.
Questo scenario, così fortemente disintermediato e guidato dai gusti di massa, è in grado di generare fenomeni virali su vasta scala che influiscono notevolmente sulla percezione pubblica di questioni anche importanti come salute, politica economica, geopolitica. E può causare fenomeni bizzarri.
Per esempio, lo scorso anno negli Stati Uniti una banale esercitazione militare denominata Jade Helm 15 è diventata sul Web la prova di un incombente colpo di Stato ordito dall’Amministrazione del presidente Barack Obama. La notizia è stata creduta al punto che il governatore del Texas Greg Abbott ha deciso nel dubbio di allertare la Guardia Nazionale.
Senza uscire dai confini italiani, abbiamo il caso della citazione erroneamente attribuita all’ex presidente della repubblica Sandro Pertini e più volte smentita dalla stessa Fondazione Pertini: «Quando il governo non fa ciò che il popolo vuole va cacciato con le mazze e con le pietre». Questa citazione è stata usata come simbolo evocativo per la «protesta dei forconi» ed è finita sui manifesti di una convocazione a una manifestazione nazionale contro il governo «corrotto» nel 2013.
Altro esempio interessante è il caso del senatore Cirenga, menzionato in un post ironico che a dicembre 2012 è diventato virale su Facebook. Cirenga avrebbe partorito una fantomatica proposta di legge per stanziare 134 miliardi di euro con cui aiutare i parlamentari a trovare un lavoro in caso di non rielezione. La notizia apparsa su Facebook era stata ideata come scherzo, tanto che nel testo che accompagnava l’immagine si leggeva: «È solo colpa del popolo caprone che l’ha votata ma che ha soprattutto condiviso questa immane boiata falsa che solo dei boccaloni come voi potevano reputare vera». L’unica traccia dell’esistenza del senatore Cirenga è una pagina Facebook classificata come «personaggio inventato». Non sono rari i messaggi di utenti indignati che ancora oggi lasciano sulla pagina del finto senatore commenti relativi alla fantomatica proposta.

Vero o falso, non importa
Al laboratorio di computational social science dell’Istituto IMT Alti Studi Lucca studiamo le dinamiche del contagio sociale e la fruizione dei contenuti sui vari social network come Facebook, YouTube e Twitter. Il gruppo di ricerca è composto da due fisici (Guido Caldarelli e Antonio Scala), uno statistico (Alessandro Bessi), una matematica (Michela Del Vicario) e due informatici (Fabiana Zollo e l’autore di questo articolo). Nello specifico studiamo la viralità delle informazioni e come si formano e rinforzano le opinioni in un cyberspazio fortemente disintermediato dove i contenuti vengono immessi e fruiti senza alcun controllo.
In un primo lavoro, Collective attention in the age of (mis)information, pubblicato su «Computers in Human Behavior» nel 2015, ci siamo concentrati sulla fruizione di informazioni qualitativamente differenti: fonti di informazione ufficiali, fonti di informazione alternativa e quelle dei movimenti politici.
Le prime si riferiscono a tutti i quotidiani e agenzie che fanno informazione a copertura nazionale nel panorama italiano (indicate come mainstream). Le seconde riguardano invece le fonti di informazione che si autoproclamano promotrici di tutto quello che l’informazione manipolata nasconde agli utenti. L’ultima categoria riguarda movimenti e gruppi politici che fanno del Web uno strumento di mobilitazione politica.
Il lavoro di censimento, soprattutto delle fonti alternative, è stato lungo e certosino. Abbiamo raccolto e verificato manualmente varie indicazioni da utenti e da gruppi Facebook attivi nello smascherare le bufale (Protesi di Complotto, Bufale un tanto al chilo, La menzogna diventa verità e passa alla Storia).
Dalle 50 pagine Facebook censite abbiamo analizzato il comportamento on line di più di due milioni di utenti italiani che hanno interagito con le loro informazioni su una finestra temporale di sei mesi, da settembre 2012 a febbraio 2013.
I risultati hanno mostrato che informazioni qualitativamente diverse presentano caratteristiche molto simili in termini di durata, numero di utenti che vi interagiscono e persistenza degli utenti. Informazioni dai quotidiani nazionali, dalle fonti alternative e dedicate alla discussione politica riverberano allo stesso modo e non mostrano sostanziali differenze di fruizione sui social media. Per esempio, su tutte le categorie l’attenzione media che un post riceve è di 24 ore.

Complottisti manipolati
Tra le varie forme di espressione che troviamo su Facebook sono particolarmente interessanti i troll, all’inizio intesi come utenti a caccia della rissa sul Web, che tra commenti irriverenti e oppositivi cercano di creare scompiglio.
Ultimamente questa figura, stimolata dall’enorme eterogeneità di gruppi e interessi che invadono il Web, si è evoluta in qualcosa di più articolato. Dove c’è una dinamica sociale che calca troppo la mano e diventa estremista su un qualsiasi aspetto, compare la controparte troll che ne fa la parodia. Pagine che scimmiottano il componamento dei sostenitori di movimenti politici nostrani (esilarante è Siamo la Gente, il Potere ci temono); pagine che pubblicano sempre la stessa foto di cantanti famosi in barba alla retorica della viralità dei contenuti, altre che postano foto di Ebola con i gattini, o altre ancora che fanno parodia dell’estremismo vegano.
Tra i vari oggetti di scherno non mancano le teorie del complotto con post che parlano di abolire le leggi della termodinamica in Parlamento o che ritengono che da una recente analisi sulla composizione chimica delle scie chimiche emerga la presenza del sildenafil citrato, ovvero il principio attivo del Viagra.
Questi contenuti parodistici e caricaturali si sono rivelati fondamentali per i nostri studi, perché ci hanno permesso di misurare le abilita di fact checking degli internauti nostrani. Essendo concepiti a scopo parodistico, sono intenzionalmente falsi e veicolano contenuti paradossali; ci hanno permesso quindi di misurare fino a che punto il confirmation bias sia determinante nella scelta dei contenuti.
Più precisamente, per verificare potenziali attitudini derivanti dall’esposizione continua a tipi specifici di contenuto, sempre nello studio su «Computers in Human Behavior» abbiamo diviso gli utenti, categorizzandoli in base al tipo di informazione preferita tenendo conto della percentuale di like su un unico tipo di informazione, e ne abbiamo misurato le interazioni con uno specifico set, circa 5000, di informazioni troll.
Poco sorprendentemente abbiamo trovato che i follower di informazione alternativa, coloro cioè che sono particolarmente attenti all’informazione alternativa, sono i più proni a mettere like e condividere informazioni troll, esattamente con la stessa modalità con cui consumano le altre.
Questo risultato è particolarmente interessante perché porta in evidenza quello che poi abbiamo chiamato «il paradosso del complottista»: quelli più attenti alla «manipolazione» perpetrata dai mezzi di comunicazione «manipolati» sono i più proni a interagire con fonti di informazioni intenzionalmente false, e quindi potenzialmente anche i più proni a essere manipolati.

Casse di risonanza
Il fatto che informazioni diverse siano consumate allo stesso modo pone sostanzialmente due ipotesi: che le informazioni siano trattate indistintamente da tutti gli utenti a prescindere dal tipo di contenuto: che esistano gruppi di interesse focalizzati su specifici contenuti e che il loro comportamento sia universale rispetto alla tipo di contenuto e narrativa scelti.
Quest’ultima è la più affascinante, perché ripropone il concetto di esposizione selettiva (confirmation bias) e l’idea che il Web, avendo facilitato l’interconnessione tra persone e l’accesso ai contenuti, abbia di fatto messo il turbo alla formazione delle echo chamber, comunità che condividono interessi comuni, selezionano informazioni, discutono e rinforzano le proprie credenze attorno a una narrazione del mondo condivisa.
Quindi un secondo passaggio è stato confrontare il comportamento degli utenti esposti a fonti di informazione scientifica con quelli che seguono solitamente fonti di informazione alternativa e filo complottista. La scelta è peculiare: le fonti differiscono per avere o meno un mittente, un responsabile del messaggio. L’informazione scientifica fa riferimento a studi generalmente pubblicati da riviste scientifiche, di cui si conoscono autori, istituzioni e così via.
Nell’informazione complottista, invece, il frammento di informazione è formulato in modo da contenere l’incertezza che poi genera. Si tratta sempre di notizie riferite a qualche piano segreto e volutamente celato al grande pubblico.
Altra differenza sostanziale, a prescindere dalla veridicità dell’informazione riportata dalle due tipologie di fonti, è che sono narrative agli antipodi. La prima si basa su un paradigma razionale che (quasi sempre) cerca evidenze empiriche. La seconda – riprendendo la definizione di Cass Sunstein della Harvard University e autore di importanti libri sulle dinamiche sociali del complottismo, che a sua volta riprende il filosofo Karl Popper – si riferisce a un insieme di credenze che sono il risultato di un processo di causazione che porta ad attribuire gli eventi a un motore intenzionale. Il pensiero complottista ricalca l’incapacità di attribuire a conseguenze avverse un determinante casuale (forze di mercato, pressione evolutiva, complessità); sono caratteristiche che secondo Martin Bauer, psicologo sociale alla London School of Economics e studioso delle dinamiche complottiste, sono da attribuirsi a un modo «quasi religioso» di pensare i processi.
Un po’ come quando all’alba dell’umanità si attribuiva una natura divina alle tempeste, ora succede lo stesso davanti ai processi intricati della globalizzazione e del processo tecnologico.
Interagendo con i vari gruppi on line attivi nel debunking di informazioni false, ovvero la smentita di queste informazioni false basata su conoscenze acquisite con il metodo scientifico, abbiamo definito l’insieme delle pagine Facebook da esplorare. Nel dettaglio, l’analisi fa riferimento a 73 pagine, di cui 39 complottiste e 34 scientifiche, per un totale di più di un milione di utenti italiani di Facebook in una finestra temporale di cinque anni, tra il 2010 e il 2014 per la precisione.
I risultati dello studio, Science vs conspiracy: collective narratives in the age of misinformation pubblicato su «PLoS ONE», hanno mostrato che nel Facebook nostrano il numero di utenti che segue fonti di informazione complottista è tre volte quello delle informazioni scientifiche e che entrambe sono assai focalizzate. Emerge chiaramente che gli utenti si aggregano intorno a narrative specifiche e raramente escono da quella echo chamber.
Informazioni verificate e non verificate vengono fruite allo stesso modo e in maniera mutualmente esclusiva. Questa caratteristica dell’interazione sociale su Facebook sembra avere un ruolo importante nella diffusione dei rumor falsi. Esaminando 4709 informazioni mirate a imitare satiricamente le teorie complottiste con tratti palesemente assurdi (Viagra nelle scie chimiche, per esempio) ne emerge che gli utenti più proni a interagire con questi contenuti (80 per cento) siano coloro che consumano principalmente informazioni filocomplottiste che non sono verificate.
Altra caratteristica interessante è che gli utenti focalizzati principalmente su informazioni complottiste tendono a diffondere di più, tramite la condivisione con i propri amici le informazioni complottiste.
A questo punto ci siamo chiesti se questa forte polarizzazione degli utenti che seguono fonti complottiste oppure scientifiche si riflettesse anche sulle amicizie virtuali. Quindi, esaminando più da vicino questa echo chamber abbiamo ricostruito la rete sociale dei due gruppi e abbiamo scoperto una regolarità statistica sorprendente: al crescere del numero di like su uno specifico tipo di narrativa aumenta linearmente la probabilità di avere una rete sociale virtuale composta solo da utenti con lo stesso profilo. Ovvero, più si è esposti a uno specifico tipo di narrazione, più aumenta la probabilità che tutti gli amici di Facebook abbiano la stessa attitudine al consumo di informazioni.
Le implicazioni di queste caratteristiche della rete sociale che si vede divisa in gruppi omogenei in base al tipo di contenuto fruito è fondamentale soprattutto per la comprensione della viralità dei fenomeni. Questi gruppi omogenei tenderanno a escludere tutto quello che non è coerente con la propria narrazione del mondo. Quindi è una struttura che facilita il rinforzo e facilita la selezione dei contenuti per confirmation bias.

Tribù separate
A partire da questa ultima osservazione la ricerca è proseguita esaminando gli effetti delle campagne di informazione che mirano a correggere la diffusione delle informazioni false nei social media. In uno studio pubblicato negli atti della conferenza «Social Informatics» e intitolato Social determinants in the age of misinformation abbiamo confrontato tra gli utenti generalmente esposti a fonti di informazione complottista, quelli che sono stati esposti a post di debunking e quelli che invece non lo sono stati. Nello specifico abbiamo misurato la persistenza, cioè la probabilità di continuare a mettere like su uno specifico tipo di contenuto nel tempo, per gli utenti esposti e per quelli non esposti a campagne di informazione mirate a smentire informazioni false. I risultati hanno mostrato che per gli utenti esposti a debunking la probabilità di continuare a interagire con informazioni complottiste è circa il 30 per cento più elevata rispetto ai non esposti.
In parole povere, cercare di convincere un sostenitore delle scie chimiche che queste non esistono produce un effetto di rinforzo della sua credenza che si manifesta in una maggiore interazione con le fonti di informazione erronee.
Abbiamo verificato le stesse dinamiche nel contesto del Facebook statunitense su 55 milioni di utenti e abbiamo trovato sostanzialmente le stesse dinamiche. Gli utenti sono polarizzati, si informano e formano la propria opinione secondo un processo cognitivo che evita il conflitto a favore delle informazioni a sostegno della propria credenza. Il principale motore per la diffusione dei contenuti sembra proprio l’omofilia. Gli utenti condividono principalmente i contenuti da altri utenti con un profilo simile.
Quest’ultimo risultato, pubblicato a gennaio 2016 sui «Proceedings ofthe National Academy of Sciences» con il titolo The spreading of misinformation on line, è molto interessante perché ci ha permesso di sviluppare modelli predittivi, basati sulla meccanica dei fluidi percolativi, che ci permettono con buona approssimazione di calcolare la dimensione dei fenomeni virali.
Con un altro lavoro, Emotional dynamics in the age of misinformation pubblicato a settembre 2015 su «PLoS ONE», sempre esaminando l’insieme dei dati degli studi precedenti con le fonti di informazione complottista e scientifica, attraverso tecniche di sentiment analysis, ovvero algoritmi che con un dovuto allenamento sono in grado di fornire con buona approssimazione il sentimento espresso dagli utenti nei commenti ai post, troviamo che più lunga è la discussione più si va verso un sentimento negativo.
Questo vale sia per chi fruisce fonti di informazione complottista sia informazione scientifica, anche se i complottisti sembrano tendenzialmente più negativi. In ogni caso, una discussione prolungata su un post sembra produrre una degenerazione negativa. In pratica è come se gli utenti coinvolti si influenzassero negativamente, tendendo a esprimere sentimenti negativi al crescere della discussione.

Dentro la cassa
Finora ci siamo focalizzati sul comportamento della echo chamber guardandola dall’esterno, e abbiamo trovato che i contenuti sono selezionati per confirmation bias e che altre informazioni sono ignorate o trattate in maniera antagonista.
Le comunità che si aggregano attorno ad argomenti specifici di cui condividono la narrazione (come i complottisti) tendono a confrontarsi al loro interno per stabilire i principi di causazione e trovando spiegazioni a fenomeni ritenuti interessanti.
In generale, diversi studi sulle dinamiche del pensiero complottista suggeriscono che questa narrazione è variegata e spesso ha l’obiettivo di identificare la paura di quello che non si conosce o più in generale di convogliare sentimenti di ansia e paranoia su oggetti e storie specifiche.
Una società aperta e globalizzata tende discutere e cerca spiegazioni ai fenomeni che la riguardano come per esempio la multiculturalità, la maggiore complessità del circuito finanziario su scala globale, il progresso tecnologico. Purtroppo, però, la complessità dei fenomeni a volte fa preferire all’utente, a prescindere dal livello di istruzione, una spiegazione più compatta, che identifichi chiaramente un oggetto da colpevolizzare, per esempio il riscaldamento globale indotto dalle scie chimiche o i disagi della globalizzazione indotti dai piani segreti dei rettiliani.
Mettendo il focus all’interno della echo chamber complottista nostrana troviamo che gli utenti tendono ad abbracciare le tesi più variegate al crescere della loro attività on line.
Attraverso algoritmi di automatic topic extraction, ovvero tecniche informatiche che servono a raggruppare i contenuti on line in base ai temi trattati analizzandone il testo, applicati al corpus del Facebook italiano sul versante complottista, troviamo che i topic appartengono fondamentalmente a quattro classi specifiche: dieta, ambiente, salute e geopolitca. Questo risultato è abbastanza in linea con altri paesi; nello specifico abbiamo visto che gli stessi argomenti sono presenti anche negli Stati Uniti, anche se in quel caso c’è anche una forte attenzione a UFO e alieni.
In Trend of Narrative in the Age of Misinformation, pubblicato su «PLoS ONE», abbiamo mostrato che la fruizione, nonché la viralità, dei post legati a questi temi è fortemente correlata al punto che al crescere dell’attività dell’utente si tenderà ad abbracciare indistintamente tutto il corpus. Infatti, quanto maggiore è l’attività dell’utente, tanto maggiore sarà la sua tendenza ad abbracciare tutto il corpus complottista a prescindere dal topic specifico.
In breve, una volta dentro l’echo chamber si tenderà ad assorbirne tutti i contenuti proposti.

Fine dell’era dell’informazione?
Le dinamiche sociali che emergono dai nostri studi evidenziano in modo chiaro le problematicità relative alla formazione e all’emergenza di narrazioni su fatti e fenomeni potenzialmente erronei nei social media.
La selezione dei contenuti avviene per pregiudizio di conferma, ovvero per confirmation bias, e questo porta alla formazione di gruppi solidali su specifici temi e narrazioni che tendono a rinforzarsi e allo stesso tempo ignorare tutto il resto. Nella maggior parte dei casi la discussione degenera in un litigio tra estremisti dell’una o dell’altra visione, e si fomenta quindi la polarizzazione.
Questo contesto rende di fatto molto difficile informare correttamente e, come conseguenza, fermare una notizia infondata diventa di fatto impossibile. La bufala del senatore Cirenga è stata pubblicata in un moto di indignazione su Twitter qualche mese fa da un noto attore.
Il problema della disinformazione sui social media è molto sentito, al punto che Facebook ha introdotto la possibilità per gli utenti di segnalare informazioni false, mentre Google sta studiando un metodo per considerare l’affidabilità delle pagine nella classifica dei risultati da mostrare all’utente.
In ogni caso, a valle dei nostri studi emergono forti dubbi sulla efficacia di soluzioni algoritmiche e ingegneristiche che i grandi colossi del Web stanno applicando.
Probabilmente per molto tempo ancora le nostre cene saranno allietate da infuocate discussioni sull’ultimo megacomplotto mondiale ordito dai rettiliani o da interessanti disquisizioni sui potenti effetti della nuova dieta a base di acqua, ghiaia e capesante che spopola sul Web. L’importante è diffondere quello che ci viene tenuto nascosto, poi che sia vero o falso poco importa. Che sia il caso di cambiare la dicitura di era dell’informazione in era della credulità?