la Repubblica, 14 maggio 2016
«Perché vedo quel che vedo?». Cosa c’è in quei pochi centimetri quadrati incorniciati di blu di Facebook?
Perché il miliardo di persone che ogni giorno consulta Facebook vede quel che vede? Cosa determina il contenuto della colonna centrale del social network e, in particolare, la prima schermata, quella che appare non appena si accede al sito? Nel giro di pochi anni quello spazio, quella manciata di centimetri quadrati incorniciati di blu, è diventato uno dei più influenti del mondo. Sia per il numero di occhi che lo guardano sia per il tempo – crescente – che passano a guardarlo.
Per strada, al lavoro, sui bus – persino, così dicono le ricerche, a letto o in bagno. Perché quegli occhi vedono quel che vedono e non altro? Quei centimetri quadrati sono pochi, non ci può star tutto. Certamente non tutti gli aggiornamenti provenienti dai propri contatti e, ancor più certamente, non tutte le notizie. E allora come selezionare il poco che apparirà in quello spazio? A seconda della selezione, gli utenti di Facebook si faranno non solo una certa idea della situazione della loro cerchia di contatti, ma anche una certa idea di come sta andando il mondo in quel momento. Un numero crescente di utenti di Facebook, infatti, soprattutto se giovani, si informa principalmente grazie al social network, ovvero, a quel che appare in quei centimetri quadrati.
Il controllo di quello spazio, dunque, dà a Facebook la possibilità di influenzare la pubblica opinione in modi che spaziano dal dare evidenza a certe notizie piuttosto che ad altre, alla possibilità, oggetto di noti (e discussi) esperimenti dell’azienda americana, di influire sullo stato d’animo delle persone (dando preferenza a notizie allegre per rasserenare gli utenti o viceversa) e persino sull’esito di elezioni, pubblicizzando il fatto che i propri contatti fossero andati a votare o meno (l’astensionismo non è politicamente neutro).
Tutto questo naturalmente non è nuovo. Giornali, radio e televisioni hanno esercitato questo tipo di influenza da sempre. I centimetri quadrati della prima pagina di un quotidiano, infatti, sono anche loro limitati e quindi bisogna selezionare le notizie, e analogamente limitati sono i minuti a disposizione di un telegiornale. E i media hanno sempre usato il potere che viene dal poter selezionare per promuovere una determinata visione del mondo a scapito delle altre.
Quello che è senza precedenti è la presunzione di esercitare questo tipo di influenza sostenendo che sia frutto di scelte neutrali, meramente tecniche, “oggettive”. I documenti interni pubblicati in questi giorni dimostrano il contrario.
Quindi il vero problema non è che i Trending di Facebook vengano curati o meno da esseri umani (nel caso in esame, giornalisti precari) o che questi esseri umani possano essere stati influenzati da loro preferenze personali o da desiderata dell’azienda (come pare che capitasse per le notizie riguardanti la stessa Facebook o il concorrente Twitter). Il vero problema è che la “neutralità” di cui parla Facebook non può esistere. Non esisterebbe neanche col più semplice degli algoritmi e, a maggior ragione, non esiste con algoritmi opachi, altamente complessi e in costante evoluzione. Facebook deve quindi innanzitutto aumentare la trasparenza delle sue operazioni ( che impieghino o meno esseri umani) ed esserne responsabile: invocare parole come “coerenza”, “neutralità”, “efficienza” non è sufficiente. In proposito il Senato americano ha chiesto di poter visionare i dati relativi alle attività del team Trending: è un primo passo a cui dar seguito, e non solo negli Stati Uniti.
In secondo luogo, Facebook deve investire ingenti risorse per comprendere e condividere le conseguenze dei suoi algoritmi ed esserne poi responsabile.
Infine, occorre tener presente gli strumenti sviluppati in passato per responsabilizzare i media: da una parte l’istituzionalizzazione e la professionalizzazione del giornalismo, con relativa deontologia professionale, e dall’altra un’effettiva competizione tra i media. Tutti strumenti imperfetti ma che pure hanno svolto un ruolo positivo: con gli adattamenti del caso potrebbero svolgerlo anche oggi.
L’obiettivo è innanzitutto quello di permettere al miliardo di persone che apre Facebook tutti i giorni di saper rispondere alla domanda: «Perché vedo quel che vedo?». E poi dare agli utenti che volessero vedere qualcos’altro una chance concreta di poterlo fare.