corriere.it, 29 aprile 2025
Internet, da «dono di Dio» a pericolo per la democrazia: cosa è andato storto?
(Testo completo di una serie di articoli pubblicata online in nove puntate: 10-17-24-31 marzo e 7-14-21-28 aprile)
Qualche giorno fa sulla bacheca digitale interna di Google è apparso un messaggio che fotografa benissimo lo sconcerto che tanti avvertono. É apparso dopo che nel giro di qualche giorno Google ha ribattezzato, sulle sue mappe, «Golfo d’America» il Golfo del Messico, come ordinato dal presidente degli Stati Uniti; e cancellato i programmi di inclusione delle minoranze, come auspicato dal presidente degli Stati Uniti; e infine rimosso lo storico divieto – che si era autoimposto – di utilizzare l’intelligenza artificiale per scopi militari, aprendo ad una collaborazione con il Pentagono, il dipartimento della Difesa. Tutto nel giro di una settimana. Una svolta apparentemente netta per l’azienda che anni fa si era presentata al mondo con il motto «don’t be evil», non fare il cattivo. Il motto ufficiale è cambiato da un po’ ma l’accelerazione dei giorni scorsi faceva impressione lo stesso. Al chè uno dei 180 mila dipendenti dell’azienda di Mountain View è andato sulla bacheca interna – Memegen, un generatore di meme aziendali -, ha postato l’immagine di un soldato nazista e ha chiesto: «Siamo diventati noi i cattivi?».
La risposta però è un’altra domanda: quando è successo? E perchè non ce ne siamo accorti prima?
Oggi è troppo facile prendersela con il web e con i social, ma un tempo non era così. Era tutto un coro che inneggiava alle «magnifiche sorti e progressive» del digitale. Ancora all’inizio del 2009, intervistata per i suoi 100 anni, la scienziata Rita Levi Montalcini scolpiva una epigrafe: «La più grande invenzione del ‘900? E me lo chiede? Internet». Ecco, per lei non c’era neanche bisogno di chiederlo: la più grande invenzione del secolo passato non erano la penicillina o i vaccini; non erano gli aerei o il cinema. Era Internet, ovviamente.
Questo era lo zeitgeist, lo spirito del tempo. Se quella che abbiamo vissuto per un paio di decenni è stata davvero una allucinazione collettiva o se invece ad un certo punto chi dava le carte ha truccato il mazzo, proveremo a scoprirlo; ma intanto va riconosciuto che ci siamo cascati tutti o quasi. Persino papa Francesco. É accaduto il 23 gennaio 2014, in occasione della Giornata mondiale delle comunicazioni sociali, quando definì Internet – addirittura – «un dono di Dio». L’espressione non era nuova e non era del pontefice, ma del cinese Liu XiaoBo che nel 2010, mentre era in carcere, aveva vinto il premio Nobel per la Pace. Liu XiaoBo era un importante intellettuale che aveva insegnato in diverse università occidentali: tornato in Cina nel 1989 per sostenere la rivolta di piazza Tienanmen, aveva fatto avanti e indietro in carcere diverse volte, fino al 2009, quando ci entrerà per uscire solo prima di morire di cancro, nel 2017. Nel suo ultimo testo da uomo libero il professore aveva definito Internet «un dono di Dio per la Cina», e si capisce perché: perché doveva sembrargli l’unico strumento per superare la censura e comunicare liberamente (non aveva intuito che invece, al riparo della Grande Muraglia cibernetica, il regime stava costruendo un sistema di sorveglianza di massa come non si era mai visto prima).
Quell’espressione, «dono di Dio», che inizialmente era appunto circoscritta alla situazione cinese, grazie al documento del papa divenne universale. Un dono di dio, per tutti. Per tutti forse, ma non per sempre. Qualche giorno fa, sempre nella Giornata delle comunicazioni sociali, stavolta il pontefice ha invertito la rotta. Ha detto che i sistemi digitali «profilandoci secondo le logiche del mercato modificano la nostra percezione della realtà». E ancora, a proposito delle interazioni sui social: «Sembra allora che individuare un nemico contro cui scagliarsi verbalmente sia indispensabile per affermare sé stessi. E quando l’altro diventa nemico, quando si oscurano il suo volto e la sua dignità per schernirlo e deriderlo, viene meno anche la possibilità di generare speranza». Tutti i conflitti «trovano la loro radice nella dissolvenza dei volti». Un dono di Dio? Non più.
Eppure non doveva andare così. Internet e il web non erano nati con questo scopo. E per moltissimo tempo sono sembrati il più formidabile strumento di progresso dell’umanità dai tempi dell’invenzione della carta stampata o dell’elettricità. Gli esempi sono moltissimi, ma uno fu addirittura in mondovisione, davanti a novecento milioni di persone. Nel 2012, alla cerimonia di apertura dei giochi olimpici di Londra, fra la regina d’Inghilterra e James Bond a un certo punto, in mezzo allo stadio, era apparso un signore di mezza età dinoccolato, appena impacciato, che sul suo personal computer aveva scritto «world wide web». E poi aveva aggiunto: «And this is for everyone», è per ciascuno di voi. Era Tim Berners Lee, il fisico che nel 1989, a 34 anni, mentre stava al Cern di Ginevra come stagista, nel tempo libero aveva scritto i protocolli del web e li aveva letteralmente donati al mondo perché il mondo fosse migliore. Non so se Internet è stato davvero un dono di Dio, ma il web è stato sicuramente un dono di Tim Berners Lee. Un clamoroso atto di generosità.
Alcuni sottolineano che in realtà la realizzazione di una rete di computer tramite la quale le persone potessero dialogare all’inizio aveva avuto lo scopo di dotare gli Stati Uniti di uno strumento per resistere in caso di attacco nucleare sovietico. L’idea era disporre di una rete che continuasse a funzionare anche se un nodo veniva distrutto. Ma se questa era l’origine dei fondi del progetto di ricerca governativo da cui prese il nome la prima rete che poi diventerà Internet (Arpanet, ovvero Advanced Research Project Agency Network); non era certamente militare lo spirito che animava i pionieri che fecero l’impresa «andando a letto tardi», come titola il più dettagliato libro sulla storia di Internet (Where the Wizards Stay Up Late). In loro c’era piuttosto la visione utopica di Xanadu, ovvero la creazione di un grande archivio digitale del sapere del mondo di cui si era iniziato a favoleggiare all’inizio degli anni ‘60. Sembrava utopia pura, ma poi l’hanno fatto davvero.
Come è noto il primo storico collegamento avvenne, sulla costa Ovest degli Stati Unuti, alle 10 e 30 di sera del 29 ottobre 1969. Il messaggio per errore fu semplicemente «Lo», al posto di «Login», perchè il viaggio del primo «pacchetto di dati» dall’università della California a Los Angeles (Ucla) al Centro di Ricerca di Stanford (Sri), cinquecento chilometri appena, si interruppe. Ma a ripensarci oggi era profetico: «Lo», in inglese si usa nell’espressione «Lo and Behold», ovvero «guarda e trattieni il fiato» (sottotesto: che sta per cambiare tutto). A capo del team c’era un ingegnere elettrico, che ai tempi aveva 35 anni, Leonard Kleinrock. Mezzo secolo più tardi, quando gli utenti di Internet nel mondo avevano superato il muro dei quattro miliardi e gli effetti collaterali, non tutti benefici, della rivoluzione digitale iniziavano ad essere evidenti, un giornalista del New York Times lo andò a trovare per festeggiare l’anniversario e invece di un trionfatore pronto a condividere gli aneddoti migliori, trovò un anziano signore afflitto dai sensi di in colpa. Disse: «Eravamo soltanto un gruppo di ingegneri che doveva risolvere un problema, non pensavamo mai che un giorno questa cosa sarebbe stata guidata dal profitto, e infatti non brevettammo nulla». Neanche loro, come Tim Berners Lee. E poi ha ammesso sconsolato:«Il lato oscuro di Internet noi non lo abbiamo visto arrivare, non faceva parte della nostra mentalità».
Il «lato oscuro di Internet» rimanda alla celebre risposta che nel 2010 il guru del mitico Medialab del Mit di Boston Nicholas Negroponte diede ad un giornalista: «Il lato oscuro di internet? É non averlo». Un’altra epigrafe. Altro che diritto alla disconnessione, altro che appelli a tenere gli schermi lontani dai bambini, altro che fake news. Quelli erano gli anni in cui l’obiettivo principale di tutti i governi era portare la banda larga ovunque e Internet da molti veniva considerato addirittura un diritto costituzionale. Quell’anno un giurista raffinato come Stefano Rodotà, grande conoscitore della Rete, avanzò la proposta di modificare l’articolo 21 della Costituzione aggiungendo un comma, questo: «Tutti hanno eguale diritto di accedere alla rete Internet, in condizione di parità, con modalità tecnologicamente adeguate e che rimuovano ogni ostacolo di ordine economico e sociale». (La proposta non venne mai approvata, ma quell’articolo aprirà il «Bill of Rights» che una commissione della Camera dei deputati varò qualche anno dopo, e se ne tornò a parlare nel 2019 quando il premier Giuseppe Conte disse che esisteva «un diritto a Internet gratis» e il vice premier Di Maio si lanciò in una strampalata proposta «per garantire a tutti 30 minuti gratuiti al giorno». Chiusa parentesi).
Chiariamo: la sbornia tecno ottimista non fu un problema italiano ma generalizzato. Persino le Nazioni Unite nel 2012 avevano approvato una risoluzione in questo senso. E poi c’erano gli Stati Uniti a guidare questa rivoluzione, filosofica prima ancora che tecnologica: nel 2008 Barack Obama era diventato il primo presidente a usare sistematicamente la rete e i social per fare la campagna elettorale dando a quegli strumenti un’aura di santità. «Sono stato il primo presidente digitale, si può tranquillamente argomentare che non sarei stato eletto senza i social network», ha ricordato Obama un paio di anni fa. Ma va detto che i social di allora non erano ancora diventati lo stesso strumento che poi porterà due volte Donald Trump alla Casa Bianca. La profilazione degli utenti e la segmentazione sistematica dei contenuti per privilegiare quelli che generano paura e rabbia, non esistevano. La «grande strategia social» di Obama in pratica fu la creazione di un sito web e la raccolta, tramite Facebook, di donazioni e l’organizzazione dei volontari. Tutto qui. Il suo profilo Twitter, dove ebbe subito milioni di follower, non era una clava per attaccare gli avversari, ma uno strumento molto istituzionale. Per i primi tre anni lo maneggiò soltanto il suo team di comunicazione. Il primo tweet autentico, siglato «Bo», è addirittura del 2011, in occasione della Festa del papà: «Being a father is sometimes my hardest but always my most rewarding job...». In tutto 122 caratteri che il New York Times celebrò con un articolo festoso manco fosse una poesia di Allen Ginsberg.
Fu grazie all’effetto Obama che nel mondo si iniziò a parlare di «tech democracy». di una nuova stagione della democrazia potenziata da Internet, il cosiddetto «open government», governo aperto, aperto alla partecipazione diretta dei cittadini e al loro controllo (da cui, in Italia, la deriva grillina con le dirette streaming di ogni riunione e la raccolta degli scontrini delle spese degli eletti). La paladina di questa visione era Beth Noveck, una giovane professoressa del New Jersey che aveva pubblicato un saggio intitolato: «Il governo wiki: come la tecnologia può migliorare il governo, rafforzare la democrazia e rendere i cittadini più potenti». Ero presente nel 2011 a New York quando ad un summit infiammò una piccola folla di idealisti con queste parole: «La prossima grande innovazione in democrazia? La tecnologia». Capita a molti di fare previsioni che si rivelano sbagliate, questo è un caso di scuola.
Da allora infatti è cambiato tutto e non come avevamo previsto. Sono pochissimi quelli che possono salire in cattedra, guardare il disastro che ci circonda e vantarsi: «Ve l’avevamo detto». Sono pochi: lo scrittore bielorusso Evgeny Morozov e qualcun altro. Gli altri sembrano sperduti, increduli. Lo stesso Barack Obama, nel 2022, parlando ad un convegno all’università di Stanford sull’impatto della tecnologia sulla democrazia, anche se il suo amico Joe Biden aveva bloccato la rielezione del «campione del mondo di Twitter» Donald Trump, aveva ormai smesso i panni del pifferaio magico digitale. Quel giorno, dopo un discorso molto critico sulle distorsioni della realtà create dagli algoritmi dei social, Obama ha concluso: «Vogliamo accettare il declino della nostra democrazia o vogliamo provare a fare di meglio?». Un dilemma con un forte contenuto di ottimismo, perché presuppone l’idea che sia ancora possibile fare reverse engineering e tornare indietro.
Forse sì. Ma per farlo occorre rispondere alla domanda iniziale: cosa, esattamente, è andato storto?
Eppure Facebook non è sempre stato così. Ricordate com’era all’inizio, quando divenne disponibile a tutti? Era il 26 settembre 2006 e, oggi lo possiamo dire, fu davvero l’inizio di una nuova era. Prima, per oltre diciotto mesi, “Thefacebook” (questo il nome originario: il libro delle facce, quello che nelle scuole americane ha le facce di tutti gli studenti), prima era stato solo un progetto studentesco. Al debutto, nel febbraio 2004, era aperto solo per gli studenti di Harvard, l’università dove Mark Zuckerberg studiava; poi si era allargato a Stanford, Columbia e Yale e ad altri atenei della Ivy League, l’esclusiva costa nord orientale degli Stati Uniti. Ebbe subito una crescita esponenziale, sebbene disponesse di un target così circoscritto: alla fine del primo anno aveva già raggiunto l’incredibile traguardo di un milione di utenti; allora si era aperto alle scuole superiori di tutto il mondo (ottobre 2005) e solo il 26 settembre 2006 aveva aperto le porte «a chiunque avesse più di 13 anni e un valido indirizzo email». Come adesso.
Di fatto insomma Facebook come lo conosciamo ha meno di venti anni e all’inizio era molto, ma molto diverso. Com’era? Era un posto normale, addirittura piacevole; accogliente, eccitante a volte, ma nel senso migliore del termine. Per esempio era eccitante ritrovare all’improvviso vecchi compagni di scuola che si erano persi di vista una vita fa e che improvvisamente erano solo ad un clic di distanza: bastava cliccare sul pulsante «add as a friend, aggiungi come amico» per far tornare indietro il calendario e rivivere i bei tempi («che fine hai fatto?», un tormentone). Oltre a ciò, presto ci abituammo al rito quotidiano di partecipare ad appassionanti discussioni con gli amici e con gli amici degli amici sulla qualunque senza timore di essere sbranati al primo errore o al primo dissidio come accade adesso. La vita social era ancora un mondo nuovo e ci si addentrava nelle bacheche digitali degli altri in punta di piedi, con circospezione e un vago senso di rispetto. Non si ricordano grandi liti e non avevamo bisogno di bloccare legioni di troll per vivere sereni: certo, il tempo potrebbe averci fatto idealizzare quel periodo, è possibile; ma oggi si ha quasi la certezza che su Facebook imperasse una regola, o meglio, una postura che col tempo si è completamente perduta: la gentilezza. Del resto stavamo fra amici, perché non avremmo dovuto essere gentili?
Inoltre non aggiungevamo «amici» alla nostra rete solo per fare numero e diventare degli influencer con tanti followers, anzi gli influencer neppure esistevano, sarebbero arrivati con Instagram; e i follower c’era ma stavano solo su Twitter, un’altra storia. E soprattutto non scrivevamo post andando a compulsare ogni mezz’ora le visualizzazioni che oggi misurano il nostro successo digitale, qualunque cosa questo significhi, anche perché non erano ancora in mostra e quindi non c’era questa gara quotidiana che facciamo con noi stessi e gli altri per far salire il nostro contatore digitale come se la vita fosse diventata il flipper con cui giocavamo da giovani. Non dico che fossimo migliori prima, assolutamente no, ma sicuramente c’era in rete un minor narcisismo. Non era una nostra scelta, sia chiaro, il narcisismo è un tratto ineliminabile della natura umana; ma non veniva alimentato dalla tecnologia, non veniva incoraggiato. E questa cosa avveniva by design: la piattaforma infatti non era stata progettata per il culto della nostra personalità e neanche per sfruttare le nostre vulnerabilità psicologiche (e far diventare in tal modo sempre più ricchi il fondatore e i suoi azionisti).
Ma ad un certo punto la storia, di Facebook ma anche la nostra, è cambiata. Anzi, non è soltanto cambiata. Si è ribaltata. Quando? Forse la prima svolta c’è stata il 24 marzo 2008 quando Mark Zuckerberg assunse Sheryl Sandberg e praticamente le diede il timone dell’astronave che stava costruendo nominandola chief operating officer. Ovvero il mega direttore di tutte le operazioni, subordinata soltanto al fondatore e capo supremo («capo supremo» non è una esagerazione: all’epoca il biglietto da visita di Mark recava l’amabile scritta «I’m the Ceo, bitch!», che potremmo tradurre come «sono io il capo, testa di cazzo!»). Per dare un’idea dell’impatto che ebbe l’arrivo di Sandberg sull’azienda, se guardiamo al fatturato e al profitto, Facebook oggi è mille volte più grande di come era quando fu assunta. Immaginate un paese che in meno di venti anni aumenti il suo Pil e il suo surplus di bilancio di mille volte. Mille volte: accade solo se improvvisamente nei tuoi confini scopri una gigantesca miniera d’oro o un giacimento di petrolio. E in effetti è successo proprio questo. A Facebook ancora non lo sapevano ma nei server da dove erogavano un servizio gratuito globale che presto sarebbe diventato essenziale, stavano per trovare un nuovo tipo di petrolio: i nostri dati.
Torniamo alla primavera del 2008. Nel quartier generale, che ai tempi stava ancora Palo Alto (il trasferimento a Menlo Park sarebbe avvenuto più tardi), c’erano in tutto poco più di duecento giovanissimi nerd, o se preferite, smanettoni, compreso «Zuck», che giravano nei corridoi in felpa col cappuccio e infradito; e poi c’era Sheryl Sandberg che era un po’ «l’adulto nella stanza». Lei aveva 39 anni, Zuckerberg 23: non era come una mamma quindi, ma sicuramente come una sorella maggiore. Fino a qualche mese prima era stata uno dei vice presidenti di Google dove aveva contribuito a costruire il motore commerciale di quella impressionante macchina di soldi che era diventata l’azienda di Mountain View, la cittadina della Silicon Valley dove ha sede Google.
La leggenda narra che Mark e Sheryl si siano conosciuti ad una festa di Natale nel 2007. Lei aveva da poco lasciato il lavoro ed era in cerca di una nuova sfida, lui si stava chiedendo come fare a monetizzare il successo travolgente della sua startup, ovvero cosa farci di tutti quegli iscritti ad un servizio gratuito e ancora senza un modello di business. Come guadagnarci? Avevano iniziato a frequentarsi e probabilmente avevano scoperto di avere in comune il fatto di avere entrambi studiato ad Harvard, solo che lei si era laureata in economia summa cum laude e con la menzione di miglior studente dell’anno; mentre Zuckerberg aveva lasciato gli studi subito dopo aver lanciato Facebook (la laurea ad Harvard l’avrebbe però presa dieci anni più tardi, honoris causa, quando era già uno degli uomini più potenti del mondo. Una laurea in legge che per uno che si è sempre vantato di infrangere le regole – «move fast and break things» era il suo motto – oggi appare davvero fuori luogo).
Avevano in comune anche la conoscenza con il leggendario economista Larry Summers, che oggi, dopo un lunghissimo cursus honorum, è presidente di OpenAI, la più importante startup di intelligenza artificiale del mondo, quella di Sam Altman e ChatGpt. Nel 1991 Summers era stato il relatore della tesi di laurea della giovane Sandberg rimanendo folgorato dal talento di lei; e così quando divenne Segretario del Tesoro, con Bill Clinton alla Casa Bianca, la nominò chief of staff (la famosa rete di contatti che la Sandberg mise al servizio di Facebook fu creata in quegli anni a Washington). Finita la stagione della politica, Summers tornò ad Harvard come presidente e stava ancora lì mentre Zuckerberg nella sua cameretta aveva appena creato “thefacebook”; e cosi quando i gemelli Winklevoss andarono da lui a protestare dicendo che Mark gli aveva rubato l’idea!, il professore li liquidò con la famosa frase: «I giovani non vengono qui per trovare un lavoro, vengono qui per inventarsi un lavoro» (o almeno questo è ciò che lo sceneggiatore Aaron Sorkin gli fa dire nel film The Social Network, uscito nel 2010).
Erano gli anni in cui pensavamo che le startup, grazie alla rivoluzione digitale, avrebbero creato tutta l’occupazione di cui avevamo bisogno dando a tutti un’economia più prospera e un mondo migliore. Internet era ancora «un’arma di costruzione di massa» e di questa nuova religione Mark Zuckerberg era uno degli apostoli più brillanti.
Ma sto divagando. Torniamo alla trasformazione di Facebook. Se l’arrivo della Sandberg fu la prima mossa, la seconda fu la creazione del tasto «like, mi piace», che debuttò sulle nostre bacheche digitali undici mesi più tardi, il 9 febbraio 2009. Sembrava soltanto una nuova cosa carina in realtà era molto di più. Il successo commerciale di Google lo aveva dimostrato: se è vero che i dati degli utenti erano il nuovo petrolio – perché consentivano di profilarci meglio in cluster da rivendere agli inserzionisti pubblicitari che così possono mostrare i loro annunci solo a chi è realmente interessato -, serviva uno strumento attraverso il quale fossimo portati ad esprimere le nostre preferenze in continuazione. Uno strumento attraverso il quale far sapere, registrare, ogni giorno cosa ci piaceva e cosa no. Chi siamo davvero.
Si narra che fu Mark Zuckerberg in persona a inventare «il pollice blu» mentre il suo team dibatteva su quale immagine associare al gradimento di un post senza che l’utente scrivesse soltanto «mi piace, sono d’accordo» (cosa che ai tempi rendeva la sfilza di commenti troppo monotona per essere minimamente eccitante). Qualcuno aveva proposto l’immagine di una bomba con la miccia accesa, un altro la scritta «awesome, fantastico»; ma Zuckerberg che ha il mito dell’Antica Roma, che considera Enea «il primo startupper della storia» e che si sente un po’ un nuovo Cesare Augusto, se ne uscì col pollice, come quello che l’imperatore al Colosseo poteva girare verso l’alto o verso il basso determinando la sorte del gladiatore. Sul significato del pollice si è poi scoperto che ci sono alcuni falsi miti (miti che il film il Gladiatore ha confermato) ma non è questa la sede per parlarne: qui ci serve soltanto aggiungere un mattoncino alla storia di Facebook e dei social network.
La trasformazione dei social network in un Colosseo quotidiano inizia lì, con l’introduzione del tasto «mi piace».
La terza mossa fu l’introduzione di EdgeRank, letteralmente «la classifica delle interazioni» fra noi utenti e i post. In pratica si tratta dell’algoritmo che per anni ha deciso quali post ciascuno di noi avrebbe visto ogni volta arrivando sulla piattaforma. All’inizio per Facebook, e per tutti gli altri social, l’unico criterio era cronologico: il nostro «feed», il flusso di post che ci venivano proposti, era temporale. In pratica vedevamo quello che gli amici avevano pubblicato in ordine cronologico. Ricordate quando postavamo la foto del cappuccino e del cornetto per dare il buongiorno a tutti, anzi il «buongiornissimo», e tutti i nostri amici la vedevano? Ecco, da tempo non è più così. Quello era il Facebook degli inizi. Oggi quello che vediamo lo decide un algoritmo e lo fa in base ad altri criteri. E ad altri obiettivi, che non sono esattamente «connettere tutte le persone del mondo» come ci è stato ripetuto fino allo sfinimento. Ecco perché non vediamo più tanti cappuccini e cornetti.
Quando si usa la parola algoritmo molti pensano a qualcosa di misterioso, di esoterico o religioso, addirittura: «L’ha deciso l’algoritmo!», diciamo, come se fosse una divinità. Ma volendo semplificare molto, l’algoritmo è soltanto una formula o, meglio, una ricetta, predisposta da un essere umano per automatizzare certi processi ed essere certi che si producano certi risultati. Per esempio la ricetta della pasta alla carbonara (pancetta+uova+pecorino) è una specie di algoritmo: indica gli ingredienti, le quantità e l’ordine in cui vanno aggiunti e anche il modo in cui vanno trattati (cucinati, sbattuti, soffritti eccetera).
La ricetta di EdgeRank è questa: affinità moltiplicata per il peso moltiplicati per il tempo (o meglio, l’invecchiamento di un post).
Seguitemi perché così finalmente capiamo cosa abbiamo visto sui social fin qui. L’affinità, o l’affinity score (u) calcola quanto l’utente è interessato ad un altro utente e quindi valuta quando e come ha interagito in passato con i contenuti che l’altro ha postato; è un fattore unidirezionale, nel senso che il suo valore aumenta anche se uno legge sempre i post dell’altro e l’altro non ricambia e non ne guarda nemmeno uno. Esempio: se io seguo una star ma quella non sa nemmeno chi sono, io vedrò tutti i post della star e non accadrà il contrario. Il secondo fattore, weight (w) è il peso ed è probabilmente il più importante: misura il tipo di interazione che abbiamo avuto in passato con certi contenuti: hai commentato o condiviso un post su un certo argomento? Quando in rete ci sarà un altro post sullo stesso argomento, questo valore aumenterà. Nel “peso” sono contenute un sacco di altre variabili fondamentali, ma ci torniamo dopo. Il terzo fattore è il tempo, o meglio l’obsolescenza, time decay (d), ed è molto intuitivo: più un post è vecchio è meno è rilevante (ma se improvvisamente dopo tanto tempo per qualche ragione quel post torna attuale, il “time decay” si azzera).
Eccola insomma, la formula di EdgeRank («la misteriosa formula che rende Facebook ancora più intrigante» come titolò allegramente un importante blog della Silicon Valley quando venne presentata al pubblico, il 22 aprile 2010):
Σuwd
Per un decennio EdgeRank è stato il pannello di controllo delle nostre vite social: a Menlo Park in qualunque momento potevano decidere di farci vedere più foto e meno video, più news e meno storie, più gattini e meno cappuccini, semplicemente usando quell’algoritmo. EdgeRank è stato il regolatore di buona parte del traffico online e quindi in un certo senso delle nostre vite con effetti di cui ancora oggi paghiamo le conseguenze. I danni collaterali. Il problema non è aver visto più o meno inserzioni pubblicitarie in target con i nostri gusti; quel fatto può persino essere sensato, comodo. Il problema è stata una progressiva distorsione dell’idea di mondo che abbiamo e che è tracimata dall’ambito dei social network contagiando anche istituzioni, i famosi produttori di contenuti e informazione, che avrebbero dovuto essere invece i garanti della «verità dei fatti».
Prendiamo i giornali: per alcuni anni gran parte del traffico ai siti web dei giornali arrivava da Facebook. Ci sono addirittura testate online che sono nate e hanno prosperato sul presupposto di avere dei contenuti «adatti a Facebook». Questo dipendeva – semplificando un po’ – dal fatto che nell’algoritmo di EdgeRank era stato dato più peso alle news rispetto per esempio ai contenuti postati «dagli amici». Non era un caso, si trattava dell’attuazione di precisi accordi commerciali con gli editori i quali prima avevano minacciato di fare causa a Facebook per farsi pagare il traffico legato alle news condivise sulle nostre bacheche; e poi si erano convinti che fosse meglio «scendere a patti con il nemico» e portare a casa qualche soldo e un po’ di traffico. Epperò questa cosa ha anche cambiato la natura stessa dei giornali, li ha fatti diventare altro: per intercettare porzioni di traffico sempre maggiori, indispensabili a sopravvivere visto che nel frattempo Google e Facebook si spartivano la stragrande maggioranza degli investimenti pubblicitari online, i giornali si sono facebookizzati, hanno cercato di fare contenuti adatti all’algoritmo di Facebook. Risultato: per troppo tempo l’obiettivo di molte redazioni è stato fare contenuti “virali”. E quindi largo a titolazioni “clickbait”, che portavano il lettore a cliccarci sopra promettendo un contenuto che in realtà non c’era o era stato molto esagerato; e soprattutto predilezione per contenuti “estremi”, scelti solo per catturare la nostra attenzione.
Finchè è durata, ovvero fino a quando Mark Zuckerberg ha decretato che le news non gli interessavano più e quindi le ha declassate toccando una manopola del suo algoritmo («i nostri utenti non vengono da noi per le news o per i contenuti politici», 1 marzo 2024), i siti web dei giornali presentavano ogni giorno una sfilza di delitti più o meno efferati manco fossimo a Gotham City. Chiariamo: la cronaca nera è da sempre molto “virale”, attira l’attenzione, non è colpa di Facebook certo; ma il risultato di questa corsa dei giornali a privilegiare contenuti “adatti a Facebook” ha creato la percezione, falsa, di vivere in un mondo molto più pericoloso di quello che in realtà è. Giorno dopo giorno “l’allarme sicurezza” è entrato nelle nostre vite, è diventato lo sfondo delle nostre giornate, la colonna sonora dei nostri pensieri, sebbene la realtà fosse non leggermente diversa ma esattamente il contrario. E questo ha contribuito al successo di quei partiti politici che hanno deciso di lucrare su una paura largamente infondata («Fuori ci sono i barbari, vi proteggiamo noi. Alziamo dei muri, chiudiamo le frontiere e comprimiamo un po’ di libertà personali in nome dell’ordine pubblico»).
É bene fermarsi su questo punto perché è decisivo. Viviamo davvero in un mondo sempre più pericoloso (Trump a parte)? Lo scorso anno in Italia gli omicidi sono stati circa 300, quasi uno al giorno. Sono tanti? Sono pochissimi. Venti anni fa erano circa il doppio; quarant’anni fa il quadruplo. Nella storia d’Italia non sono mai stati così pochi e quel dato, paragonato al totale della popolazione, è uno dei più bassi al mondo. Uno-dei-più-bassi-al-mondo. Lo sapevate? Probabilmente no. Gli omicidi sono in calo netto anche nell’Unione europea (circa 4000 mila lo scorso anno, erano 13 mila nel 2004); e sono rimasti stabili negli Stati Uniti sebbene siano in calo rispetto a quarant’anni fa (da 20 mila a 16 mila). Restando all’Italia la stessa dinamica si verifica per i furti, (meno 30 per cento rispetto al 2004); per le rapine (dimezzate nello stesso periodo di tempo); e per i morti per incidenti stradali (meno 70 per cento).
Non va tutto bene, ovviamente: sono in forte crescita le truffe, soprattutto quelle online; sono sostanzialmente stabili i morti di cancro, nonostante i progressi della scienza; e non calano i suicidi e questo ci dice qualcosa sul mondo in cui viviamo e su come lo percepiamo. Ma ci torneremo. Prima fissiamo questo concetto: Facebook e la facebookizzazione di molti giornali hanno creato l’errata percezione di un allarme sicurezza che nei numeri non esiste o – quantomeno – non nella misura percepita. É un esempio della famosa «distorsione collettiva della realtà» di cui parla il papa.
Perché è successo? Per capirlo è necessario introdurre un altro protagonista di questa storia: l’engagement.
«Stiamo costruendo davvero il mondo che vogliamo?». Il 16 febbraio 2017 Mark Zuckerberg si fece pubblicamente questa domanda postando sul suo profilo social un lungo documento (quasi seimila parole) intitolato «Building Global Community», costruire una comunità globale. Non era il solito post di marketing, era più ambizioso, era come il messaggio a rete unificata del «re del mondo» nel momento del suo massimo splendore e subito prima che una formidabile tempesta lo investisse, facendolo vacillare. Era «il Manifesto di Mark» come lo ribattezzò con un certo sarcasmo la più importante giornalista della Silicon Valley, Kara Swisher, una che Zuckerberg lo aveva seguito fin dagli esordi e che non si era mai fidata davvero delle sue buone intenzioni (diffidenza rivendicata recentemente quando lo definirà: «Uno degli uomini più pericolosamente imprudenti della storia della tecnologia»).
In quel momento Zuckerberg era una sorta di semidio e sembrava onnipotente. Esattamente un anno prima, nel febbraio 2016, Facebook aveva introdotto le emojis (le faccine per esprimere rabbia, tristezza, stupore, divertimento e innamoramento) che si aggiungevano al tasto «mi piace». Anche grazie a quei nuovi strumenti per catturare dati personali e raffinare il nostro profilo psicologico, il fatturato quell’anno aveva sfiorato i 30 miliardi di dollari con oltre 10 miliardi di profitti. Tecnicamente le aziende di questo tipo, con questa marginalità straripante, vengono definite cash machine, macchine per creare soldi. Gli utenti erano quasi due miliardi, vuol dire che un abitante del pianeta su quattro aveva un profilo attivo; senza contare che nel 2012 Zuckerberg si era comprato quello che appariva come l’unico vero rivale, Instagram; e, due anni dopo, anche il più potente servizio di messaggistica, Whatsapp. Ai tempi girava una cartina del mondo dove in blu erano indicati i paesi in cui Facebook era il social network più usato: a parte la Russia, la Cina e un paio di altri Stati minori, il mondo era tutto blu. Blu Facebook. Per uno cresciuto con il mito dell’impero romano e della «pax augustea» di duemila anni fa, quella mappa valeva come una corona di alloro. Ave Zuck!
Bill Gates ancora lo adorava e non era una credenziale da poco: anche se aveva lasciato da un pezzo la guida di Microsoft, era sempre l’uomo più ricco del mondo e, dopo la morte di Steve Jobs, l’esponente più autorevole di quella che chiamiamo, per semplicità, la Silicon Valley. Di Elon Musk non c’era neanche l’ombra. Zuckerberg invece era appena diventato il sesto in quella classifica di ricconi ed era già il più giovane miliardario di sempre. In un’intervista televisiva fatta qualche settimana prima del «Manifesto», Gates gli aveva ribadito la sua stima incondizionata: «La capacità di Mark di immaginare come le cose si svilupperanno e costruire un team per realizzare la sua visione è abbastanza fenomenale». E l’amministratore delegato della Disney, Robert Iger, parlando con un giornalista di Fortune, non aveva trattenuto una ammirazione che vista oggi appare davvero superficiale ma che riflette perfettamente lo spirito del tempo. «La sua determinazione per rendere il mondo più aperto è davvero una missione eroica». Eroica, disse proprio così. No, Zuckerberg quello che faceva non lo faceva per soldi, lo faceva perché voleva costruire un mondo migliore: era un eroe.
Nulla sembrava poter fermare la sua corsa. Anche in senso letterale. Nel 2016 aveva lanciato una nuova challenge. Era una abitudine che aveva preso dal 2009: annunciare al mondo la sua «sfida dell’anno». Una volta per esempio la sfida era stata imparare il mandarino, la lingua parlata dal settanta per cento dei cinesi. Lo aveva fatto davvero. Nel 2016, oltre «a costruire una intelligenza artificiale per gestire la casa che funzioni come quella di Iron Man» (di cui si sono perse le tracce), la sfida era «correre 365 miglia incontrando più persone possibile in giro per il mondo». Anche questo lo aveva fatto, naturalmente, e lo aveva fatto a modo suo. All’inizio dell’estate aveva postato una foto mentre correva a piazza Tienanmen, a Pechino, ignorando deliberatamente qualunque riferimento al movimento per la democrazia che lì si era radunato per settimane, nel 1989, prima di venire brutalmente soppresso («t’s great to be back in Beijing! I kicked off my visit with a run through Tiananmen Square, past the Forbidden City and over to the Temple of Heaven»). E il 29 agosto aveva corso attorno al Colosseo. A pochi chilometri di distanza, ad Amatrice, c’era appena stato un terribile terremoto e Zuckerberg, in un incontro con gli studenti universitari della LUISS con le domande approvate prima dal suo ufficio stampa, aveva promesso pubblicamente che avrebbe aiutato le popolazioni colpite dal sisma (un eroe!, appunto). Poi era stato ricevuto dal presidente del Consiglio Matteo Renzi, suo grande fan, che gli aveva donato una antica copia del «De Amicitia» di Cicerone; e addirittura da papa Francesco con il quale – recita il comunicato ufficiale -, aveva parlato di come la tecnologia avrebbe potuto «alleviare la povertà». Le Nazioni Unite di Facebook sembravano ad un passo.
Oggi si fa fatica a ricordarlo così, ma Zuckerberg era davvero una star globale, amata e ammirata con rare eccezioni. Eppure quando sui social apparve il suo «Manifesto», nel febbraio 2017, qualcosa stava per cambiare radicalmente. E non solo per lui ma per tutti noi. Intanto alla Casa Bianca era appena arrivato Donald Trump: era il primo Trump, rispetto a quello odierno era nulla, ma allora per molti fu uno choc. In quei giorni ancora non si sapeva molto del problema delle notizie false in rete (chiamate «fake news» anche in Italia, ormai), della propaganda russa e di Cambridge Analytica, la società che utilizzando surrettiziamente i dati di Facebook durante la campagna elettorale aveva creato i profili psicologici di duecento milioni di elettori americani per convincerli, con messaggi personalizzati, a votare Trump (o a non votare Hillary Clinton, in molti casi). Lo scandalo scoppierà nel 2018. Ma che qualcosa nei social network fosse diverso da prima iniziava ad essere evidente ai più avveduti. E qualcuno iniziava a pentirsi dell’entusiasmo di un tempo. Fra questi, Barack Obama.
Abbiamo già ricordato che il presidente uscente era stato un grande utilizzatore di Facebook per la sua attività politica ed era anch’egli uno storico ammiratore di Zuckerberg. Il momento di massima vicinanza, o almeno il più evidente, fra i due era stato un evento a Menlo Park, nel 2011. Una «town hall», una sorta di assemblea pubblica con tutti i dipendenti di Facebook. Il 20 aprile, era un mercoledì, Barack e Mark avevano dialogato sul palco come vecchi amici davanti al caminetto, anche se erano davanti a tremila persone adoranti. All’inizio Zuckerberg aveva fatto mostra di essere emozionato e aveva esordito così: «Scusate, sono un po’ nervoso oggi, abbiamo qui il presidente degli Stati Uniti». Al che Obama aveva proposto di levarsi la giacca per rendere la cosa meno formale e la sala aveva applaudito divertita. Il momento più significativo era stato quando Obama a un certo punto aveva detto (scandendo le parole come solo lui sa fare): «Quello che Facebook ci consente di fare è incredibile, non è semplicemente una comunicazione in una direzione; garantisce che non ci sono solo io che parlo a te, ma anche che tu possa rispondermi, e questo si chiama conversazione, questo si chiama dialogo». A rileggerlo oggi, quanta ingenuità.
I due avrebbero continuato a frequentarsi pubblicamente e in privato; e ad elogiarsi reciprocamente, fino al 17 novembre 2016 quando si incontrarono nel luogo più improbabile, a Lima, in Perù, al summit della Cooperazione economica asiatico-pacifica (APEC). Il secondo mandato di Obama come presidente era appena finito: le elezioni si erano svolte pochi giorni prima e lui era in carica solo per garantire una transizione senza intoppi fino al giuramento del suo successore, Donald Trump appunto. In Perù Obama e Zuckerberg si parlarono lontano dai riflettori e di quel meeting, lì per lì, nessuno seppe nulla. Ne diede notizia il Washington Post molti mesi dopo, quando il tema delle fake news sui social era esploso arrivando in cima all’agenda globale e probabilmente qualcuno dello staff dell’ex presidente ne rivelò il contenuto per marcare le distanze, per poter dire «noi lo avevamo capito che c’era qualcosa che non andava e glielo avevamo anche detto al diretto interessato». Secondo la versione del Washington Post quel giorno Obama «suonò la sveglia» al suo giovane amico. Subito dopo il voto americano infatti Zuckerberg aveva liquidato come «una follia» (disse così: «Crazy») l’ipotesi che il dilagare di contenuti falsi sui social avesse in qualche modo determinato l’esito elettorale. Allora Obama a Lima se lo prese da parte e gli disse che il problema invece c’era e andava risolto perché avrebbe potuto fare «enormi danni alla democrazia».
Di quel colloquio riservato, e così scottante, nel «Manifesto di Mark» non c’è traccia se non per un passaggio in cui si dice che «il nostro lavoro a Facebook è aiutare le persone ad avere il massimo impatto positivo mentre noi proviamo a mitigare le aree in cui la tecnologia e i social media possono contribuire a dividere le persone e isolarle». Il problema è che quella tecnologia a cui si faceva un vago cenno era diventata il cuore del social network più importante del mondo: Facebook era uno strumento implacabile per dividere le persone ed isolarle. C’era poco da mitigare. Era così che funzionava per macinare profitti.
In quell’anno accadde un altro fatto molto rilevante che contribuì ad accelerare il «cambio di destinazione d’uso» delle piattaforme digitali. A settembre dalla Cina era arrivato un nuovo social network: il suo nome era Douyin, ma dopo la fusione con la app Musical.ly, venne ribattezzato simpaticamente TikTok. All’inizio fu sottovalutato da tutti, forse perché Musical.ly era una app di video musicali più o meno scemi che gli utenti, soprattutto adolescenti, potevano registrare con lo smartphone ballando e sincronizzando le labbra con le canzoni. In realtà dietro i balletti c’era un pensiero forte. Una certa idea di mondo in cui gli algoritmi decidono per noi; non decidono soltanto quale canzone ascolteremo, come accade con Spotify; o quale strada prenderemo per non trovare traffico, come accade con Waze. Decidono cosa guarderemo, come ci informeremo e, alla fine, in cosa crederemo. Determinano la nostra «percezione della realtà» (sempre papa Francesco).
Dietro TikTok c’era soprattutto Byte Dance, una startup fondata nel 2012 dal ventinovenne Zhang Yiming con l’obiettivo di sviluppare delle piattaforme digitali totalmente gestite dall’intelligenza artificiale. Non era una novità assoluta. Nello stesso periodo anche a Menlo Park avevano introdotto il machine learning al posto dell’ormai rudimentale algoritmo di Edgerank: questo consentiva alle macchine di tenere sotto controllo circa diecimila parametri contemporaneamente per decidere quale contenuto mostrare ad ogni utente e adattarsi in tempo reale ai nostri cambiamenti e alle nostre passioni. TikTok questo approccio lo portò alle estreme conseguenze: infatti in Facebook (e Instagram) gli utenti avevano – e hanno ancora – un piccolo margine di libertà che deriva dalle persone con cui siamo in contatto, gli amici o gli utenti seguiti, a cui viene attribuito un peso nel flusso di contenuti mostrati. Ma Zhang Yiming era convinto che questa storia dell’amicizia digitale fosse sopravvalutata e, alla fine, una perdita di tempo: gli amici a volte possono essere noiosi mentre una intelligenza artificiale ben addestrata è in grado di proporre continuamente video – nota: i video comportano una minore «fatica cognitiva» rispetto ai testi – che tengono gli utenti attaccati alla piattaforma a prescindere da qualunque legame affettivo.
Quello che contava, l’unica cosa che conta ancora oggi, è l’engagement, ovvero quanto i contenuti sono capaci di ingaggiare gli utenti, di generare le loro reazioni. Ci sono molti indicatori per l’engagement: cosa commentiamo, a cosa mettiamo un like, cosa condividiamo. Ma uno è il più importante di tutti: è il tempo. L’engagement sale se un utente continua a tenere la app aperta e scrollare il prossimo video scelto apposta per lui o per lei. Ben presto si è iniziato a capire che l’opzione «For You» di TikTok aveva una capacità incredibile di vincere la partita più importante nella sfida tra i social network: quella per la nostra attenzione. Zhang Yiming era riuscito a creare un algoritmo che creava dipendenza meglio di tutti gli altri. Già nel 2020 TikTok sorpasserà Facebook per tempo trascorso sulla piattaforma da un utente medio. È stato allora, più o meno, che i social network hanno smesso di essere social, per essere solo network: macchine per l’intrattenimento personale di miliardi di persone.
Con la ricerca ossessiva dell’engagement, i social network sono entrati nel campo delle neuroscienze e della psicologia, ovvero hanno dovuto provare a capire il modo in cui funziona il nostro cervello, in cui si formano i pensieri. Si è a lungo cercato di scoprire chi fossero i neuroscienziati assunti dalle grandi piattaforme digitali per studiare come far crescere l’engagement attraverso degli algoritmi ben scritti. Non è uscito fuori nessun nome di rilievo, nessun guru. Epperò il tema in quegli anni in Silicon Valley andava per la maggiore e Zuckerberg, che da questo punto di vista è davvero un visionario, lo aveva intuito prima di tutti, quando era ancora studente, visto che ad Harvard, nel 2003, si era iscritto non semplicemente al corso di laurea in «computer science» ma a «psicologia e informatica», una combinazione di materie che spiega benissimo la traiettoria che poi prenderà Facebook.
Nel tentativo di conquistare la nostra attenzione, di rastrellare più dati e fare più soldi, l’obiettivo delle aziende della Silicon Valley divenne insomma progettare siti o applicazioni che fossero in grado di manipolare il funzionamento del nostro cervello. Nel 2015 comparve anche una startup che prometteva di prendere un sito qualunque e modificarlo in modo da agganciare gli utenti: si chiamava Dopamina Labs. Infatti è stata la dopamina l’ingrediente segreto, il Sacro Graal della Silicon Valley di quegli anni. Cos’è la dopamina? È un neurotrasmettitore che gioca un ruolo importante nella nostra felicità visto che è associato al piacere, alla ricompensa, alla motivazione e che quindi ci induce a ripetere comportamenti che ci hanno dato quelle sensazioni. Esempio: quando non riusciamo a resistere e riprendiamo continuamente in mano lo smartphone per vedere se ci sono notifiche o controllare gli aggiornamenti di status dei nostri amici, stiamo semplicemente cercando una piccola scarica di dopamina. Esattamente come quando siamo davanti ad una slot machine e non riusciamo a smettere di azionare la leva sperando di vincere qualcosa.
Questo meccanismo – la produzione di dopamina – si verifica ogni giorno con un sacco di cose che ci fanno stare bene e ci rendono la vita migliore; e con alcune che invece non ci fanno affatto bene e che creano dipendenza, come l’alcol, le droghe e, in certi casi, i social network. Succede questo: l’algoritmo dai nostri comportamenti impara continuamente quali contenuti ci generano una piccola scarica di dopamina, e quindi fa in modo di farceli trovare rinnovati ogni volta che apriamo una certa app. Senza accorgercene, siamo fregati. Felici e fregati.
La prima vittima sacrificale di questa svolta è stata la verità. E prima ancora che decine di ricerche scientifiche dimostrassero che un contenuto falso postato sui social circola molto più velocemente di un contenuto vero (e raggiunge un pubblico molto maggiore), è stata l’istituzione da sempre deputata al controllo della «verità dei fatti» a lanciare l’allarme: il giornalismo. Il 23 marzo 2017 il settimanale Time è uscito con una copertina storica: su fondo nero c’era solo una scritta rossa, a caratteri cubitali, «Is Truth Dead?» – la verità è morta?. Era una citazione di un’altra celebre copertina del 1966 dedicata alla crisi della religione («Is God Dead?»); ed era un grido disperato per quello che stava capitando con Donald Trump alla Casa Bianca. Il declino della «verità dei fatti» sostituita dalle «verità alternative» o dai «fatti alternativi», un concetto che la Casa Bianca aveva coniato per giustificare una falsa affermazione a proposito della folla che aveva seguito un comizio del presidente. Il problema non era che qualcuno affermasse una cosa falsa o esagerata, e nemmeno che fosse il capo del più importante Paese del mondo a farlo. Quello che è sempre accaduto nella storia dell’umanità, le bugie mica le ha inventate Facebook. Il problema era che quella affermazione fosse automaticamente spinta, favorita, rilanciata dagli algoritmi dei social perché questo aumentava l’engagement degli utenti più di una cosa vera, noiosamente vera. E che quindi, come conseguenza, le persone giorno dopo giorno, iniziassero a credere a «verità alternative» e lo facessero quasi con un senso di ribellione verso l’establishment, verso il giornalismo, verso la scienza, considerate, a torto o a ragione, parte di un sistema di potere.
Gli algoritmi pro engagement e la ribellione contro le élite, rinforzandosi a vicenda, hanno creato quella miscela esplosiva che ha portato negli anni scorsi ai movimenti di opinione contro i vaccini o di negazione del cambiamento climatico. Non è stato un caso. Del resto di questa cosa a Meta (il nome che il gruppo di Zuckerberg aveva assunto per farci dimenticare lo scandalo di Cambridge Analytica) se ne accorsero quasi subito. Lo sapevano e sono andati avanti. È andata così. Dopo aver deciso di provare a imitare l’algoritmo di TikTok lanciando le «meaningful social interactions» (MSI) nel 2017 come criterio per la scelta dei contenuti da mostrare agli utenti, l’anno seguente in un documento interno un gruppo di ingegneri chiese al vertice dell’azienda: «Does Facebook reward outrage?». Cioè: non è che per caso Facebook premia l’indignazione? I dati di traffico mostravano chiaramente che l’algoritmo favoriva i contenuti che generano rabbia e questo, collegato al fatto che i giornali usavano Facebook come principale canale di distribuzione delle notizie, era un pericolo: «Alcuni editori potrebbero decidere di capitalizzare la negatività… Per effetti dei nostri incentivi, alcuni potrebbero decidere di massimizzare i profitti a danno del benessere dei lettori… lasciando da parte le questioni etiche, l’attuale funzionamento dei nostri algoritmi non sembra allineato con la nostra missione». Quale missione? Creare un mondo migliore no? Ma si può creare un mondo migliore premiando solo la rabbia e la paura delle persone?
Una cosa va chiarita prima che ci siano obiezioni. Non è che nel mondo non ci siano motivi di scontento e che, in qualche caso, non ci siano ragioni per indignarsi. Ma se dall’equazione delle nostre vite leviamo la speranza, leviamo i comportamenti costruttivi, la generosità, i piccoli passi avanti, cosa resta? Resta solo una rabbia senza limiti. Senza la speranza, diventiamo disperati.
Ma torniamo al memorandum interno di Facebook: diventerà pubblico solo due anni dopo, ma ovviamente finisce subito sul tavolo di Zuckerberg e il grande capo, preoccupato dalla concorrenza di TikTok, decide di andare avanti lo stesso. Di lasciare da parte «le questioni etiche». Che muoia – simbolicamente – la verità con tutti i giornalisti. Qualcosa in verità fu fatto. La soluzione proposta da Facebook per contrastare i rischi paventati dai propri ingegneri nel documento del novembre 2018 fu un palliativo. Fu il «fact checking». Ovvero affidare ad una rete di professionisti il controllo della verità dei fatti di alcuni post controversi avvertendo gli utenti che c’è qualcosa che non va; e, solo nei casi più estremi, rimuovere i post.
Questa partita fra verificatori e disinformatori – spesso in mala fede, a volte al soldo di potenze straniere -, è durata qualche anno ma è stata una partita truccata: mentre l’intelligenza artificiale infatti cercava in tutti i modi di aumentare il nostro engagement, anche favorendo le notizie false, anche facendoci indignare per cose che non esistevano o almeno non nei termini indicati, un piccolo manipolo di esperti cercava di mettere i famosi «puntini sulle i». I troiani contro i greci avevano più chances di farcela. È come se la stessa organizzazione spacciasse eroina e poi fornisse anche il metadone per disintossicarsi.
Cos’altro poteva andare storto? Ah sì. La salute mentale dei nostri figli.
Prima di parlare degli adolescenti, però, e degli effetti dei social network sugli adolescenti, è bene fermarsi a capire che fine hanno fatto tutta questa paura, tutta questa rabbia, che avvertiamo attorno a noi, moltiplicate dagli algoritmi della Silicon Valley (e della Cina, visto che in questa vicenda c’è anche TikTok). Come si sono dipanate. Cosa sono diventate. Perché altrimenti non capiamo dove siamo davvero, non capiamo perché a un certo punto ci siamo ritrovati uno contro l’altro, e ci siamo chiusi in casa a doppia mandata, e abbiamo smesso di pensare al futuro, abbiamo pensato soltanto a salvarci, a cavarcela, noi, che vadano al diavolo tutti gli altri. Perché, per esempio, a un certo punto in tanti hanno pensato che sì, il ritorno di Donald Trump alla Casa Bianca fosse la cosa migliore in fondo. Che fosse la risposta giusta alla paura e alla rabbia. E infine perché il populismo, un po’ ovunque, sembra una forza a volte inarrestabile. Per farlo bisogna partire dal momento in cui qualcuno – non l’unico, ma non erano tanti all’epoca – ci ha detto che «il re era nudo», che la Silicon Valley ci stava fregando. E noi lo abbiamo applaudito, certo, ma non gli abbiamo creduto abbastanza. Siamo rimasti lì. Non abbiamo cambiato nulla. Non abbiamo «cancellato subito i nostri profili social», come ci esortava a fare il guru tecnologico Jaron Lanier in un libricino-manifesto uscito nel 2018. Ma non è di lui che dobbiamo parlare adesso.
«...E tutto questo odio, tutta questa violenza, sono stati alimentati da un piccolo gruppo di aziende tecnologiche che formano la più grande macchina di propaganda della storia». È il 21 novembre 2019. Il Jacob Javits Convention Center di Manhattan è gremito. Quattromila persone sono accorse per partecipare al summit annuale della Anti-Defamation League, un’organizzazione nata agli inizi del ‘900 per contrastare l’antisemitismo e diventata con il tempo un baluardo contro l’odio e le persecuzioni online. Sul palco c’è la persona scelta per ricevere l’International Leadership Award: non è un politico, non è un attivista, non è un filosofo. È un attore, o meglio, un comico di gran classe (tre nomination all’Oscar): è Sacha Baron Cohen, ovvero “Borat” per i suoi ammiratori, «il primo giornalista specializzato in fake news», come lo definirà lui stesso citando un film di culto.
Baron Cohen non è lì per far ridere, stavolta, anche se all’inizio qualcuno ride lo stesso: fa invece un discorso appassionato contro i social network. Anzi, contro Mark Zuckerberg. Lo cita cinque volte e ogni volta lo fa per smontarne gli argomenti. A tratti sembra una requisitoria. Dice fra le altre cose che su Internet tutte le cose sembrano avere lo stesso valore: il sito di Breitbart (il progetto editoriale di Steve Bannon, l’oscuro consigliere di Trump) assomiglia a quello della Bbc; i falsi Protocolli di Sion hanno lo stesso peso di un rapporto sull’antisemitismo della Anti-Defamation League; e le grida di un pazzo sui social sembrano credibili come le scoperte di un premio Nobel. Uno vale uno, chi l’aveva già detto? Siamo arrivati là dove il filosofo tedesco Hegel aveva previsto: è «la notte in cui tutte le vacche sono nere», dove sparisce la verità e quindi anche la conoscenza. «Abbiamo perso», dice Baron Cohen sconsolato e ormai in sala non ride davvero più nessuno. «Abbiamo perso un senso condiviso dei fatti fondamentali, il senso sul quale si basa una democrazia». Cita Voltaire: «Aveva ragione quando diceva che “quelli che possono farti credere a delle assurdità possono farti commettere delle atrocità”. I social media consentono di far arrivare le assurdità a miliardi di persone». Non esagerava, come vedremo: delle atrocità si stavano compiendo in effetti.
Quel discorso fa il giro del mondo. I siti web dei giornali lo rilanciano con convinzione e con la recondita speranza di arginare lo strapotere dei social che li stanno rendendo sempre più marginali. Ma la verità è che non cambierà assolutamente nulla. Su YouTube il video integrale lo guardano appena due milioni di persone. Non diventa “virale”. Il post di un medio influencer di Instagram su come perdere peso o aumentare il testosterone con la dieta giusta ha molto più impatto.
In quel momento la tempesta su Facebook si è appena placata. Eppure era stata dura stavolta. L’anno precedente Mark Zuckerberg per lo scandalo Cambridge Analytica nel giro di un mese aveva dovuto scusarsi solennemente due volte. «I am sorry, sono dispiaciuto per quello che è accaduto», aveva detto in un’intervista all’emittente televisiva Cnn. Poi, durante una drammatica testimonianza al Congresso, sudando copiosamente, ribadirà: «Non abbiamo capito davvero la responsabilità che abbiamo nella gestione dei dati dei nostri utenti. È stato un grosso errore, è stato un mio errore. I am sorry». Sembrava al tappeto, sembrava uno arrivato alla fine del suo regno. In quei giorni il mensile Wired, da sempre bibbia e trombettiere della rivoluzione digitale, era uscito con una copertina choccante: un primo piano del giovane Mark – aveva appena 34 anni – con il volto tumefatto da un pestaggio (non c’era ancora l’intelligenza artificiale generativa: era un’opera dell’artista Jake Rowland, realizzata mescolando due foto, una reale e una con un modello truccato).
Molti iniziarono a chiedere le dimissioni del fondatore: non può essere più amministratore delegato di un gruppo così importante, era la richiesta condivisa anche da alcuni azionisti. Ma quella richiesta sottovalutava due cose: la prima era la sua capacità di resistere sotto attacco; la seconda il fatto che per come era stata creata l’azienda, per le regole dello statuto e il peso dato alle azioni, Zuckerberg non può essere licenziato mai. Mai. E mai si sarebbe dimesso.
E così si era rialzato. Aveva comprato una pagina su alcuni giornali per mostrarsi contrito («Se non sappiamo gestire i vostri dati personali, non meritiamo di farlo», era stato il messaggio). E aveva chiuso i conti con la questione Cambridge Analytica pagando una multa enorme alla Federal Trade Commission: cinque miliardi di dollari, motivo per cui per la prima volta il profitto del 2018 sarà in leggero calo rispetto all’anno precedente. Ma in definitiva quella storiaccia non aveva innescato una vera crisi: l’azienda aveva registrato soltanto «un leggero calo degli utili» ma con un fatturato di oltre 70 miliardi di dollari. La “macchina” di Menlo Park produceva soldi a pieno regime. Lo scandalo non imponeva di cambiare i piani di Zuckerberg e soprattutto il suo modello di business. In fondo, a rivederlo oggi, era stato poco più di un diversivo: il problema di Facebook infatti non era tanto che una azienda terza avesse usato i dati degli utenti per fare propaganda politica mirata; il problema, il vero problema, era il funzionamento stesso dell’algoritmo che decideva cosa farci vedere e quali nostre reazioni emotive innescare. È bene ricordarlo di quali reazioni parliamo: la paura negli utenti anziani e la rabbia per il ceto medio impoverito. Quel problema non era stato sfiorato dallo scandalo.
Un mese prima del vibrante discorso di Sacha Baron Cohen a New York, Zuckerberg era andato a Washington ad arringare gli studenti della scuola di politica della Georgetown University ed era di nuovo “il solito Zuck”. Il paladino della libertà di espressione. Niente ferite sul volto e soprattutto niente giacca e cravatta come nelle disastrose audizioni parlamentari. Aveva la solita t-shirt nera a maniche lunghe e anche la solita, formidabile, faccia tosta. Agli studenti aveva detto che tutta la sua vita da imprenditore, il senso della piattaforma che aveva realizzato, si riassumeva in due soli obiettivi: dare più voce alle persone e connetterle. Come non volergli bene? E dopo aver citato (mentendo sui numeri, ma lo avremmo saputo molto tempo dopo) i successi del sistema di intelligenza artificiale implementato per intercettare contenuti pericolosi, aveva scandito questa frase: «Io credo che in una democrazia le persone, non le aziende tecnologiche, dovrebbero decidere cosa è credibile». Le persone dovrebbero decidere. Non gli algoritmi. E allora perché su Facebook e Instagram (ma anche su YouTube, Twitter e TikTok) accadeva e accade il contrario?
Era Il 17 ottobre 2019 e Mark era uscito dall’aula magna fra gli applausi ovviamente. Il messaggio era passato forte e chiaro. Ma le cose stavano diversamente. Come abbiamo già visto, l’anno prima, nel tentativo di resistere all’avanzata di TikTok, il criterio in base al quale ci venivano mostrati alcuni contenuti invece di altri su Facebook e Instagram era stato modificato per privilegiare «le interazioni sociali più significative». Era l’ennesima svolta per inseguire l’engagement e conquistare l’attenzione degli utenti. Che effetti aveva avuto? Un team di ingegneri di Menlo Park aveva avuto l’incarico di scoprirlo e i risultati erano spaventosi. In una nota interna – e ovviamente segreta – dell’aprile 2019 (e quindi sei mesi prima del discorso di Washington sul volemose bene, giù le mani dalla libertà di espressione!), si raccontava che molti esponenti di partito europei sostenevano che il nuovo algoritmo stesse cambiando il discorso politico: «In peggio». Infatti, proseguiva il rapporto, il peso attribuito ai contenuti che venivano condivisi (la “reshareability”), «premia e incoraggia contenuti di bassa qualità». Chiariamo: i partiti hanno da sempre un mix di contenuti positivi e negativi, ma la sensazione dei dirigenti di Facebook che stilano quel rapporto è che «con il nuovo algoritmo convenga produrre più contenuti negativi per raggiungere più persone; i post positivi si sono molto ridotti e al loro posto ci sono contenuti incendiari e attacchi diretti agli avversari». Molti partiti, era la conclusione, temono per gli effetti a lungo termine della democrazia. Non una cosa banale insomma. La democrazia in pericolo. Lo sapevano. Uno degli intervistati lo aveva spiegato meglio di altri: «Ci state costringendo a prendere posizioni che non ci piacciono e che fanno male alla società, ma noi sappiamo che se non facciamo così non vinceremo mai la battaglia sui social media».
Era l’inizio del 2019, in Europa il populismo veleggiava a tutta forza e in Italia era l’anno della Bestia, il team di social media manager artefice del successo elettorale di Matteo Salvini, il cui linguaggio politico sembrava fatto apposta per l’algoritmo di Facebook.
Questo “difetto di progettazione” dell’algoritmo dei social negli ultimi quindici anni è stato sfruttato ampiamente da chi aveva interesse a indebolire le democrazie occidentali. In testa la Russia, ovviamente. Nel 2013 era stato addirittura un capo di stato maggiore, il generale Valery Gerasimov, a mettere nero su bianco il testo di un suo discorso dell’anno prima in cui si enunciava il concetto di “guerra ibrida asimmetrica”, ovvero la necessità di utilizzare anche la rete e in particolare i social network per far circolare notizie false in grado di condizionare l’opinione pubblica. È effettivamente accaduto: a parte gli attacchi informatici, innumerevoli, degli hacker russi, sono stati dimostrati moltissimi casi in cui i russi hanno postato contenuti falsi o fuorvianti (per esempio in occasione del referendum sulla Brexit) che poi l’algoritmo di Menlo Park regolarmente, inconsapevolmente, premiava. Qualche anno più tardi in Cina la “dottrina Gerasimov” è stata ulteriormente affinata con il concetto di “guerra algoritmica cognitiva”. Un approfondimento di questi documenti ci porterebbe lontano, ma anche una semplice analisi semantica rivela di cosa si tratta. Primo: di una guerra. Secondo: fatta tramite degli algoritmi. Terzo: per cambiare la nostra sfera cognitiva, quello che sappiamo, quello in cui crediamo. Ci torneremo, parlando di TikTok.
Ora che degli avversari possano provare a sfruttare le debolezze di una società aperta come la nostra per fiaccarci, ci sta. Fa parte del gioco. È la geopolitica, bellezza. Diverso è il fatto che gli algoritmi dei social abbiano spesso creato dei danni a noi stessi senza che nessuno, progettandoli, abbia previsto che lo avrebbero fatto; o lo abbia preteso o imposto in qualche modo. Danni collaterali a volte devastanti.
Il caso forse più eclatante – il massacro della minoranza musulmana dei rohingya in Myanmar nel 2017 – lo ha spiegato recentemente lo storico Yuval Harari a partire da un rapporto di Amnesty International che aveva documentato, al di là di ogni ragionevole dubbio, il ruolo degli algoritmi nel fomentare l’odio etnico che poi si era tradotto in violenze efferate. Sostiene Harari: «I dirigenti di Facebook mica hanno scritto algoritmi per incitare la popolazione a prendersela con la minoranza musulmana, ma hanno soltanto chiesto di premiare i contenuti che avessero il massimo di engagement, che provocassero delle reazioni degli utenti. Gli algoritmi hanno scoperto che i post che facevano riferimento ad una cospirazione dei rohingya scatenavano gli utenti – la rabbia è il sentimento più facile per alzare l’engagement – e hanno mostrato quei post ad un maggior numero di persone. Dire che i dirigenti di Facebook o gli algoritmi non hanno colpe di quello che è accaduto dopo perché mica li hanno scritti loro i post fasulli sulla cospirazione dei rohingya, equivale a dire che il direttore di un giornale non è responsabile di quello che mette in prima pagina perché mica li ha scritti lui gli articoli. È un enorme potere decidere cosa vedranno gli utenti e quel potere implica una responsabilità. Nel caso del Myanmar è importante notare che l’algoritmo aveva come obiettivo di aumentare l’engagement degli utenti e l’obiettivo è stato centrato».
In quegli anni si è ritenuto o almeno sperato che la soluzione a questo lato oscuro della rete fosse il fact-checking, il controllo della verità dei fatti citati in ogni singolo contenuto postato sui social. È il caso di riconoscere che il rimedio non ha funzionato. E non perché sia praticamente impossibile controllare tutto (solo su Facebook gli utenti postano un milione di contenuti al minuto). Ma perché la verità ha tante sfumature, la stessa cosa si può raccontare in modi diversi a seconda del punto di vista e un “tribunale permanente dei social” non è un rimedio efficace se non per pochi gravissimi casi eclatanti: il resto è censura e alimenta il senso di ribellione «contro le elite che controllano il mondo». Inoltre il fact-checking – che per i giornalisti è un dovere assoluto – sui social network è vissuto come un’opinione in più, faziosa se smentisce i pregiudizi o le aspettative; e in definitiva non ha fatto cambiare idea a nessuno.
Quando tre mesi fa, per compiacere il neo rieletto presidente Trump, Zuckerberg ha annunciato «la fine del fact-checking» su Facebook e Instagram, molti hanno gridato alla «fine della verità» ma la verità in rete era morta da un pezzo come abbiamo visto. Invece di chiedere ad una società tecnologica di ergersi a “guardiano della verità” dei nostri post, basterebbe pretendere di non favorire quelli che scatenano rabbia e paura; pretendere di giocare tutti alla pari, senza trucchi. Senza engagement. Ma questo farebbe andare a picco i profitti e gli azionisti non lo tollererebbero. Infatti quando negli anni scorsi sul tavolo dell’amministratore delegato di Meta sono arrivati rapporti interni ed esterni che provavano che «qualcosa stava andando storto», non è sostanzialmente cambiato nulla e la dinamica vista in Myanmar si è ripetuta infinite volte.
Una di queste merita di essere raccontata perché ci dà una chiave di lettura di tutto quello che abbiamo detto fin qui. Nel 2018 nello Sri Lanka una banale lite di traffico era finita con il pestaggio e la morte di un camionista e su Facebook aveva preso a circolare la versione – falsa – che fosse un’azione dei musulmani intenzionati a sfidare la maggioranza buddista del Paese. Ne erano seguiti dei post incendiari e poi la vendetta: moschee attaccate, negozi bruciati, case distrutte, altri morti. «Non è tutta colpa di Facebook», disse con onestà un dirigente del governo al giornalista del New York Times inviato a ricostruire i fatti, «i germi di quello che è accaduto, la rivalità fra musulmani e buddisti, sono i nostri; ma Facebook è il vento». Il vento. L’amplificatore del male che c’è nel mondo.
Sarebbe un errore colossale adesso spiegare l’ascesa del populismo con gli algoritmi dei social network: la crisi delle democrazie è un fenomeno più complesso ma non è esagerato affermare che senza i social network il populismo non avrebbe avuto la stessa forza distruttiva. E sarebbe ugualmente un errore negare tutto il bene che l’avvento dei social network ha comunque portato nelle nostre vite. E del resto in questi anni Mark Zuckerberg non ha smesso di ricordarcelo. Nel discorso di Washington del 2019 disse per esempio che il movimento Black Lives Matter era nato con un hashtag su Facebook; e poi aveva citato la possibilità per gli amici e i familiari di stare in contatto anche se lontani, il contrasto alla solitudine degli anziani, le opportunità per i piccoli imprenditori e gli artigiani di farsi conoscere e allargare il proprio mercato, l’utilità di una piattaforma comune in caso di disastri naturali. Tutto vero. È per questo che nonostante tutto siamo ancora lì, con i nostri profili social: perché ne abbiamo bisogno. Ma il lato oscuro dei social, quello che li ha fatti crescere e che li ha resi aziende miliardarie, è un altro: è la ricerca dell’engagement a tutti i costi. Ricordate le parole del funzionario governativo dello Sri Lanka? «Facebook è il vento». E il vento può gonfiare la tua vela e portarti dove vuoi oppure può farti naufragare. Il vento ti può portare dalla parte del presidente ucraino oppure da quella dell’invasore. I padroni dei social decidono come usare quel vento. Basta un clic a volte.
Dopo il drammatico incontro di Zelensky con Donald Trump alla Casa Bianca del 28 febbraio scorso, qualcuno su Instagram ha creato un oggetto, con il volto di Zelensky, per esprimergli solidarietà. Una cosa banale per consentire a tutte le persone di condividere l’immagine del presidente ucraino fra le proprie storie mentre il contatore si aggiorna. Per Gaza aveva funzionato («Tutti gli occhi su Rafah» era lo slogan), per Zelensky no. È accaduta una cosa bizzarra: chi postava la foto del presidente ucraino la vedeva, ma tutti gli altri no, non c’era, e dopo un po’ appariva la scritta «ancora nessuna visualizzazione».
Sicuramente sarà stato un bug: vi pare credibile che per far piacere a Trump qualcuno a Menlo Park abbia truccato le carte? Vi pare possibile?
Quando abbiamo capito che i nostri figli stavano male, anzi che stavano sempre peggio, quando li abbiamo visti isolarsi, deprimersi, spegnersi a volte, invece della luna abbiamo guardato il dito. All’inizio abbiamo pensato che fosse tutta colpa dello screen time. Ce la siamo presa con il troppo tempo che i ragazzi trascorrevano (e ancora trascorrono) fissando lo schermo del proprio smartphone invece di uscire, relazionarsi fisicamente con gli altri, giocare e, persino, parlare con noi. Intendo, parlarci un po’ di più del dialogo standard a cui molti genitori si sono rassegnati: «Come stai?» «Bene». «Che hai fatto?» «Niente». Amen.
Del resto dopo il Covid – e i lockdown e la Dad (la didattica a distanza) -, nella nostra parte di mondo lo screen time degli adolescenti si era moltiplicato di due o tre volte arrivando a superare le otto ore al giorno negli Stati Uniti (nell’Unione Europea siamo attorno a sei). Anche il malessere dei giovani sembrava peggiorato in egual misura e come al solito, quando notiamo una correlazione fra due fenomeni, abbiamo concluso che ci fosse un rapporto di causa ed effetto. Allora abbiamo reagito: dobbiamo ridurre lo screen time!, abbiamo detto, salvare i nostri figli dalla tecnologia che gli abbiamo dato in mano troppo presto. E sono iniziate estenuanti battaglie in casa e nelle scuole: spegni quel cellulare, dammi il cellulare, se non vai bene a scuola te lo levo per sempre, ora basta, è vietato! Come se il problema, la causa della “generazione ansiosa” documentata dallo psicologo americano Jonathan Haidt nei suoi libri, fosse il tempo passato davanti allo schermo. E non cosa ci guardano in quello schermo. Diciamolo meglio: quello che l’algoritmo decide che guardino per far sì che non facciano altro nella vita. E alcuni hanno invocato, o preteso, il divieto degli smartphone ai ragazzini come se, a volte, quello spazio digitale non fosse diventato contemporaneamente il loro veleno quotidiano ma anche – un sorta di balsamo lenitivo, uno spazio protetto, qualcosa che serve a tenere lontano un mondo che deve apparire loro, non senza ragione, sempre più ostile, sempre meno accogliente. Un mondo che per la prima volta, forse, sembra aver perso una delle tre dimensioni temporali che danno un senso alla vita: il futuro. Ma se il mondo appare senza futuro, meglio infilarsi dentro uno smartphone, no?
Sul “futuro perduto”, ci torneremo più in là. Per ora tenetelo da parte.
Di chi è davvero la colpa di questa “epidemia di tristezza”? Dei genitori che non sono stati capaci di resistere all’obiezione «tutti i miei amici ce l’hanno» posta dal figlio, a volte di nove o dieci anni, quando pretende il primo smartphone? O degli insegnanti che non sentono di avere l’autorità per farlo spegnere in classe e che fanno lezione cercando invano di conquistare l’attenzione di ragazzi che sono fisicamente lì ma sono anche altrove? Oppure dei ragazzi stessi? A giudicare dagli scontri, a volte anche fisici, che si sono registrati nelle famiglie e nelle scuole, gli adulti tendono a dare la colpa ai ragazzi ma è un errore. Durante un’intervista all’emittente tv Cnn, Vivek Murthy, ai tempi Surgeon General, la più alta autorità sanitaria degli Stati Uniti dopo il ministro della Salute, ha descritto perfettamente la partita che si gioca ogni giorno, in ogni istante, dentro lo smartphone di ogni adolescente: «Da una parte abbiamo i migliori designer e i migliori sviluppatori del mondo che hanno realizzato prodotti digitali in modo da essere certi che le persone passino sempre più tempo su queste piattaforme. E dall’altra, abbiamo i ragazzini. E se diciamo a un ragazzino: “Usa la tua forza di volontà per limitare il tempo che passi sui social media”, stiamo mettendo quel ragazzino da solo contro i più bravi progettisti e sviluppatori del mondo». Morale: non potrà vincere mai. E infatti il Surgeon General, peraltro un giovane progressista illuminato, aveva concluso: «That’s just not a fair fight», è una partita truccata.
Era il 23 gennaio 2023. Qualche giorno prima il presidente degli Stati Uniti Joe Biden aveva preso una iniziativa sorprendente: aveva scritto una lettera aperta al quotidiano Wall Street Journal per chiedere ai democratici e ai repubblicani di unirsi «per fermare gli abusi di Big Tech» e, in particolare, il fatto di «promuovere contenuti che minacciano la salute mentale e la sicurezza dei nostri bambini». «Io sto facendo il possibile», aveva scritto il presidente, ma tocca a voi fare le leggi. Tre i problemi citati: l’abuso sistematico dei dati personali degli utenti; la responsabilità per i danni causati dagli algoritmi; e la straordinaria concentrazione di potere e ricchezza nelle mani di pochi. Era una dichiarazione di guerra che puntava a smontare il modello di business divenuto ormai tossico della Silicon Valley. Quando ci siamo meravigliati perché quasi tutti i capi di quelle grandi aziende tecnologiche si sono schierati con Donald Trump in campagna elettorale – e perché erano al suo fianco il 21 gennaio scorso, il giorno del giuramento – avremmo dovuto ricordarci di quando Joe Biden provò a sfidare Big Tech e nessuno nel Congresso lo prese sul serio. Ma neanche noi, in fondo. Chissà perchè. Dovette sembrarci la tirata di un anziano signore incapace di capire «le meraviglie della rete». Una cosa a cui rispondere: Ok boomer.
Ai tempi eravamo tutti, anche in Europa, concentrati a contrastare le fake news, ovvero la disinformazione che viaggia indisturbata sui social network in qualche caso con il contributo dei russi, il che rendeva la cosa più allarmante. Ci sembrava l’effetto più urgente da combattere anche perchè non erano ancora uscite le moltissime ricerche che mettono in relazione diretta il malessere di una generazione con la vita digitale; e soprattutto non erano usciti i documenti interni di TikTok, Facebook e Instagram in cui si dimostra come e quando era partita la “caccia” ai ragazzini – e a volte ai bambini – per renderli dipendenti da una di quelle piattaforme (alla faccia del divieto per i minori di 13 anni, sistematicamente aggirato con un clic).
Ma chi queste cose le capiva davvero non aveva bisogno di attendere le prove. Per esempio nel 2018 l’amministratore delegato di Apple, Tim Cook, era volato in Gran Bretagna per andare in una scuola elementare e lanciare un grande programma per insegnare ai bambini a programmare software e – spiazzando tutti – aveva detto: «Non ho figli ma ho un nipote e gli ho imposto regole precise sull’uso della tecnologia… C’è una cosa che non consentirei mai ai ragazzini: non devono usare i social network».
Lo stesso concetto era stato espresso in maniera più brutale anche da un ex vice presidente di Facebook, Chamath Palihapitiya, che era stato assunto nel 2007 per occuparsi della “crescita degli utenti”. Aveva lasciato quattro anni dopo e nel 2017 aveva detto di sentirsi «terribilmente in colpa» per quello che aveva contribuito a creare e di aver vietato ai suoi figli di usare «quella merda». That shit, letterale.
Erano piuttosto numerosi in quei mesi gli ex dirigenti di Facebook che esprimevano rincrescimento e preoccupazione per la deriva che aveva preso un progetto che doveva «connettere il mondo e renderlo migliore». Il più noto era Sean Parker: era stato il “fratello maggiore” che aveva affiancato Mark Zuckerberg quando “thefacebook” aveva appena cinque mesi e, forte della sua esperienza a Napster (la piattaforma pirata che per un po’ consentì a chiunque di scaricare musica illegalmente), lo aveva aiutato a trasformare il progetto di uno studente di college in una vera azienda (prima di lasciare nel 2005 in circostanze abbastanza misteriose). Ecco, in quei giorni del 2017 anche Sean Parker era emerso dall’oblio dorato in cui viveva per dire una frase spaventosa: «Solo Dio sa quello che i social stanno facendo al cervello dei nostri figli». Solo Dio e Mark. C’era da rabbrividire.
Tutti questi discorsi non avevano però intaccato minimamente la crescita tumultuosa dei social network; nè avevano indotto qualcuno a pretendere che ci fosse una maggiore cautela verso i giovanissimi. La reazione ufficiale era stata: sopire, troncare, minimizzare. Gli ex dirigenti di Facebook, ci dissero, erano mossi dal rancore per non far più parte di un progetto di enorme successo. Quanto a Tim Cook, la sua uscita era facile da spiegare: Apple ha un modello di business diverso dai social, vende smartphone e personal computer, non si alimenta dell’engagement degli utenti; ecco perché Tim Cook li attacca e sbandiera la privacy ad ogni occasione. Se lo può permettere.
In realtà anche la Apple aveva avuto un ruolo, sebbene involontario, in questa vicenda della dipendenza dei giovanissimi dai social network. Secondo i dati citati dal professor Jonathan Haidt infatti, l’epidemia di ansia negli Stati Uniti ha inizio in un momento preciso: attorno al 2010. Le cause del disagio sono anche sociali (in breve: un nuovo assetto familiare con due genitori che lavorano e i figli affidati ai nonni da cui discende un desiderio eccessivo di protezione che ha ridotto l’autonomia e il gioco dei bambini). Ma restando al fronte tecnologico nel 2010 accaddero due cose importanti che ebbero effetti che nessuno lì per lì poteva immaginare. La prima fu l’introduzione di una fotocamera anteriore negli smartphone: ispirandosi a quanto fatto nel 1999 in Giappone su un oscuro telefonino (il Kyocera Visual Phone VP-210), Steve Jobs aveva portato questa innovazione sull’iPhone 4 che, anche grazie a questa novità, ebbe subito un enorme successo (nei primi tre giorni ne vennero venduti quasi due milioni di esemplari). L’idea di Jobs era consentire di fare videochiamate con Facetime ma la tecnologia, come spesso accade, prese una strada diversa. A cosa serviva davvero quella seconda fotocamera lo capimmmo un paio di anni più tardi, quando l’Oxford Dictionary scelse la parola del 2013. Erano nati i selfie.
La seconda novità fu un nuovo piccolo social network che metteva al centro di tutto non le parole ma la condivisione delle foto: Instagram. Su quella app i selfie, con o senza filtri, dilagarono. All’inizio Instagram era abbastanza innocuo e rispetto alla comunicazione scritta e verbosa di Facebook, era bello e solare (infatti di solito condividiamo infatti solo momenti di felicità, albe e tramonti, cose così). Ma nel 2012 le cose cambiarono: Instagram venne comprato da Facebook per una cifra che a molti parve clamorosa viste le dimensioni ridotte della startup, un miliardo di dollari. L’affare si era chiuso in appena due mesi: Mark Zuckerberg si era deciso a farlo perché pensava che, crescendo, «Instagram ci può fare molti danni»; il principale fondatore, Kevin Systrom, era contrario a vendere ma aveva deciso di sedersi a trattare perché temeva che altrimenti «Mark» sarebbe entrato «in modalità distruttiva» e li avrebbe fatti a pezzi. E così nel giro di qualche settimana aveva ceduto il controllo della società restando formalmente in sella fino al 2018.
Allora tutta l’azienda stava dentro un appartamento: aveva appena tredici dipendenti, trenta milioni di utenti e non faceva un solo dollaro di fatturato. Ma Zuckerberg aveva la vista lunga: quello era il social perfetto per il mercato dei giovani e dei giovanissimi al quale puntava. Nei primi tre anni gli utenti decuplicarono, passando a 300 milioni, ma la vera svolta ci fu nel 2016. Come sappiamo quello fu l’anno dell’arrivo di TikTok e del suo potente algoritmo di raccomandazione dei contenuti. Temendo di perdere terreno fra i giovani, Zuckerberg decise di portare a compimento l’integrazione di Instagram con il “modello Facebook” che aveva in mente fin dal primo giorno ma sul quale Systrom opponeva resistenza. Assieme ad un nuovo logo e ad un nuovo design della app, venne introdotto il “feed algoritmico”: gli utenti da allora non avrebbero più visto i post degli amici in ordine cronologico, e quindi neutrale, ma in base ad un ordine che, ormai lo sappiamo, punta ad alzare l’engagement, l’interazione con i contenuti.
Questo passaggio va spiegato bene perché può sembrare banale o addirittura opportuno («guardo quello che mi interessa, che male c’è») e invece non lo è. Abbiamo visto nelle puntate precedenti che un algoritmo che ha come scopo principale, anzi assoluto, alzare l’engagement degli utenti, ha portato nel tempo a mostrare agli utenti più anziani solo contenuti che facessero leva sulla insicurezza e quindi sulla paura; mentre per il ceto medio impoverito si è puntato su rabbia e risentimento. E abbiamo già spiegato che questo ha alimentato un populismo che altrimenti non avrebbe avuto tanta forza; ed ha creato un bisogno di protezione, una emergenza sicurezza, che è comprensibile ad una certa età ma non si basa su dati reali.
La paura e la rabbia non funzionano però sui giovani e sui giovanissimi, serviva altro. Come alzare l’engagement degli adolescenti, come renderli dipendenti dalla piattaforma e attivare microdosi di dopamina ogni volta che ci ritornano esattamente come accade con una slot machine? Lo ha scoperto un algoritmo di intelligenza artificiale, ovviamente, analizzando il comportamento dei ragazzi online eppure era semplice: puntare sul corpo nel momento della vita in cui si trasforma ogni giorno, quando siamo crisalidi in attesa di diventare farfalle; puntare sul corpo facendo leva sulle nostre vulnerabilità, sulle nostre paure; e anche sul fatto che in quella età il cervello non è ancora del tutto sviluppato e questo rende gli adolescenti più dipendenti dal giudizio altrui. Il risultato è stato dare implicitamente, attraverso i post mostrati, l’obiettivo di un corpo magro, magrissimo, per le ragazze; e di un corpo muscoloso, ai limiti dei doping, per i ragazzi.
Il ragionamento è inevitabilmente schematico ma è sostanzialmente corretto. Come funziona lo ha dimostrato nel 2021 un senatore americano, Richard Blumenthal il quale, senza saperlo, ha ripetuto un test che a Instagram avevano già fatto e che poi avevano nascosto in un cassetto hai visto mai che qualcuno ci ripensasse. Blumenthal ha creato un profilo falso di una ragazzina di 13 anni e ha cliccato su un contenuto che parlava di diete estreme e disturbi alimentari. «Nel giro di un giorno tutti i contenuti raccomandati parlavano di questo. Una tempesta perfetta». Parentesi. Lo stesso meccanismo si applica a tutto: nel febbraio del 2019 un dipendente di Facebook in India creò un profilo finto che doveva seguire automaticamente solo le pagine e i gruppi raccomandati dall’algoritmo; nel giro di tre settimane la sua bacheca era piena di immagini violente e notizie false. «Ho visto più persone morte in quelle tre settimane che in tutta la mia vita», racconterà il dipendente. Fine della parentesi.
Ma torniamo ad Instagram. Il giorno esatto in cui abbiamo scoperto ufficialmente che aveva un impatto negativo su adolescenti e bambini; e che Mark Zuckerberg lo sapeva e che, nonostante l’evidenza, è andato avanti per la sua strada, è stato il 14 settembre 2021. Quel giorno il Wall Street Journal ha pubblicato una serie di documenti interni forniti dall’ex dipendente Frances Haugen nei quali fra le altre cose si asseriva che Instagram faceva stare male tre adolescenti su dieci mentre più di una su dieci diceva che contribuiva ai disturbi alimentari (anoressia) o addirittura peggiorava gli istinti suicidi. Sul tema nel quartiere generale di Menlo Park c’erano state ben cinque ricerche in diciotto mesi e le conclusioni erano state sempre le stesse: il meccanismo della “social comparison” innescato da Instagram, il confronto estetico continuo con gli altri, stava facendo danni: «Aumenta ansia e depressione», dicevano gli adolescenti intervistati, consapevoli del problema ma incapaci di spegnere tutto perchè, lo sappiamo, «it is not a fair game», è una partita impossibile da vincere.
E Zuckerberg che ha detto? Lo sapeva? Lo sapeva. Le carte dimostrano che quelle ricerche sono arrivate sul suo tavolo. Eppure nel marzo 2021, parlando ad una commissione parlamentare del Congresso degli Stati Uniti, dirà esattamente il contrario: «Le nostre ricerche dimostrano che l’uso di app sociali per connettersi con gli altri può avere un impatto positivo sulla salute mentale degli utenti». Paradossalmente era vero: certo che può averlo, un effetto positivo; certo che su moltissimi utenti lo ha avuto e lo avrà. Ma il lato oscuro, il fatto di aver sempre messo il profitto davanti alla salute mentale dei più giovani, era totalmente nascosto, negato. Qui va tutto benissimo, era il messaggio urbi et orbi. E dal suo punto di vista era vero anche questo. In fondo la sua filosofia da sempre è «move fast and break things», muoviti in fretta e pazienza se si rompe qualcosa, dopo puoi sempre chiedere scusa. La prima volta che Zuckerberg spiegò questo motto, che da sempre era stampato a caratteri cubitali sulle pareti del quartier generale, era il 2012; stava quotando in Borsa l’azienda e nella lettera ai potenziali investitori disse che lo stile hacker di fare le cose («the hacker way»), era farle in fretta e sperimentare senza troppe cautele perché «se non rompi mai nulla vuol dire che non ti stai muovendo abbastanza in fretta». Con il tempo questo motto è stato accantonato, ammorbidito, ma è rimasto nel modo di vedere le cose del fondatore. Attenzione: Zuckerberg non ci dice di muoverci in fretta e riparare le cose, migliorare le cose, aggiustare le cose, prendersi cura delle cose. No, dice proprio di romperle; i cocci sono effetti collaterali di un progetto più grande.
Nel 2023 Meta, nonostante le tempeste affrontate, registrerà l’ennesimo record, oltre 130 miliardi di dollari di fatturato con quasi 40 miliardi di profitti, un dato che probabilmente nel 2024 sarà di nuovo battuto. Va davvero tutto benissimo a Menlo Park. Certo qualcosa strada facendo si era rotto anche questa volta e puntuali – si fa per dire – sono arrivate «le scuse di Mark», ormai un genere letterario per la frequenza con cui si sono ripetute. Il 31 gennaio 2024, durante un’audizione alla Commissione Giustizia del Senato dedicata alla sicurezza dei bambini online, Zuckerberg si è rivolto alle famiglie presenti in aula che avevano raccontato i danni inflitti ai loro figli dai social network, e ha detto: «Sono dispiaciuto per tutto quello che avete dovuto passare, è terribile. Nessuno dovrebbe passare attraverso le sofferenze che le vostre famiglie hanno subito». Ma non si stava davvero scusando. Era di una calamità naturale che stava parlando, non dell’effetto di un modello di business straordinariamente profittevole ma altamente tossico. Sembrava si riferisse ad una popolazione colpita da un uragano o un terremoto non alle vittime dei suoi algoritmi.
Intanto una “generazione ansiosa” era sempre più ansiosa, come se stesse vivendo con un terremoto permanente. Ma l’epicentro delle scosse non era Instagram. Era TikTok.
Quando ci volteremo indietro e cercheremo di capire cosa davvero ci ha portato via TikTok, probabilmente risponderemo: il tempo. Ma non riferendoci soltanto al tempo che ci abbiamo trascorso (alcuni, di solito i più giovani, anche sei ore al giorno, ovvero tre mesi l’anno, un quarto della loro vita). Quella, sebbene eclatante, è soltanto una conseguenza, un effetto di una cosa ancora più grande. Infatti è il senso stesso del tempo che sembra sparire quando stai in quella app. Non è una perdita di poco conto. Da sempre noi siamo anche il tempo e il modo di calcolarlo. In principio Dio creò il tempo («...chiamò la luce giorno e le tenebre notte. E fu sera e fu mattina: primo giorno»); i sumeri e i babilonesi, basandosi sull’osservazione del cielo, stabilirono i giorni della settimana e i dodici mesi dell’anno; per gli antichi romani i mesi erano solo dieci ma un re, Numa Pompilio, fece aggiungere al calendario gennaio e febbraio e più tardi Giulio Cesare decise una volta per tutte che un anno sarebbe durato 365 giorni. Insomma è dall’alba della civiltà che noi siamo quella linea, spesso a zigzag, che va dal passato al futuro e che dà un significato più profondo alle nostre esistenze arricchendole di memoria e sogni, di ferite e speranze, e ricordandoci di afferrare il presente prima che scappi via. Carpe diem.
Vista da qui la vita di tutti assomiglia a una clessidra che parte lenta e a un certo punto diventa velocissima. Siamo polvere, no? Poi è arrivato TikTok e la clessidra è sparita: questa app cinese è forse l’unico luogo al mondo, sicuramente l’unico della rete, in cui non ci sono riferimenti temporali. Che giorno è? Che ore sono? Quando è stato postato questo video che sto guardando? Ieri, oggi, un anno fa? Non si sa, non importa. Basta che faccia ridere. O, meglio, basta che crei engagement, che ci tenga ingaggiati fino al prossimo video. Basta che ci faccia perdere il senso del tempo. Coma accade quando stiamo facendo una cosa bellissima e il tempo vola. O come capita con i detenuti che, quando sono in isolamento, per restare attaccati alla vita, fanno ogni mattina un segno sul muro della cella per ricordarsi che un altro giorno è passato. Perché senza quel gesto, senza il tempo, sono perduti.
TikTok alla fine è questo: una cosa bellissima, o che ci appare tale, ma che in realtà ci imprigiona. Negli Stati Uniti questo fenomeno lo chiamano «rabbit hole»: è la tana dove il Bianconiglio della fiaba di Lewis Carrol si rifugia e dove però finisce anche Alice, entrando in un mondo fantastico e spaventoso dal quale poi non riesce più a liberarsi. Insomma, quel buco dove ci infiliamo ogni giorno è una trappola. In uno dei documenti interni, emersi grazie alle numerose cause aperte negli Stati Uniti per i danni che – secondo l’accusa – sarebbero stati inflitti dai social network alla salute mentale dei giovani, un ingegnere cinese, parlando degli utenti della piattaforma, a un certo punto scrive al suo team, non senza una certa soddisfazione: «TikTok è quel posto dove dici “ci vado per cinque minuti” e invece passano tre ore…». Missione compiuta. Ma che missione era?
Un giorno forse verrà fuori che il successo di Tik Tok è stata tutta una manovra del partito comunista cinese, o magari del presidente della Repubblica popolare Xi Jinping in persona, per fiaccare le democrazie occidentali mandando in malora il sistema di valori degli adolescenti e levando loro la speranza di futuro che poi, se ci pensate, è da sempre il motore del progresso e della civiltà. Per questo se vuoi far crollare un nemico, corrodere lo spirito dei suoi giovani è una buona tattica. O forse no, forse queste sono solo le nostre paranoie occidentali e TikTok è diventato quello che è oggi non per caso, certo, ma per una serie di scelte imprenditoriali precise che avevano un obiettivo che il capitalismo conosce molto bene. Per fare più soldi, sempre più soldi, tantissimi soldi (e infatti Zhang Yiming, il fondatore di TikTok, è l’uomo più ricco della Cina con un patrimonio stimato di circa 60 miliardi di dollari, accumulati in appena otto anni: non male per un Paese socialista).
Come spesso accade con la tecnologia, l’idea di partenza era un’altra: era creare una app per condividere video brevi ma non brevissimi (tre minuti) che veicolassero contenuti scolastici e universitari di un certo valore. Si doveva chiamare Cicada (dal nome di un insetto piuttosto rumoroso che i cinesi associano a nobiltà d’animo, trasformazione e rinascita). E se non l’abbiamo mai sentita un motivo c’è: è fallita subito. L’aveva fondata nel 2013 Alex Zhu, un giovane ingegnere che aveva lavorato brevemente per WebEx (poi comprata da Cisco) e per la multinazionale europea Sap dove si era guadagnato il titolo di «education futurist», futurologo dell’istruzione. Allora il futuro dell’istruzione sembravano essere i video. Erano gli anni in cui erano esplosi i MOOC, Massive Open Online Courses, corsi universitari che consentono di fare lezione a migliaia di studenti. Zhu per la sua idea aveva raccolto da un venture capitalist un piccolo gruzzolo, 250 mila dollari, e con il socio Louis Yang in meno di sei mesi aveva realizzato l’app. «Il giorno stesso del debutto capimmo che non avrebbe mai funzionato», dirà un paio di anni dopo. Fare video formativi di qualità, sebbene brevi, richiedeva troppo tempo, era uno sforzo troppo grande, i docenti non l’avrebbero mai fatto. Ma invece di chiudere tutto, Zhu decise di fare «pivot», di usare i pochi soldi rimasti e la tecnologia sviluppata per Cicada per fare un’altra startup. Questa seconda idea pare che gli venne sul trenino che in Silicon Valley porta a Mountain View, dove ha sede Google. Racconterà di aver notato che i giovani americani avevano tutti uno smartphone con cui guardavano video musicali oppure si facevano dei selfie e li condividevano fra loro. Era questa la strada giusta: un’app di video che unisse la musica e i selfie. Altro che l’education.
Nel 2014 Zhu lancia sul mercato Musical.ly, quartier generale a Shanghai e un ufficio marketing a San Francisco, perché l’obiettivo fin da subito erano gli adolescenti occidentali («I cinesi non sanno cosa sia l’adolescenza, sono troppo impegnati a studiare»: lo ha detto il fondatore di TikTok per spiegare la sua strategia). Stavolta la startup va alla grande. Nel giro di qualche mese Musical.ly decolla. Diventa virale e si capisce perché: la app consentiva di registrare video di 15 secondi ballando, cantando e sincronizzando le labbra. I balletti con cui all’inizio abbiamo creduto di carpire «il segreto di Tik Tok» nascono qui, a Shanghai.
Musical.ly non era l’unica app a scommettere sui video brevi: nello stesso periodo in Europa era stata lanciata Dubsmash che ebbe un picco di popolarità quando Francesco Totti la usò per sfottere il suo amico Cristiano Ronaldo; e anche Twitter ne aveva lanciata una, Vine, che però puntava su video brevissimi, sei secondi, troppo brevi perché avessero davvero qualche senso. Quindici secondi era il tempo giusto per fare una cosa divertente, leggera. Il tempo di una barzelletta. E poi Musical.ly aveva un sacco di strumenti e sticker che incoraggiavano la partecipazione degli iscritti, chiamati i muser. Zhu infatti era convinto che l’engagement degli utenti fosse più importante del loro numero assoluto. Al punto che nel 2015 Musical.ly contava dieci milioni di utenti, soprattutto ragazze, non tantissimi rispetto ai concorrenti; ma che caricavano undici milioni di video al giorno. In media ogni giorno ogni utente caricava il suo balletto quotidiano. Un rito.
Erano numeri impressionanti che impressionarono un altro giovane imprenditore cinese, Zhang Yimin. Era un ingegnere del software che nel 2012 a Pechino aveva lanciato la sua seconda startup: ByteDance. Nonostante il nome, l’idea non era collegata ai balletti ma all’intelligenza artificiale. Zhang Yimin voleva utilizzare l’intelligenza artificiale per rivoluzionare il modo in cui le persone fruiscono di contenuti online. Il primo prodotto era stato un aggregatore di notizie selezionate dall’intelligenza artificiale in base ai gusti di ogni singolo utente (e ai vincoli della censura del partito comunista cinese, ovviamente): Toutiao (ovvero «headlines, titoli del giorno»), ebbe subito un enorme successo e ancora oggi, con 250 milioni di utenti giornalieri, è il principale strumento di informazione dei cinesi. Nella mente di Zhang Yimin però il successo di Toutiao era solo l’inizio: era la prova che la sua intuizione sulle capacità dell’intelligenza artificiale di scegliere contenuti per noi, di decidere cosa avremmo voluto vedere, funzionava. Andava soltanto applicata ad un mercato più grande di coloro che vogliono informarsi e molto più vulnerabile alle seduzioni della tecnologia: gli adolescenti.
E così nel settembre 2016 in Cina debutta Douyin (letteralmente: «suono vibrante») e, qualche mese più tardi, dopo l’acquisto di Musical.ly e dei suoi cinquanta milioni di utenti, arriva anche la versione internazionale, apparentemente simile ma in realtà molto diversa da quella domestica (ne riparleremo): TikTok.
TikTok, è il caso di riconoscerlo, è stata una rivoluzione culturale che abbiamo capito tardi. I quindici minuti di celebrità preconizzati per ciascuno di noi da Andy Warhol nel 1968, sono diventati «i quindici secondi di TikTok». Il video breve infatti si è rivelato una forma di espressione potentissima nelle mani degli utenti: più dei blog, dei post, dei tweet e delle fotografie. Abbiamo scoperto, con sorpresa, che c’erano milioni di persone pronte a raccontare la propria visione del mondo, e soprattutto se stesse, mettendosi davanti alla telecamera di uno smartphone. I cento milioni di utenti del primo anno di attività, oggi sono oltre due miliardi e caricano circa duecentosettanta video al secondo. Duecentosettanta. Ogni secondo. Qualcuno sarà anche bello, perchè no? Non è questo il punto.
TikTok è stata anche la sconfitta definitiva dei timidi ed il trionfo dei simpatici e degli esibizionisti che qui hanno trovato il loro palcoscenico quotidiano. Per la verità è stata la sconfitta anche dei brutti. E dei poveri. Lo abbiamo scoperto nel 2020 quando il sito di controinformazione The Intercept ha pubblicato due documenti interni dell’azienda nei quali ai moderatori dei contenuti viene detto di cancellare i post creati da utenti troppo brutti, o poveri o disabili perchè quei video avrebbero abbassato l’engagement degli altri utenti. Proprio così. Vale la pena di leggere per intero questo passaggio dell’inchiesta: «Su TikTok sono stati soppressi movimenti militari e disastri naturali trasmessi in diretta, video che “diffamavano i dipendenti pubblici” e altro materiale che poteva minacciare la “sicurezza nazionale”, insieme a video che mostravano povertà rurale, baraccopoli, pance da birra e sorrisi storti. Un documento si spinge oltre, istruendo i moderatori a scansionare i contenuti caricati per individuare pareti screpolate e “decorazioni di cattivo gusto” nelle case degli utenti, per poi punire efficacemente questi utenti TikTok più poveri, limitando artificialmente il loro pubblico». Una crudeltà choccante. La reazione del portavoce di TikTok è stata la solita: minimizzare. Alcune di quelle policy, venne spiegato, non erano mai entrate in vigore; altre non lo erano più e se erano state varate era solo “per prevenire fenomeni di cyberbullismo”. Speriamo tanto che sia così perché se così non fosse sarebbe troppo brutto: certo è strano che il bullismo da contrastare in quei testi non venga mai menzionato, mentre viene sottolineato l’obiettivo finale di attrarre nuovi utenti e tenere alto l’engagement. Fare più soldi.
L’arrivo di TikTok ha stravolto e contagiato anche gli altri social network, in testa Instagram e YouTube, che hanno provato a imitarne l’approccio senza riuscirci davvero perchè in fondo TikTok non è un social e neanche un network: non serve a connettersi con gli altri. È una macchina personalizzata per l’intrattenimento governata da un sofisticato algoritmo di intelligenza artificiale. La differenza con i concorrenti, è stato detto, è abissale: è come andare in un ristorante e avere un menu da cui scegliere cosa ordinare; oppure entrare in un posto dove lo decidono i camerieri cosa mangerai, perché lo sanno benissimo cosa ti piace davvero, lo sanno meglio di te, e non importa se stai a dieta o hai qualche patologia per cui devi mangiare senza sale o con poco zucchero, loro ti portano quello che ti piace davvero, non quello che ti fa stare bene. E tu non saprai resistere.
Cosa poteva andare storto, cosa stava già andando storto, lo ha dimostrato una inchiesta poderosa del Wall Street Journal che nella primavera del 2021 ha creato 100 profili falsi, con gusti e attitudini psicologiche differenti, e li ha affidati ad altrettanti bot, cioè ha lasciato che un algoritmo li agisse in autonomia per capire quali video TikTok avrebbe scelto per ciascuno di essi. La premessa era la sensazione diffusa che quell’app sapesse tutto di noi, magari perché ascoltava le nostre conversazioni tramite il microfono dello smartphone durante la giornata. Ci spiava («La Cina ci ascolta e ci spia!»). Il risultato è stato molto più inquietante. L’inchiesta ha dimostrato che in meno di mezz’ora (ovvero, nell’unità di misura del tempo su TikTok, dopo circa cento video), l’algoritmo capisce esattamente cosa ci interessa davvero, cosa aumenta il nostro engagement. Capisce come farci entrare nella tana del coniglio. Per molti questa cosa è abbastanza inoffensiva, se non consideriamo un problema il tempo trascorso così; per altri no. Utenti con una base di depressione dopo mezz’ora guardavano solo video che parlavano del suicidio, quelli con dei disturbi alimentari ricevevano consigli su come mangiare ancora di meno; oltre a quelli ai quali venivano proposti droga o prostituzione o anche solo sesso estremo (su TikTok c’è una community specifica, chiamata «Kinktok» dove si mostrano fruste, manette e altri strumenti di piacere sadomaso). Il tutto senza nessuna attenzione all’età degli utenti-bot, alcuni dei quali dichiaravano di avere 13 o 14 anni.
Quando i cronisti del Wall Street Journal hanno presentato il conto ai dirigenti di TikTok, quando hanno consegnato loro i risultati dell’inchiesta con ben 974 video in cui si proponevano droga, pornografia e altri contenuti per adulti mostrati ai minori, la portavoce di TikTok ha replicato che «169 video erano già stati rimossi dai loro moderatori», e che «255 sarebbero stati rimossi prontamente», quanto agli altri e al fatto che non ci fosse una adeguata protezione dei minori, la portavoce disse di augurarsi «che Tik Tok avrebbe fatto un lavoro migliore in futuro» ma aggiunse, che gli utenti in fondo possono scegliere, quando guardano un video gli basta cliccare sul pulsante «non sono interessato». È colpa nostra insomma, è colpa dei nostri figli se inseguono il Bianconiglio nella tana.
Ora questa storia può sembrare un problema soltanto per i più ragazzi fragili, per quelli che hanno qualche vulnerabilità, per quelli che non sanno resistere alla tentazioni. E sarebbe comunque gravissimo aver fatto loro dei danni in nome dei soldi. Invece ben presto ci saremmo accorti che riguardava tutti, che in un certo senso nessuno si stava salvando. Ce ne saremmo accorti perché il terremoto dei social network stava per mettere in discussione e far tremare una delle istituzioni chiave su cui si poggiano le nostre democrazie: la scuola.
All’alba degli anni Venti la tempesta populista che aveva scosso il mondo sembrava passata. L’offensiva respinta. Il 20 gennaio 2021 alla Casa Bianca era tornato Joe Biden, un esperto servitore dello Stato che rispetto al suo predecessore del partito democratico, Barack Obama, del quale era stato vice presidente, nutriva una profonda diffidenza per la Silicon Valley: in campagna elettorale aveva detto più volte che, senza un vero contrasto alla disinformazione, i social network erano solo «uno strumento che corrode la democrazia» promettendo di porre un argine al potere delle aziende tecnologiche. Ce l’aveva soprattutto con Facebook. Il suo rivale, Donald Trump, era stato sconfitto nelle urne e, in seguito ad un assalto di un manipolo di sostenitori al Campidoglio, fomentati dal leader che parlava di «voto rubato» senza alcuna prova, era stato espulso da Facebook e Twitter, ovvero da quei social network nei quali si era dimostrato un autentico mattatore: l’algoritmo dell’engagement, infatti, che è notoriamente incurante della verità dei fatti, sembrava fatto apposta per il suo stile comunicativo tonitruante e minaccioso. Per quattro anni dalla Casa Bianca Trump aveva macinato follower e imposto trending topic come nessun altro prima; per questo quel doppio cartellino rosso digitale, oltre che un oltraggio, sembrava la sua fine politica.
Per i social network invece sembrava l’inizio di una nuova stagione, quella della maturità e della responsabilità. Dopo l’ondata di fake news degli anni precedenti, con l’emergenza Covid la politica aveva iniziato a pretendere un maggiore controllo dei contenuti, soprattutto si esigeva un argine alla fake news; nell’Unione Europea la Commissione stava per avviare il lungo procedimento legislativo che avrebbe portato all’approvazione di due leggi fondamentali che hanno reso le piattaforme digitali responsabili di quello che accade online. Anche per scongiurare un esito di questo tipo, Mark Zuckerberg si era lasciato convincere a nominare una speciale commissione di saggi che aveva il compito di dirimere tutti i casi più spigolosi sui contenuti postati dagli utenti su Facebook e Instagram. Non era così facile come appariva. Le immagini delle violenze sui civili in Sudan andavano rimosse o no? E quelle di un ospedale bombardato a Gaza? E il video di una ragazza col seno nudo per promuovere una campagna contro il cancro alla mammella? (tutti e tre i post erano stati rimossi automaticamente dall’algoritmo di Meta e riammessi successivamente). Era una strana situazione: da un lato, con i suoi algoritmi, Zuckerberg diffondeva contenuti complottisti e antiscientifici per aumentare engagement e fatturato; mentre dall’altro, con la Oversight Commission, ne moderava alcuni. Era chiaro che sarebbe finita male.
Intanto gli studenti di tutto il mondo erano alle prese con la DAD, la didattica a distanza imposta dalla vita al tempo della pandemia. Gli allarmi degli anni precedenti sulla necessità di ridurre lo screen time degli adolescenti erano andati in frantumi con il primo lockdown. Eravamo tutti rassegnati al fatto che non c’erano più limiti ormai al tempo che si poteva trascorrere davanti ad uno schermo: che altro si poteva fare chiusi in casa? Ovunque era stata improvvisata una strana forma di istruzione impartita tramite internet da insegnanti evidentemente impreparati al ruolo e costretti a fare lezione dal tinello o dalla cucina a classi fatte di tanti schermi spenti e quindi mentre gli studenti probabilmente facevano tutt’altro. Per la scuola quella breve stagione – che però ci è apparsa lunghissima – era stata una caporetto. Non solo era stata la prova del ritardo di cultura digitale dei docenti ma anche della complessiva inadeguatezza dell’istituzione tutta a capire cosa stava succedendo davvero: gli studenti erano improvvisamente cambiati.
Sembravano avere un altro modo di apprendere, di informarsi, di esprimersi. E avevano perso completamente interesse per lo studio. Per confortarci ci dicemmo: è colpa della DAD; ma non era vero, qualcosa di più profondo era successo. Non c’era stata solo una trasformazione, come ce ne sono sempre state; ma piuttosto una trasfigurazione. Per gli insegnanti (e per i genitori) gli adolescenti erano diventati irriconoscibili. E i ragazzi agli adulti ripetevano tutti più o meno lo stesso concetto: «Voi non ci capite, non ci potete capire». Era come se improvvisamente qualcuno avesse costruito un muro più alto del solito fra le generazioni. I social network in questo stavano giocando un ruolo fondamentale.
La grande sfida per il controllo della rete e del ricchissimo mercato pubblicitario digitale di Europa e Stati Uniti (500 miliardi di dollari, a spanne: un quarto del prodotto interno lordo di un Paese grande come l’Italia), si giocava tutta su di loro: sui più giovani. «Più gli utenti sono giovani e migliori sono le nostre performance», aveva spiegato nel 2019 un dirigente di Tik Tok in uno dei documenti interni dell’azienda emersi solo alla fine del 2024 in seguito alle numerose cause intentate negli Stati Uniti ai social network («As expected, across most engagement metrics, the younger the user, the better the performance»). La «performance» a cui si riferiva il dirigente della società cinese consiste nel tempo trascorso online, guardando un video dopo l’altro, senza stancarsi mai (si chiama scrolling infinito, un concetto inventato da uno sviluppatore americano nel 2006 per impaginare un sito web, ma diventato lo standard dei social quindici anni più tardi). «I giovani non sono capaci di smettere», scriveva negli stessi giorni al suo team un altro dirigente di Tik Tok alludendo a quel filone della neuroscienza per il quale il cervello degli adolescenti, e soprattutto dei preadolescenti, per ragioni legate allo sviluppo, sarebbe più facilmente manipolabile di quello degli adulti («Minors do not have executive function to control their screen time, while young adults do»). Per questo, cito ancora un dirigente di Tik Tok, nel mondo dei social media era partita «una corsa agli armamenti per il controllo dell’attenzione» dei giovani. Gli armamenti erano gli algoritmi e quello di Tik Tok era sicuramente il più efficace.
Insomma, gli amministratori delegati delle piattaforme digitali lo sapevano bene quello che stavano facendo. Stavano attirando ragazzi e ragazzini online affinchè ci stessero più tempo possibile incuranti delle conseguenze. E lo stavano facendo piuttosto bene. Nel 2021 negli Stati Uniti (in Europa in dati sono molto simili) il 95 per cento degli adolescenti, praticamente tutti, era sui social media; ma ci stava anche la metà dei tween, i ragazzini fra 10 e 12 anni, nonostante il divieto per i minori di 13 anni (aggirabile con un clic rispondendo «sì» alla domanda: «Hai più di 13 anni?»); e ci stava persino un terzo dei bambini fra 7 e 9 anni. Questo dato va sottolineato: almeno un terzo dei bambini da 7 anni in su ha un account social, attivato probabilmente, ma non necessariamente, con il consenso dei genitori e mentendo sull’età al momento dell’iscrizione. Sono bambini, entrati in un posto da grandi, senza protezioni.
L’utilizzo dei social senza limiti di età è ovviamente noto a quei genitori che hanno dato ai figli troppo presto uno smartphone in mano pensando di tenerli occupati mentre loro sono al lavoro e di farli crescere al passo con i tempi («mio figlio è un campione con l’iPhone, è più bravo di me!»); ed è noto anche alle aziende tecnologiche i cui algoritmi sono in grado di dedurre con notevole precisione la vera età di ciascun utente. Ma c’è una differenza importante fra queste due consapevolezze: Meta, Tik Tok ma anche Google per YouTube e Snapchat (poco diffuso in Europa ma forte negli Stati Uniti), sapevano anche quello che stava accadendo alla salute mentale dei loro giovani utenti. Lo sapevano e non si sono fermati. Nessuno di loro si è fermato per non perdere fatturato.
Questa, insomma, non è la storia di un errore di valutazione, è la storia di un inganno. Gli uffici di pubbliche relazioni di Meta, Tik Tok e degli altri ci dicevano: sta andando tutto benissimo, noi ci teniamo un sacco alla salute dei ragazzi; e vogliamo fare un patto con i genitori, lo volete fare un patto con noi? Vi aiutiamo. Ma era solo un modo per guadagnare tempo. E soldi. Questa è la storia di una infinita serie di omissioni e di storielle rassicuranti raccontate soltanto nel nome del profitto; e va spiegata bene.
Nel caso di Tik Tok la verità l’abbiamo scoperta da poco, nell’ottobre 2024, e l’abbiamo scoperta per caso. I procuratori generali di due stati americani, il Kentucky e il Nebraska, avevano presentato una citazione per danni contro i social raccogliendo moltissimi documenti interni alle piattaforme che erano poi stati depositati sbianchettando i passaggi fondamentali in attesa della conclusione del giudizio e di un possibile accordo risarcitorio (qualcosa tipo: se paghi i danni non li pubblichiamo e ti salviamo la reputazione). Ma il cronista di una radio locale aveva scoperto che copiando e incollando il testo, ben trenta pagine del documento originale tornavano leggibili nella loro interezza.
Quelle pagine costituiscono uno spaccato di quello che stava accadendo online all’inizio degli anni Venti visto dalla plancia di comando della app più scaricata del mondo. Tik Tok ovviamente.
Intanto un dato. A Pechino hanno calcolato quanto tempo impiega l’algoritmo di raccomandazione dei contenuti a sapere esattamente cosa farci vedere per tenerci ingaggiati e renderci psicologicamente dipendenti dalla piattaforma: 260 video che, considerando la durata di appena 8 secondi di molti video, equivalgono a circa 35 minuti. Dopo, siamo spacciati. Fermiamoci un attimo su quel numero: 8 secondi. Per molti psicologi è diventato la misura della nostra capacità di attenzione: ogni 8 secondi passiamo ad altro, sentiamo un irresistibile impulso a cambiare argomento, un altro video per favore. Se avete figli adolescenti, avete notato la fatica che fanno non dico a leggere un libro ma anche a guardare un film? Il cinema è diventato troppo lento per loro. Figuratevi una lezione frontale a scuola.
In un altro documento, che cita una ricerca interna, si dice che «l’uso compulsivo di Tik Tok, è correlato con una serie di problemi mentali quali la perdita delle competenze analitiche, della formazione della memoria, del pensiero contestuale, della profondità della conversazione, dell’empatia e un aumento dell’ansia». Non lo dicono gli avversari dei social, non lo dicono dei boomer nostalgici del tempo che fu, non lo dicono degli insegnanti frustrati dalla disattenzione che regna sovrana in classe: lo dicono i ricercatori di Tik Tok ai loro capi. Dicono anche che l’uso eccessivo della piattaforma interferisce con alcune «funzioni essenziali della persona tipo dormire, gestire gli impegni scolastici o di lavoro, connettersi con i propri affetti».
Eccolo, il terremoto. Era inevitabile che l’epicentro delle scosse fosse la scuola. È stato calcolato che in media un adolescente riceve circa 240 notifiche al giorno. Come potevano resistere gli studenti a questa «arma di distrazione di massa»? Del resto in quel periodo Tik Tok mandava notifiche anche durante l’orario scolastico o nel pieno della notte incurante dell’età degli utenti: e infatti il 20 per cento degli adolescenti risultava attivo fra mezzanotte e le cinque del mattino. Funziona così: tu metti a dormire i tuoi figli tranquillo, «buonanotte tesoro, a domani», e loro riaccendono il telefonino nel buio delle loro camerette e al mattino sono dei cadaveri. Come mai? Quando qualcuno ha sollevato il problema l’ufficio pubbliche relazioni di Tik Tok ci ha rassicurato che era tutto sotto controllo e che però avrebbero iniziato a mandare avvisi ai più giovani per dire che «è ora di andare a dormire» postando, solo per gli adolescenti, dei video con musica rilassante. Come vendere cheeseburger e patatine fritte con l’avviso «attenti al colesterolo».
In realtà c’erano, e ci sono ancora strumenti per limitare l’uso dell’app da parte dei giovanissimi: da un certo momento in poi ai genitori è stato permesso di stabilire un limite di utilizzo quotidiano per i figli fra quaranta minuti e due ore. Venne anche lanciata una campagna per promuovere i «break videos», video che ricordavano all’utente di fare un break ogni tanto, di interrompere lo scrolling infinito e fare altro; ma un test interno dimostrò che la riduzione del tempo online dopo questa iniziativa in media era stata di appena un minuto e mezzo. Nei documenti pubblicati dalla radio americana c’è il commento di un project manager su questa situazione: «Il nostro obiettivo in fondo non è davvero ridurre il tempo trascorso online». E allora perché continuare a lanciare palliativi spacciandoli per strumenti che davvero potevano cambiare le cose? Risposta: «Questi strumenti non hanno alcuna utilità pratica ma ci servono per avere qualcosa da dire (“talking points”) quando ci chiamano i politici». Fuffa. Ma molto ben raccontata.
Il 9 giugno 2022 sul blog di Tik Tok il «responsabile del benessere digitale degli utenti» (non è una parodia, è la sua qualifica ufficiale) ha pubblicato un lungo post per ribadire che «a Tik Tok noi crediamo che le esperienze digitali debbano portare gioia, divertimento, connessioni e arricchimento personale». Nessun riferimento ai problemi di salute mentale emersi nelle indagini interne ovviamente, solo la gioia di alcuni contava. Eppure nello stesso periodo un ricercatore scrivendo al proprio team riconosceva che un uso eccessivo della app stava facendo perdere alle persone altre opportunità e ne citava alcune come «guardare un’altra persona negli occhi». Senza uno schermo di mezzo, ovviamente.
Nel frattempo gli altri social network facevano esattamente le stesse cose o almeno ci provavano. Era in atto una sorta di tiktokizzazione della vita online. Ovunque dominavano (e dominano) i video selezionati da un algoritmo senza tenere conto delle connessioni personali ma soltanto delle capacità del contenuto di tenerci ingaggiati a qualunque costo (cioè senza tenere conto dei possibili danni psicologici inflitti agli utenti). La trasformazione di YouTube è stata esemplare. È stato in quel periodo che Mark Zuckerberg ha scritto ai suoi che questa storia della connessioni era sopravvalutata e che Facebook e Instagram sarebbero dovuti diventare dei «Discovery Engine», dei motori che facciano scoprire agli utenti contenuti che non hanno scelto e che non sono legati alla propria rete di contatti ma che sicuramente gli piaceranno. È lì che avviene la trasformazione da social network a rete di intrattenimento personalizzato. Come Tik Tok appunto.
Anche in questo caso c’è voluta una causa per scoprire cosa sapevano e pensavano nel quartier generale di Menlo Park: c’è voluta una citazione per danni presentata da decine di querelanti presso la Corte della California del Nord nel dicembre 2023. Nelle carte, poi riprese anche in altri procedimenti civili, si legge che Meta sapeva almeno dal 2018 dell’effetto corrosivo di Instagram sul benessere degli adolescenti; lo sapeva perché c’era un team dedicato di informatici, psicologi ed esperti di dati che aveva condotto moltissime ricerche, tutte con il medesimo risultato. C’era poi il tema dei preadolescenti che in teoria non avrebbero dovuto stare sulla piattaforma: «Ci sono sicuramente utenti con meno di 13 anni», afferma perentorio un dirigente in un documento dell’epoca. Ma non potrebbero starci, che si fa? Non è un problema nostro, colpa dei genitori semmai.
A quel punto Meta ha scelto di non proteggere i suoi giovani utenti: «Piuttosto che risolvere i problemi creati dalle sue piattaforme», si legge in un atto di accusa e che quindi necessita di una replica, «il team dedicato alla salute mentale prima è stato privato di fondi e poi azzerato». Qui parla un dipendente di Meta: «Lo studio della dipendenza dai social non è più stata considerata un’area di attività prioritaria». Qualcuno ovviamente aveva avvisato Zuckerberg del problema: «Non stiamo riuscendo a ottenere l’obiettivo del benessere degli utenti, limitando l’uso eccessivo, il bullismo e le molestie online». Oddio, rischiamo di bruciare una generazione? No: «Rischiamo di avere delle regole più stringenti e delle critiche». Ecco cosa temevano: regole e critiche. Meta ha deciso di correre quel rischio, di non impattare la crescita di fatturato e dei profitti: di tutelare gli azionisti. E ci è riuscita perfettamente: il valore delle azioni è passato da 119 dollari alla fine del 2022, quando il gruppo scontò il fallimento del Metaverso, a 584 dollari alla fine del 2024; mentre il patrimonio personale del fondatore è passato nello stesso periodo da circa 40 miliardi di dollari a oltre 200. Prima di criticare: cosa non fareste per quintuplicare il vostro patrimonio in due anni? Del resto qualunque intervento sull’algoritmo avrebbe ridotto il tempo di utilizzo degli utenti più giovani e quindi i ricavi: «I giovani e gli adolescenti sono un obiettivo strategico per Instagram, ogni anno si iscrive un nuovo gruppo di 13enni e la competizione con gli altri social network non è mai stata così accesa».
Qualcosa Meta lo ha fatto in realtà: qualche campagna di sensibilizzazione sul tema per dire «ci interessa»; qualche tentativo di far passare gli studi scientifici su danni agli adolescenti come «pseudoscienza»; e qualche strumento per informare i genitori del tempo trascorso dai figli online. Ma a parte il fatto che i dati comunicati ai genitori non erano attendibili («Our data as currently shown is incorrect», si legge sempre nei documenti allegati ai procedimenti giudiziari), alla fine tutte queste iniziative servivano solo a creare confusione, ad evitare che l’opinione pubblica avesse una posizione forte e univoca sul tema. Come fanno i negazionisti del cambiamento climatico quando dicono che «ha sempre fatto caldo»: magari non gli credi ma il dubbio ti viene. Questa tattica la riassume perfettamente un dirigente in un altro documento interno: «It’s all theatre, è tutta una manfrina».
Tutto chiaro? Forse sì ma da questo momento in poi la navigazione si fa incerta. Si procede sulle sabbie mobili.
Qualcosa è davvero andato storto, insomma, e non qualcosa di marginale; potremmo dire che in questi venti anni di vita social ci siamo persi per strada un’idea condivisa di futuro, inteso come un mondo migliore dove arrivare tutti assieme. Quella cosa che, a fasi alterne, ha fatto compagnia all’umanità per un paio di secoli, adesso non c’è più, questo lo abbiamo capito da un pezzo. Ma quando è successo esattamente che abbiamo iniziato a reagire? Quando è che abbiamo detto «basta, c’è un intero settore dell’economia che prospera mandando in malora la democrazia, la convivenza civile e che lucra tirando fuori il peggio di noi»? Quando è che ci siamo davvero ribellati a un modello di business costruito sulle nostre vulnerabilità di esseri umani – il narcisismo, l’esibizionismo, l’egoismo, debolezze millenarie certo ma che nel flusso di contenuti selezionati per noi dagli algoritmi diventano assoluti universali, assurgono a stili di vita da emulare? In un certo senso mai, non abbiamo mai detto basta, non ci siamo mai ribellati; non lo abbiamo fatto. Postiamo un po’ meno di prima forse, qualcuno se ne è addirittura andato da X per protestare contro Elon Musk, ma fondamentalmente siamo ancora tutti o quasi lì, dentro quelli che una volta chiamavamo social network e che oggi sono quasi esclusivamente strumenti di intrattenimento personalizzati (persino Mark Zuckerberg nella primavera del 2025, testimoniando in un delicato processo contro Meta, ha detto che «l’era dei social è finita». Ipse dixit).
Però c’è stato un momento in cui il senso della storia si è invertito: come quando il trombettiere negli eserciti suona la carica (o la nostra è stata piuttosto una ritirata?). È accaduto nel 2024, il giorno di San Valentino, il 14 febbraio, quando il sindaco di New York Eric Adams ha convocato una conferenza stampa per annunciare che la città di New York, assieme a tutte le sue scuole e a tutti i suoi ospedali, aveva deciso di portare in tribunale le aziende che per comodità teniamo sotto il cappello di Big Tech «per i danni inflitti alla salute mentale dei giovani». Non era la prima causa di questo tipo negli Stati Uniti: si erano già mossi altri Stati, con lo stesso obiettivo, con gli stessi argomenti. Ma un conto è dire che lo Utah o il Nebraska accusano TikTok e Instagram di nefandezze varie, un altro è avere sul ring New York, con tutto quello che questa città rappresenta nell’immaginario globale in termini di progresso, futuro e tecnologia. Lo stesso sindaco poi, un ex poliziotto eletto con il partito democratico, si era presentato agli elettori come un sostenitore dell’innovazione arrivando a promettere che si sarebbe fatto pagare ogni anno un mese di stipendio in bitcoin per fare di New York «la capitale mondiale delle criptovalute». E infatti il 14 febbraio 2024 Eric Adams, dopo aver citato una serie di dati drammatici sulla crescita vertiginosa di depressione e suicidi fra gli adolescenti della sua città, quasi sembrava volersi giustificare per una mossa così ardita: «Lo so che New York è stata costruita sull’innovazione e la tecnologia, ma molte piattaforme social hanno finito per danneggiare la salute mentale dei nostri figli, promuovendone la dipendenza e incoraggiando comportamenti pericolosi». Non stava dicendo, come qualcuno chiosò, che «era tutta colpa dei social», che senza di essi gli adolescenti di New York sarebbero stati spensierati e operosi, o che non c’erano motivi per deprimersi o preoccuparsi del futuro visto lo stato del pianeta. Non stava assolvendo gli adulti o la società nel suo complesso: stava dicendo che i social avevano trasformato il malessere di alcuni nell’epidemia di una generazione. E che lo avevano fatto per soldi. Di questo era, sarebbe o è (dipende dal punto di vista) colpevole Big Tech.
Da quel momento tutto è iniziato a cambiare: per esempio alla fine dell’anno il parlamento australiano ha approvato a larghissima maggioranza una legge che vieta l’uso dei social ai minori di 16 anni e che scarica sulle piattaforme tecnologiche il compito di trovare un modo certo per identificare l’età degli utenti senza violare la privacy di chi naviga. Questa legge, che molti altri paesi stanno pensando di imitare, entrerà in vigore alla fine del 2025 e vedremo se sarà efficace; mentre il maxi processo ai social incardinato presso un tribunale della California del Nord, nel frattempo è diventato enorme, i ricorrenti sono diventati più di mille, non solo persone ma piuttosto istituzioni, città, scuole, ospedali. Adulti sull’orlo di una crisi di nervi. Tra poco inizierà il dibattimento: fin qui la corte si è limitata a respingere le eccezioni di Meta e Byte Dance che cercavano di farlo saltare, non un bel segnale per le aziende sotto accusa. Anche perché le citazioni non poggiano su impressioni generiche da boomer tipo «i social fanno male ai ragazzi», ma su indagini scientifiche condotte in questi anni. Decine e decine di indagini.
La letteratura scientifica contro i social è diventata un genere. Allertati dalle scuole in crisi, negli anni Venti psicologi, psichiatri e data scientists si sono messi a studiare l’impatto dei social sullo studio e sulle performance scolastiche. Qualche scienziato ha persino coniato l’espressione «TikTok brain» riferendosi alle modifiche nel modo di funzionare di un giovane cervello troppo esposto ai social. I risultati, se ci pensate, erano scontati: non servivano migliaia e migliaia di interviste agli studenti per scoprire che se passi quattro o cinque ore al giorno sui social poi fatichi a concentrarti su altro; e che se quelle ore le sottrai alla lettura di un libro poi alla lunga ti disabitui a leggere un testo qualunque; e che se tieni il telefonino acceso in classe mentre l’insegnante fa lezione, sei inevitabilmente distratto, pensi solo alle notifiche in arrivo e non segui più nulla e per di più sei insofferente, non vedi l’ora di andartene. Non servivano per saperlo però è sulla scorta di quelle indagini che molti procuratori generali negli Stati Uniti si sono mossi e hanno potuto avviare le cause contro i social media recuperando in questo modo documenti essenziali per capire cosa accadeva davvero nelle plance di comando di Big Tech. In attesa dei processi e delle sentenze, infatti, una cosa dalle carte processuali è già venuta fuori: la malafede delle aziende che gestiscono le piattaforme digitali. Sapevano dei danni che stavano procurando o che rischiavano di provocare e non si sono fermate. Hanno sempre scelto i soldi.
Del resto i dati sul crollo dell’apprendimento e delle competenze a livello globale lo confermano al di là di ogni ragionevole dubbio: è come se stessimo tornando tutti analfabeti. Nel 2024 l’Organizzazione per la Cooperazione e lo Sviluppo Economico (Oecd), che si occupa di questi temi da moltissimo tempo, ha intervistato 160 mila adulti in trentuno paesi per verificare come si sono evolute le competenze letterarie e matematiche e la capacità di risolvere problemi delle persone. É una indagine che si ripete ogni dieci anni e rispetto alla precedente, del 2014, i risultati sono stati sconfortanti quasi ovunque: «Il trenta per cento degli americani», per esempio, «ha la capacità di lettura di un bambino di dieci anni», dice il rapporto finale. Dovete immaginare, ha chiosato il direttore dell’Oecd Andreas Schleicher, «che un terzo delle persone che incontrate per strada in America ha difficoltà a leggere un testo semplice». Il che peraltro spiega perfettamente perché hanno eletto un presidente che nei suoi discorsi usa al massimo un centinaio di parole e anche piuttosto basiche (noi buoni, loro cattivi, noi bene e gli altri, se non ci obbediscono, male, molto male, cose così). Lo capiscono, si capiscono perfettamente. Sono abitanti di un mondo che ha eliminato la complessità e le sfumature e anche l’empatia, lo sforzo necessario a capire il punto di vista degli altri.
Epperò di questo presunto calo delle nostre capacità mentali, o meglio della nostra intelligenza, se ne parla da molto prima che ci fosse TikTok. Nel 1992 il web stava appena arrivando nelle nostre vite quando il massmediologo Neil Postman pubblicò un libro al quale lavorava da un po’ (Technopoly) per denunciare «la resa dalla cultura alla tecnologia». In un passaggio molto citato dice: «Una cultura non ha bisogno di costringere gli studiosi a fuggire per renderli impotenti. Una cultura non ha bisogno di bruciare libri per garantire che non vengano letti... Ci sono altri modi per raggiungere la stupidità, senza dover ricorrere alla violenza». Si riferiva alla televisione.
E nel 2008 il giornalista Nicholas Carr scrisse per l’Atlantic un saggio dello stesso tenore che fece molto discutere, a partire dal titolo: «Is Google Making Us Stupid? Google ci sta rendendo stupidi?». Carr aveva in mente il web in generale, non solo a Google, ma ai tempi Google sembrava contenere tutto il resto (e in un titolo ci stava benissimo, acchiappava i nostri clic perfettamente). Se andate a rileggere le tesi di Carr sul web oggi scoprirete che assomigliano moltissimo alle cose che si dicono sui social: Carr sosteneva che il digitale avrebbe portato ad una «perdita della nostra capacità di leggere e concentrarsi»; che un certo modo di informarsi avrebbe «modificato il funzionamento del cervello»; che avremmo «perso la profondità di ragionamento» in cambio dell’efficienza di avere risposte pronte in meno di un secondo; e che tutto questo sarebbe avvenuto sull’altare del profitto. Dopo più di quindici anni cosa dovremmo concludere? Che Carr è stato preveggente e aveva previsto tutto? O che ad ogni passo avanti della tecnologia abbiamo sempre avuto le stesse paure e che in fondo Google non ci ha reso così stupidi come si temeva?
Di solito quando si affrontano questi temi, per difendere la tecnologia e più in generale il progresso, si cita un testo di più di duemila anni fa, un celebre dialogo di Platone, il Fedro, in cui Socrate racconta un mito in cui il dio egizio Theuth presenta l’invenzione della scrittura al re Thamus. Theuth sostiene che la scrittura migliorerà la memoria e la saggezza, ma Thamus non è d’accordo: «Se gli uomini impareranno questo (la scrittura), nelle loro anime si impianterà l’oblio. Cesseranno di esercitare la memoria perché si affideranno a ciò che è scritto, richiamando le cose alla memoria non più da dentro di sé, ma attraverso segni esterni». È stato detto che Platone stesso temeva che la scrittura avrebbe portato ad una conoscenza superficiale delle cose perché priva dell’interazione e della introspezione che sarebbero tipiche del discorso parlato.
Le sentite anche voi le sabbie mobili ora? Non vi viene qualche dubbio rispetto a chi esibisce solo certezze su cosa fare adesso? Meglio procedere con cautela, altrimenti si affonda davvero.
Tra l’altro due anni prima del saggio di Nicholas Carr, Alessandro Baricco aveva scritto un saggio fulminante sulla «mutazione in corso» a causa dell’avvento del digitale, I Barbari, difendendo a suo modo una nuova forma di intelligenza, ovvero la capacità dei nativi digitali («i barbari») di muoversi rispetto al sapere non verticalmente, imparando tutto ma proprio tutto su un fenomeno o una materia, come si era sempre fatto, come facevano i monaci amanuense nel Medio Evo; ma orizzontalmente, collegando segnali diversi, mescolando materie diverse e arrivando comunque a conclusioni originali e intelligenti. «Respirano con le branchie di Google» aveva scritto Baricco. Era un modo per dirci che coloro che ci apparivano come dei barbari erano diversi da noi ma non erano affatto stupidi, anzi, se la stavano cavando piuttosto bene.
Insomma: e se stessimo sprecando una nuova forma di intelligenza? Se non avessimo capito cosa sta davvero accadendo?
Quel saggio di Baricco torna utile per approfondire gli sconfortanti dati dell’Oecd sulle nostre capacità di apprendimento. Abbiamo visto che sono andate a picco ovunque; ovunque tranne che in un paese: la Finlandia. La Finlandia? La Finlandia, lo stesso paese che nel 2025 è finito in testa alla «classifica mondiale della felicità» (una classifica in cui si chiede alle persone di dire quanto sono felici da uno a dieci: i finlandesi evidentemente si sentono molto felici, gli altri meno). E se le due cose fossero collegate? Quali cose? La felicità di una popolazione e la sua capacità di apprendimento. In fondo, lo ha spiegato lo psichiatra Miguel Benasayag, «i problemi di apprendimento sono rivelatori di una difficoltà di desiderare la vita». I nostri ragazzi non studiano come dovrebbero perché non amano la vita? E come è stato possibile che mentre le scuole di tutto il mondo andavano in tilt, per il terremoto causato dai social, quelle finlandesi no?
La risposta richiederebbe di aprire una parentesi lunghissima ma in breve possiamo dire questo: perché la Finlandia più volte, l’ultima nel 2016, ha aggiornato il suo sistema scolastico cercando di tenere sempre al centro di tutto gli studenti. Per esempio invece di puntare solo sulla comprensione di un testo scritto ha deciso di valorizzare il pensiero critico, la collaborazione e la creatività; invece di pretendere che gli studenti stiano in classe anche sei ore al giorno e che facciano una montagna di compiti a casa, ha scelto un approccio più equilibrato, con orari più corti che si adattano alla ridotte capacità di concentrarsi; infine le competenze digitali dei ragazzi sono integrate nella didattica, non punite, e i programmi sono personalizzati sui bisogni di ciascuno. E questo è stato possibile perché gli insegnanti sono valorizzati, stimati, pagati il giusto (43 mila dollari l’anno, quasi il doppio della media degli altri paesi dell’Unione Europea). Praticamente in Finlandia quando hanno visto arrivare il terremoto causato dai social network, hanno costruito degli edifici antisismici che fin qui hanno retto bene. É un’ipotesi da non scartare.
Arrivati a questo punto ci sono soltanto domande senza risposta. E se fosse la scuola a doversi adattare al nuovo mondo di cui siamo tutti parte? E se fosse una scuola incapace di evolvere in funzione di studenti che sono cambiati (non per colpa loro), la causa o, almeno, l’amplificatore dell’ansia e della depressione giovanile che vengono fuori in tutte le indagini? E se fosse una didattica per molti versi ottocentesca la ragione del dilagare della famigerata Adhd, la sindrome di disturbo dell’attenzione che per anni è stata considerata un problema genetico e trattata con dei farmaci e solo adesso viene fuori che potrebbe essere una patologia legata all’ambiente che si frequenta e quindi da trattare semplicemente cambiando ambiente? Lo dico più chiaramente: e se il dilagare di tutti questi certificati che diagnosticano la Adhd e che gli studenti sventolano in classe come uno scudo protettivo, dipendesse dal fatto che i ragazzi a scuola, in questa scuola, fondamentalmente si annoiano? Si sentono alieni?
Sono domande fondamentali, che non hanno risposte univoche tipo giusto o sbagliato. In questo scenario ha poco senso dire: leviamogli i telefonini fino a 16 anni così andrà tutto apposto! Oppure: imponiamo ai ragazzi di imparare i testi di greco e latino a memoria come si faceva un secolo fa perché solo così si allena la mente traviata da stories e reels. Quelle sono risposte che vanno bene sui social dove non esistono le sfumature perché non polarizzano abbastanza, non creano engagement e quindi ormai non siamo più capaci di coglierle. La realtà è più complessa e volendola semplificare al massimo potremmo esporla così: negli ultimi vent’anni c’è stata una rivoluzione, la rivoluzione digitale; chi l’ha guidata ha fatto scelte dettate solo dal profitto e questo ha fatto un sacco di danni; e ora dobbiamo capire come andare avanti, non come tornare indietro perché indietro di solito non si torna mai.
C’è però un’ultima cosa che andrebbe detta, un ultimo elemento da inserire in questa equazione già così complicata. Ammettiamo per ipotesi che chi gestisce i social network lo faccia d’ora in poi con una maggiore attenzione e responsabilità, che il filtro dell’età minima a 13 anni finalmente funzioni, e che gli algoritmi rinuncino a far vedere in continuazione video che amplificano le vulnerabilità degli adolescenti, che non li spingano al suicidio se sono depressi insomma, e non li facciano diventare anoressici se si sentono grassi. E ammettiamo che nel frattempo la scuola si evolva, che insegnanti motivati e retribuiti il giusto imparino a fare lezioni più partecipate e interessanti, che diventino meno pignoli e ossessivi di quanto a volte sono e che la si smetta di considerare una forma di stupidità la difficoltà a leggere un libro lunghissimo senza considerare altre qualità. E infine ammettiamo che i genitori abbiano imparato la lezione, che la finiscano di dare uno smartphone in mano ad un bambino di 7 o 8 anni e che abbiano capito che levarglielo dopo, quando hanno 14 anni, è una forma di violenza inutile e inaccettabile. Ammettiamo per un attimo che tutte queste cose per miracolo accadano: basterebbe? Oppure c’è ancora qualcosa che non torna nella vita social dei nostri figli?
Parlando agli studenti dell’università di scienze gastronomiche di Pollenzo, un paio di anni fa, l’architetto Renzo Piano ha esposto una interessante teoria su «come nascono le idee». Ogni attività creativa è sempre «sospesa fra la memoria e l’oblio», disse Piano citando il poeta argentino Jorge Luis Borges; tra quello quello che abbiamo visto da qualche parte e che ci ricordiamo e il resto, le cose che ci aggiungiamo noi. Il tema è: quello che gli adolescenti vedono online sui social, patologie escluse, che sistema di valori sta costruendo dentro di loro? Che base costituisce per le loro idee? È importante capirlo perché è lì che dorme il futuro del mondo.
Prendiamo la differenza che c’è fra il TikTok che si usa nel mondo occidentale e la sua versione cinese, Douyin. Il tema non è la solita storia dei legami fra TikTok e la Cina: è dalla fine della prima presidenza Trump che TikTok avrebbe dovuto essere vietato negli Stati Uniti per una questione di sicurezza nazionale, ovvero per il fatto che i dati degli utenti vengono trasferiti in Cina e quindi entrano sotto il controllo del partito comunista cinese («Ci spiano!»). TikTok questa cosa l’ha sempre negata fin quando una indagine di una commissione parlamentare australiana ha portato le prove: nei primi anni di attività i dirigenti di TikTok e di Byte Dance, la società che aveva sviluppato la piattaforma, erano gli stessi, ed erano gli stessi gli strumenti che usavano per le comunicazioni interne e tutte le decisioni fondamentali prese da TikTok a San Francisco dovevano essere approvate da Byte Dance a Pechino. Quando la bugia è stata scoperta, il quartier generale della società è stato trasferito a Singapore e il management è stato cambiato per mostrare che i legami con la Cina erano stati recisi ma non è questo il punto. Il punto non è se la Cina spia quello che guardiamo online, ma se decide cosa guardiamo online. Il punto è proprio la differenza fra TikTok e Douyin, che pure teoricamente dovrebbero essere identici. Apparentemente lo sono, pure nella grafica, nei colori: ma l’algoritmo è stato settato in modo opposto. «TikTok da noi è completamente fuori controllo», ha spiegato recentemente una leggenda di Internet, il professor Lawrence Lessig, «funziona sempre, senza sosta e offre i contenuti peggiori possibili, soprattutto ai giovani, per spingerli a interagire. Mentre la versione cinese è bloccata in determinati orari e limita il tempo totale che puoi trascorrere su di essa. Ma c’è di più. Il suo obiettivo è educativo, è far sognare le persone di poter diventare astronauti. Risultato: se chiedi ai bambini cinesi qual è il loro sogno rispondono: essere un astronauta. Se lo chiedi ai nostri figli la risposta è: essere un influencer».
Nessuno in Occidente vorrebbe un sistema cinese. Ci teniamo stretta la nostra libertà. Ma se i cinesi tramite una app convincono i giovani occidentali che il miglior futuro possibile per ciascuno di loro è fare tanti soldi facili diventando influencer, abbiamo un problema. E non è la sicurezza nazionale. È, appunto, il futuro che vogliamo.
A che serve studiare, a che serve la scuola se poi i giovani vogliono diventare influencer?