Sette, 3 ottobre 2025
E se il rischio dell’AI fosse la mediocrità?
E se il baratro verso il quale ci sta accompagnando l’Intelligenza Artificiale, con la sua scia di accelerazioni e meraviglie, fosse la mediocrità? Quella mediocrità che conosciamo per averla intercettata – in noi, intorno a noi – quando l’ansia da consenso prevale su tutto fino a spegnere ogni aspirazione all’autenticità e ogni tentazione agonistica. La questione è posta in modo diretto, e brillante, nella nostra conversazione (alle pagine 44 e 45) con Alberto Romele e Davide Picca. Quest’ultimo spiega come le Intelligenze Artificiali siano «fatte per cercare la parola media, quella più frequentemente usata in una serie di parole». Quella standard, quella che asseconda, appiana e magari compiace.
La riflessione mi ha ricordato un esperimento condotto, un anno fa, tra alcuni studenti dell’area di Boston. Lo aveva raccontato in giugno The New Yorker. A tutti – una cinquantina – era stato chiesto di scrivere un breve saggio secondo il modello dei test di accesso alle università americane. Una dissertazione dal tema ampio, utile a rivelare lo spirito critico dei candidati più che competenze specifiche. Il titolo domandava: i nostri sforzi e risultati devono portare benefici agli altri per renderci veramente felici? Un primo gruppo era stato costretto a lavorare senza supporti, a usare la propria testa e basta; un secondo autorizzato a ricorrere a Google Search; il terzo incoraggiato ad affidarsi a ChatGpt. A ciascuno erano stati applicati degli elettrodi durante l’esame: l’attività e soprattutto la connettività cerebrale del gruppo 3 si sarebbe dimostrata molto più debole rispetto a quella degli altri due. I ricercatori dell’MIT, co-autori dell’esperimento, lo definiscono «il costo cognitivo» dell’AI. Inoltre – e torniamo al punto di partenza – la terminologia e i concetti elaborati dagli esaminandi “sostenuti” da ChatGpt avrebbero manifestato una tendenza all’omologazione di ragionamenti e opinioni.
Lo stesso articolo, firmato dal giornalista e saggista Kyle Chayka, proponeva un secondo studio, messo a punto dalla Cornell University, forse ancor più sorprendente. Protagonisti, questa volta, cittadini americani e indiani cui veniva chiesto quale fosse il loro «cibo preferito». Chi aveva consultato un’AI era approdato in larga maggioranza alla risposta «pizza» («sushi» al secondo posto), con buona pace delle sofisticate specialità orientali.
Si potrebbe replicare che “la medietà” – cioè, secondo Treccani, «la posizione intermedia tra due estremi» – è efficace: facilita il riconoscimento, la comunicazione, persino la soluzione degli antagonismi. Ma che ne sarà della nostra voce originale? Della capacità individuale di approdare a soluzioni creative, innovative? La questione, sottolineano Romele e Picca, è che ChatGpt non è (per ora) «un essere di intenzioni». Potremo forse educare le macchine al dissenso. E potremo sicuramente educare noi a usare meglio le macchine.
Potremmo, infine, ripescare dalla nostra memoria il filosofo Ludwig Feuerbach che si inventò la formula «l’uomo è ciò che mangia» (giocando in tedesco sulla “s” in più tra i verbi essere e mangiare nella terza persona singolare: Mensch ist, was er isst) per richiamare il valore delle identità culturali e sociali di appartenenza (cibo compreso) rispetto alle geometrie dell’idealismo. Ma se veniamo indotti a rispondere in coro «pizza» o «sushi», perderemo le tracce digitali di ciò che siamo stati. E ancora desideriamo.