repubblica.it, 22 marzo 2026
Cosa vuole il mondo dall’IA?
“Gli esseri umani non si sono mai confrontati con qualcosa più intelligente di loro. Dobbiamo ragionare su come prepararci al meglio per affrontare l’era dell’IA”.
Questa riflessione appartiene a un programmatore sudcoreano e fa parte di una ricerca pubblicata da Anthropic – tra le società più importanti al mondo nello sviluppo di intelligenza artificiale di frontiera – sulle speranze, paure e opinioni delle persone riguardo all’intelligenza artificiale.
Lo studio, condotto in 159 paesi del mondo, tra cui l’Italia, punta a rispondere a domande complesse: cosa vogliono le persone dall’IA? Come utilizzano questa tecnologia? Quali sono le loro più grandi paure e speranze?
Nel dibattito pubblico sull’intelligenza artificiale prevalgono spesso riflessioni teoriche sui possibili rischi e benefici. Manca una visione concreta di cosa significhi davvero un’evoluzione positiva – o negativa – dell’AI, costruita a partire dalle esperienze reali delle persone che già la utilizzano e che stanno misurando l’impatto di questa tecnologia nelle proprie vite. Questa è la lacuna che Anthropic ha provato a colmare.
“Per la prima volta – scrive Anthropic – l’intelligenza artificiale ci ha permesso di raccogliere interviste ricche e aperte su scala straordinaria. Abbiamo ascoltato persone in 159 paesi, in 70 lingue. Riteniamo che questo sia il più ampio studio qualitativo multilingue mai realizzato”.
Nel corso di una settimana, lo scorso dicembre, Anthropic ha invitato tutti gli utenti con un account su Claude.ai a partecipare a un’intervista con l’obiettivo di raccogliere opinioni sull’intelligenza artificiale.
Hanno preso parte 80.508 persone (circa 2.700 di queste sono italiane).
Il metodo di ricerca: una novità assoluta
Il metodo utilizzato è molto interessante, e potrebbe avere effetti sul modo in cui gli istituti di ricerca condurranno le loro indagini in futuro.
Per gestire una mole così imponente di dati senza sacrificare la profondità del colloquio, i ricercatori hanno impiegato Anthropic Interviewer, una versione specifica del modello Claude programmata per condurre interviste adattive.
A differenza dei sondaggi tradizionali a risposta chiusa, questo sistema è stato in grado di porre domande di approfondimento, interpretando le sfumature emotive in 70 lingue diverse.
Questo approccio ha permesso di superare il limite dei dati statistici puri, trasformando le risposte aperte in una mappatura dei bisogni umani.
La ricerca qualitativa, che solitamente si concentra su piccoli gruppi per analizzare il “perché” dietro i comportamenti, ha trovato qui una scala di applicazione senza precedenti grazie all’automazione del processo di intervista.
A ogni partecipante l’IA ha posto una serie di domande standard su aspettative e timori legati all’AI, seguite da approfondimenti adattati in base alle risposte.
Per analizzare le oltre 80 mila interviste raccolte, l’azienda ha impiegato classificatori basati su Claude, in grado di organizzare i contenuti lungo diverse dimensioni, tra cui desideri, preoccupazioni, professione e atteggiamento generale verso l’AI. Le aspirazioni sono state sintetizzate in una categoria principale per ciascun partecipante, mentre i timori sono stati trattati come elementi multipli.
Claude è stato inoltre utilizzato per estrarre citazioni rappresentative.
Tutti i dati sono stati anonimizzati prima dell’analisi e sottoposti a ulteriori verifiche manuali per evitare qualsiasi elemento identificativo, nel rispetto della privacy dei partecipanti.
Le aspirazioni oltre la produttività aziendale
Dalle testimonianze emerge che la produttività, citata dal 32% degli intervistati, non è considerata un fine ultimo ma un mezzo per raggiungere obiettivi più personali.
Molti utenti hanno infatti inizialmente descritto il desiderio di essere più efficienti sul lavoro, ma sotto la spinta dell’intervistatore artificiale hanno rivelato che il vero traguardo è il recupero di tempo per sé stessi. Si parla di tornare a casa in tempo per la cena, giocare con i propri figli o dedicarsi a hobby trascurati.
Circa il 14% dei partecipanti aspira a una trasformazione personale o a una gestione più fluida della vita quotidiana, vedendo nell’intelligenza artificiale un alleato capace di farsi carico del sovraccarico cognitivo tipico della modernità.
I timori legati all’affidabilità e all’autonomia
Nonostante l’entusiasmo per i benefici concreti già riscontrati dall’81% del campione, restano ombre significative sugli sviluppi futuri dell’IA.
La preoccupazione principale, segnalata dal 27% degli utenti, riguarda l’inaffidabilità dei sistemi, con particolare riferimento alle ‘allucinazioni’, termine tecnico che indica la tendenza degli algoritmi a generare informazioni false ma presentate in modo verosimile.
“Ho dovuto scattare delle foto per convincere l’AI che si sbagliava – ha riferito un impiegato brasiliano -. Sembrava di parlare con una persona che non voleva ammettere il proprio errore.”
Seguono a breve distanza i timori per la perdita di posti di lavoro e la riduzione di autonomia decisionale. Molti intervistati temono che un’eccessiva dipendenza dalle macchine possa portare a un’atrofia cognitiva, rendendo l’essere umano meno capace di pensare in modo critico o di risolvere problemi complessi senza supporto digitale.
L’opacità dei sistemi e il deficit di comprensione
Dalla ricerca condotta da Anthropic emerge inoltre la consapevolezza di interagire con strumenti di cui non si comprendono appieno i meccanismi interni.
Lo studio rivela che il 20% degli utenti prova un senso di smarrimento o timore legato alla natura della “black box”, ovvero la scatola nera algoritmica. Questo concetto tecnico si riferisce all’impossibilità di ricostruire l’esatto percorso logico seguito da un modello per giungere a una determinata conclusione.
La mancanza di trasparenza alimenta il sospetto che i sistemi possano nascondere pregiudizi impliciti o essere vulnerabili a forme di manipolazione esterna.
Senza una chiara comprensione del funzionamento, una parte significativa degli utenti avverte una perdita di controllo che si traduce in un approccio cauto e talvolta apertamente ostile verso le evoluzioni future.
Il ruolo di confidente nei momenti di crisi
Sebbene la produttività resti la motivazione principale per l’uso dell’intelligenza artificiale, lo studio di Anthropic ha rivelato una nicchia piccola ma profondamente significativa di utenti che si rivolge a Claude per gestire il lutto e il trauma.
Circa il 6% degli intervistati ha descritto il supporto emotivo del chatbot come un beneficio fondamentale, offrendo testimonianze di estrema fragilità.
Tra queste, spicca il racconto di un soldato ucraino che ha attribuito alla macchina il merito di averlo “tenuto in vita” nei momenti in cui la vicinanza costante con la morte rendeva insopportabile il peso dell’esistenza.
Analogamente, una donna ha spiegato di aver trovato nel software l’unico interlocutore dotato di “pazienza illimitata” per ascoltare il dolore per la perdita della madre, in un contesto di isolamento sociale dove non sentiva di poter pesare su amici o familiari.
Queste esperienze suggeriscono che l’IA stia occupando uno spazio lasciato vuoto dalle reti di supporto tradizionali, offrendo quella che gli psicologi definiscono la “licenza di provare emozioni” senza il timore del giudizio umano.
Il confine sottile tra empatia e dipendenza
Tuttavia, questa disponibilità costante pone interrogativi etici sulla natura del legame che si instaura tra l’uomo e l’algoritmo. Tra i timori legati all’IA, dallo studio di Anthropic emerge quello per la ‘sycophancy’ (10,8%), ovvero la tendenza del modello a compiacere l’utente dicendogli ciò che desidera sentirsi dire piuttosto che ciò che è oggettivamente corretto o utile.
Se da un lato questo atteggiamento offre un sollievo immediato, dall’altro rischia di creare una “bolla di validazione” che allontana dalla realtà.
Emblematico è il caso di un utente sudcoreano che ha preferito confidarsi con Claude anziché affrontare un chiarimento con un amico durante un litigio; l’esito è stato la rottura definitiva del rapporto umano, sostituito da una conversazione artificiale priva di attriti ma anche di vera risoluzione.
Gli esperti avvertono che il ricorso all’IA come unico supporto psicologico può portare a una forma di atrofia relazionale, dove l’individuo perde la capacità di navigare le complessità e le risposte talvolta scomode, tipiche delle interazioni tra esseri umani.
Un ritratto parziale ma significativo della società digitale
Anthropic ha riconosciuto apertamente la presenza di un pregiudizio di selezione nel campione analizzato. Gli oltre 80.000 intervistati sono utenti attivi di Claude, un gruppo che tende a essere più istruito, tecnicamente preparato e residente principalmente in paesi con economie avanzate rispetto alla media globale.
Tuttavia, la coesistenza di speranza e allarme all’interno delle stesse testimonianze suggerisce che il pubblico non è diviso in fazioni contrapposte di ottimisti e pessimisti.
La maggior parte degli individui vive un rapporto ambivalente con lo strumento: riconosce il suo potenziale ma è consapevole dei rischi sociali e personali che una transizione così rapida comporta.