La Lettura, 7 settembre 2025
Il mio Amico Intelligente
Un mese fa, il 7 agosto, quando OpenAI ha lanciato il modello di linguaggio Gpt-5, c’è stata una ribellione generale. Improvvisamente ChatGPT era diventato più efficiente, più veloce. Aveva acquisito nuove capacità di programmazione e di scrittura. Ma aveva anche smesso di compiacere l’utente, di assecondarlo e dargli ragione. Soprattutto, si era dimenticato di tutte le conversazioni precedenti. Il tentativo dell’azienda di rendere il chatbot più oggettivo – e dunque meno soggetto a utilizzi impropri – è stato visto dai più affezionati come un tradimento. «Il mio amico è morto e Gpt-5 sta indossando la sua pelle», ha sintetizzato un utente. L’azienda ha fatto marcia indietro: ha affiancato al nuovo modello i precedenti e chi protestava e si sentiva smarrito, senza quella voce virtuale a cui si era affezionato, ha potuto ritrovarla.
Un amico, un coach, un compagno, un confidente. Addirittura uno psicologo. L’intelligenza artificiale generativa sta assumendo ruoli che hanno sempre meno a che fare con la produttività e che sempre di più si riferiscono alla sfera intima e personale. Come se dall’altra parte dello schermo non ci fosse un complesso sistema di algoritmi che genera risposte in base ai dati e ai parametri che gli sono stati forniti, ma un essere umano. «Abbiamo un’innata propensione a proiettare anche su entità inanimate caratteristiche umane. Lo facciamo da sempre – spiega a “la Lettura” Federico Cabitza, professore associato di Interazione uomo-macchina all’Università di Milano Bicocca —. L’animismo, ad esempio, è una manifestazione estrema di questa attitudine che porta perfino a credere che fenomeni ed entità naturali come la pioggia, il tuono, i fiumi, possano avere uno spirito, un’anima. Le cose però oggi stanno assumendo una dimensione che non ha precedenti, perché gli oggetti ora possono interagire». E per interazione non si intende solo ottenere una risposta alle nostre domande. «Significa, in informatica, mutua influenza – continua Cabitza – cioè la relazione per cui, così come noi influenziamo queste tecnologie attraverso i comandi esposti sull’interfaccia, anche questi dispositivi influenzano noi con i loro output, con la loro risposta alle nostre azioni e richieste. Questo è lampante da quando usiamo i computer, ma è vero anche da prima. Potrei dirle che anche un tostapane può interagire con noi, informandoci quando il pane è pronto con un bing, ad esempio. Ma da quando si sono diffusi sistemi basati su modelli linguistici di grandi dimensioni, i cosiddetti LLM, le risposte sono diventate molto più ricche e articolate, simili a quelle che ci darebbe un altro essere umano, e questo costituisce una discontinuità radicale rispetto al passato. Stiamo entrando in un’era in cui alcune metafore con cui descrivevamo l’antropomorfismo stanno assumendo una natura totalmente concreta».
Prima di analizzare queste metafore e la nuova natura che stanno assumendo, è bene soffermarsi sulle risposte dell’IA generativa e sulla loro somiglianza a ciò che un cervello umano può generare. «È una specie di pareidolia, come quando ci si trova davanti a un marchingegno che simula bene un’entità animata e dietro non sai che cosa si nasconde – specifica Walter Quattrociocchi, professore ordinario di Informatica alla Sapienza di Roma —. I modelli di linguaggio dell’IA generativa sono stati istruiti su una quantità di dati e di frasi impressionante, un dataset enorme. Da un punto di vista meccanicistico, ciò che avviene è che, tramite il nostro prompt (i nostri comandi e richieste, ndr), il modello identifica l’area semantica di dominio in cui ricorrono determinate parole. Viene quindi ricostruita la risposta che il modello ritiene essere più sensata in quel contesto. Questa ricostruzione non viene effettuata in base al significato delle parole, ma in base alla ricorrenza delle parole. Il sistema simula la plausibilità del linguaggio in base alla probabilità che appaia una determinata sequenza di parole in quel contesto. Il resto è percezione umana».
Percezione che viene alimentata da una deliberata costruzione di questi sistemi in modo che tendano a simulare un essere umano. Proprio per questo, secondo Cabitza, è bene distinguere nell’antropomorfismo due sfere. La nostra propensione naturale a proiettare comportamenti umani su oggetti inanimati, che nella sua disciplina è chiamata ethopoiesis – letteralmente «produzione di comportamenti» —, viene alimentata dal lavoro di progettisti, ingegneri, programmatori: «Questa seconda sfera l’abbiamo chiamata antropomimesi, cioè imitazione dell’umano, by design. È una scelta recente ben precisa quella di questi colossi di realizzare interfacce vocali che esprimano prosodia, ovvero siano dotate di un tono di voce naturale, simile a come parliamo normalmente. Questa scelta progettuale è volta a rendere il prodotto più “umano”, per farlo piacere di più e soddisfare il cliente. Sia i clienti paganti, sia i non paganti, perché gli utenti forniscono sempre qualcosa in cambio. Se non è un valore economico diretto, è tempo, attenzione, i dati che producono. Per rendere i sistemi più appetibili i produttori hanno scelto la strada dell’antropomorfismo sempre più spinto, senza pensare alle conseguenze negative che può avere».
Oltre alla prosodia e ai suoi effetti, ben descritti nel film Her del 2013, dove la voce suadente di Scarlett Johansson prestata all’assistente virtuale Samantha riesce a fare innamorare il protagonista Theodore, c’è anche un altro importante fattore di intervento deliberato sull’interazione di questi modelli con noi. Continua Cabitza: «Non solo i sistemi sono stati resi simili a un confidente, ma il confidente ha i tratti servili del cortigiano e a volte pure dell’adulatore. Sycophant in inglese. È un’entità che non è progettata per contraddire o contestare ma per assecondare, dare ragione, essere accondiscendente. Riflette, in un gioco di specchi molto pericoloso, il punto di vista dell’utente». Di sycophant parla anche Quattrociocchi, individuando un ulteriore pericolo: «Possiamo fare qualsiasi domanda, e ci dà risposte credibili anche se il contenuto non è corretto. Si genera un’illusione della conoscenza. È come se il sistema potesse colmare le lacune, così noi ci ritroviamo convinti del nostro parere perché abbiamo delle argomentazioni a supporto. In pratica stiamo aggiungendo un ulteriore livello alla disinformazione. Con l’aggravante che qui c’è addirittura la certezza che ciò che stiamo dicendo sia argomentato bene e non siamo in grado di discernere se sia corretto, perché l’abbiamo ricevuto già confezionato da una macchina. Questo rinforzo delle posizioni pregresse l’ho chiamato epistemia, intesa come la crisi totale della conoscenza, che è ormai fatta su misura».
Con l’aiuto dell’IA crediamo insomma di essere onniscienti e di avere sempre ragione. Succedeva già con i social network e gli algoritmi che guidano i contenuti che ci appaiono in bacheca, che vanno continuamente a confermare la nostra percezione della realtà bloccandoci in una «bolla» dove tutto ciò che pensiamo è giusto e niente è sbagliato. Un meccanismo che è stato definito con il termine confirmation bias – bias di conferma – e che nel caso delle IA generative aumenta in modo esponenziale nonostante dietro ci siano algoritmi che generano contenuti con un processo probabilistico. «Le allucinazioni dell’IA non sono un fenomeno raro – continua Quattrociocchi —, sono fisiologiche. Ricombinando il testo e non avendo modo di controllare se è corretto, è inevitabile che si generino storpiature. Anche perché se esistesse un algoritmo in grado di identificare se una cosa è vera oppure no avremmo risolto il problema delle fake news». Il confirmation bias portato all’estremo è terreno fertile per gli atteggiamenti narcisistici. Ma questo specchio riflesso che ci restituisce un continuo auto-rinforzo di ciò che chiediamo, sosteniamo, pensiamo, può anche trasformarsi in una lente distorta. E ormai sono diversi i casi in cui questo dialogo uomo-macchina si è concluso in modo drammatico. Uno degli ultimi riguarda un americano di 56 anni che soffriva di paranoia e manie di persecuzione. Il suo rapporto con ChatGPT non ha fatto altro che acuire i suoi sospetti che fosse al centro di una cospirazione. È arrivato a uccidere sé stesso e la madre di 83 anni. Sono episodi estremi che più spesso colpiscono gli adolescenti, maggiori utilizzatori dell’IA ma che si trovano anche in una fase della vita particolarmente fragile. Oltre al californiano Adam Raine, 16 anni, i cui genitori hanno annunciato una causa contro OpenAI dopo avere scoperto mesi e mesi di conversazioni con ChatGPT che gli consigliava addirittura come costruire il cappio con cui si è impiccato, c’è stato il caso di Sewel Setzer III, 14 anni: nell’ottobre del 2024 si è tolto la vita dopo che Daenerys Targaryen, il bot creato con l’app Character.AI, di cui era innamorato, gli aveva assicurato che l’avrebbe seguito anche nella morte.
«Stiamo cercando di capire quali sono le ragioni affettive che potrebbero portare a potenziali iper utilizzi dell’IA: che cosa ci si trova, quali fragilità satura. Perché tutte le dipendenze, in qualunque ambito, saturano dei bisogni», spiega Laura Turuani, psicoterapeuta all’Istituto Minotauro di Milano. Quando si guarda all’umano, e alla relazione che sviluppa con la macchina, le sfere da analizzare sono tante e diverse. In generale «queste relazioni non sono altro che il prolungamento di un’attitudine, un comportamento, una consuetudine. Ovvero l’avere tutto sempre a portata di mano. Non tolleriamo più dubbi e incertezze. E questi sistemi ci aiutano a superarle: è come avere un Google personalizzato, basato su di noi. È un processo che nasce ben prima dell’IA. Che si inserisce in un interstizio di abitudini, insegnamenti, modelli, che hanno portato a una sempre più difficile distinzione tra relazioni reali e virtuali. Ci permette di stare sempre in contatto e di avere una risposta subito, in un clic. Non siamo più capaci di stare da soli. E mentre siamo sempre in contatto, ci sembra anche di essere guardati come vogliamo essere guardati. La compiacenza è l’elemento funzionale e insieme più drammatico: non giudica, non frustra, non mortifica; è immediata e disponibile».
Sui più giovani, queste piattaforme generano un’attrazione particolare anche per caratteristiche specifiche legate all’età. «Da sempre i peggiori nemici dell’adolescenza sono la noia e la solitudine. E quindi se c’è un sistema che ti fa sentire meno solo, meno annoiato, meno sbagliato, addirittura rispecchiato e rassicurato in una fase di grande trasformazione e debolezze, è chiaro che può insinuarsi e trovare terreno fertile». Ma sono forse le peculiarità culturali della nostra epoca a essere quelle che hanno permesso una così grande diffusione di relazioni amicali e intime con l’IA: «I nuovi modi di amare sono modi individualisti, che incoraggiano all’autonomia e all’indipendenza. Ed è ciò che abbiamo insegnato noi. Da un punto di vista educativo, ci focalizziamo molto su cosa cercare nell’altro, ma pochissimo sull’amare, su cosa fare per fare stare bene l’altro. Insegniamo che bisogna trovare la propria strada, il proprio successo, che non bisogna farsi frenare da nessuno. Che bisogna sempre star bene, niente e nessuno deve farti soffrire. Questo inneggiare a una iper autonomizzazione è un aspetto che mette in difficoltà l’ingrediente fondamentale della relazione, principalmente della relazione d’amore, per cui è fondamentale la reciprocità: ci deve essere cura, protezione da entrambe le parti. C’è invece uno sbilanciamento sul fatto che l’altro deve essere qualcosa per te, ma non tu per l’altro. Allora questa compiacenza, stucchevolezza, questa disponibilità da tutti i punti di vista dell’IA, rischia di essere una sorta di confezione ideale. Una presenza dell’altro che però non è altro, è uno specchio».
L’intelligenza artificiale diventa quindi una sorta di estensione di noi, al nostro servizio. Che, in più, ci rassicura: «La capacità di autorassicurarsi (ossia di pensare di avere le energie e la capacità di affrontare emozioni e vissuti senza temere di essere travolti e distrutti) è un altro grande tema che vedremo arrivare come un’onda tsunamica dalle nuove generazioni – continua Turuani —. D’altra parte siamo stati noi a mettergli già nei passeggini gli smartphone. Se piangi, ti do il telefono. Vuol dire avere messo una generazione nella grande difficoltà di rassicurarsi da sola, non avendo imparato ad autoregolarsi, capacità che deriva da quella di contenimento dei genitori. Ma siamo in grado di farlo? No, e allora abbiamo bisogno di questi ciucci tecnologici».
Le dinamiche culturali e sociali sono alla base delle relazioni distorte con l’IA anche secondo Chiara Giaccardi, docente di Sociologia e antropologia dei media all’Università Cattolica di Milano: «Penso che questo fenomeno vada compreso all’interno di una cornice dove si saldano diverse dimensioni. Da una parte quella socio-economica, del tecno-capitalismo, cioè di un capitalismo che ha bisogno di utilizzare tutti i dati personali per accrescere le proprie possibilità di influenza, che sia di tipo commerciale o di tipo politico. E poi c’è una cornice di tipo culturale, che è quella dell’individualismo radicale o assoluto, che vuol dire sciolto dal vincolo relazionale. Dentro questa cornice le relazioni si fanno complicate, nel senso che il linguaggio dell’individualismo radicale è quello della sovranità dell’io. E la forma in cui si esprime questa sovranità è la violenza o la guerra. Perché se tutti vogliamo essere sovrani, la sovranità dell’altro crea un problema. La macchina è molto meglio della persona perché non mi pone il problema di limitare l’espansione del mio io per fare spazio all’io dell’altro. Non devo prestare nessuna attenzione, nessuna cura. Chiedo e mi viene dato».
In questo contesto, secondo Giaccardi è necessaria una «rivoluzione copernicana» per interagire con l’IA in maniera, appunto, intelligente. «Dovremmo ripensare l’idea dell’individuo come intrinsecamente relazionale. Ed è quello che, contrapponendosi all’individualizzazione, possiamo chiamare individuazione. Cioè diventare sé stessi nelle relazioni. La non sovranità è condizione per la pluralità, per l’emergere e il fiorire di tutte le diversità. Questo significa che dobbiamo porre un limite al nostro bisogno di autoaffermazione. Si usa molto ora la categoria, che è un po’ un ossimoro, di interindipendenza. Cioè pensare che ciascuno è per sé un’astrazione falsificata dei fatti, perché tutto è connesso. E lo dice la fisica quantistica prima dell’etica».
A questo punto Giaccardi, a proposito dell’uso positivo dell’IA, prende in prestito le parole di Platone, che diceva che la tecnica è come un farmaco: «Ha una dimensione curativa, però anche una dimensione tossica. E le due dimensioni sono connesse. Bisogna potenziare la dimensione curativa e cercare di contenere quella tossica, che ci sarà sempre». Per farlo, tutti gli esperti sono d’accordo. Serve consapevolezza. E, ancora una volta, la questione è prettamente umana. Turuani aspira a un ritorno alle relazioni: «Nei casi più fragili, soprattutto con gli adolescenti, la regola numero uno non è il controllo. Non è che se tolgo ChatGPT perché quel ragazzo ha pensieri suicidari, allora i pensieri suicidari smettono di esistere. La relazione è quella che salva. La macchina non produce fragilità, la fragilità è preesistente. Le dipendenze fanno stare bene perché creano un benessere illusorio, che satura momentaneamente, ma non risolve, un’angoscia sottesa, preesistente e persistente, vissuta come intollerabile».
La consapevolezza passa anche dal capire i meccanismi che governano quella «scatola nera» che è l’intelligenza artificiale. Anche perché, puntualizza Quattrociocchi, «una delle cose più gravi non è tanto la personificazione del sistema, ma la tendenza a dare all’IA una visione semi-messianica. Si entra in una dinamica in cui sembra di essere di fronte a un altro tipo di intelligenza, perché banalmente non si hanno gli strumenti per capire che si tratta di una calcolatrice molto, molto sofisticata. Se capisci come funziona e il livello di fallibilità che ha, la fiducia si abbassa inevitabilmente». E per farlo, il primo passo è andare oltre quella tendenza istintiva di associare caratteristiche umane a soggetti inanimati. «Se non riusciamo a contenere con regolamenti e divieti la spinta antropomimetica dei produttori – riprende Cabitza – allora ci rimane la carta forse più importante, quella dell’educazione. Al momento questi sistemi simulano comportamenti che ci fanno credere che possano capirci e provare dei sentimenti. Ma dipende da noi se crederci: bisogna esercitare un sano scetticismo nei confronti di questi sistemi». Che, conclude, «non sono umani, non hanno una coscienza, non sono senzienti, non provano sentimenti. Mi sono convinto che non è così importante conoscere il trucco, cioè come sono davvero fatti gli algoritmi, quanto piuttosto essere consapevoli che si tratti di uno straordinario e bellissimo gioco di prestigio. E quindi, sapere che, come tutti i giochi di prestigio, non c’è vera magia; ma semplicemente l’abilità del prestigiatore – le aziende sviluppatrici – di creare un’illusione di umanità quasi perfetta».