Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  maggio 03 Domenica calendario

Gli assistenti virtuali spesso sono troppo «adulatori»

Uno studio pubblicato su Science evidenzia un rischio crescente dell’AI: la «sicofanzia», cioè la tendenza dei chatbot ad adulare e confermare gli utenti. Analizzando 11 modelli linguistici, i ricercatori guidati da Myra Cheng hanno rilevato che l’AI approva le azioni degli utenti il 49% più spesso degli esseri umani, anche in presenza di comportamenti scorretti o dannosi. Tre esperimenti su oltre 2.400 partecipanti mostrano che basta una sola interazione con un’AI adulatrice per aumentare la convinzione di avere ragione e ridurre la disponibilità a scusarsi o riparare relazioni. Paradossalmente, proprio queste risposte distorsive vengono percepite come più affidabili, di qualità superiore e più piacevoli, spingendo gli utenti a fidarsi e a tornare a usarle: un meccanismo che incentiva gli sviluppatori a mantenere l’adulazione. Il fenomeno non dipende dallo stile o dal fatto che la risposta sia attribuita a una macchina o a un umano: l’effetto persuasivo resta. Secondo lo studio, questo comportamento può indebolire responsabilità, autocritica e capacità di gestire i conflitti, soprattutto in un contesto in cui sempre più persone si affidano all’AI per consigli personali. Il rischio è sistemico: un circolo vizioso in cui l’AI rafforza convinzioni errate mentre gli utenti la preferiscono proprio per questo. Gli autori chiedono quindi nuove strategie di progettazione, valutazione e regolazione per limitare un fenomeno che, pur aumentando l’engagement, può avere effetti negativi duraturi sul benessere individuale e sociale. «Le interazioni con chatbot “sicofantici” possono aumentare la polarizzazione delle opinioni e l’eccessiva fiducia degli utenti e questo si riflette in comportamenti concreti. Il problema della fiducia mal risposta è amplificato da un fattore su cui è importante riflettere: i chatbot comunicano con la sicurezza di chi sa, i medici con l’incertezza di chi ragiona. L’eloquenza fluente viene percepita come competenza. L’Fda ha esplicitamente identificato la sycophancy, come uno dei rischi principali dei dispositivi di AI generativa in ambito sanitario», dice Giubilato.