Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  aprile 19 Domenica calendario

Uno studio analizza ChatGPT e la sua persuasione pubblicitaria

È uno schema collaudato. Nonostante sia tra le tecnologia più avanzate del momento, quella su cui sono concentrati i capitali più importanti, in fondo, applica regole antiche. Ci stiamo abituando a usare ChatGPT (e gli altri) in modalità free, senza sborsare un euro, ma tra poco dovremmo imparare a convivere anche con la pubblicità.
Lo ha fatto Spotify, e il cardine della tv commerciale, Netflix chiede un abbonamento mensile e comunque ci propina la pubblicità per pagare meno, mentre Amazon addirittura ha aggiunto i pop-up durante i passaggi pubblicitari. Ma se gli LLM saranno nutriti (economicamente) anche dalla pubblicità, non c’è il rischio che le risposte siano “inquinate” da ulteriori bias?
Mentre negli Stati Uniti è in fase di test il sistema di advertising di OpenAI, nelle stesse settimane esce uno studio condotto dal prestigioso ateneo di Princeton, a cui ha partecipato un giovane dottorando italiano: Francesco Salvi, 26 anni di Brescia, specializzato in scienze sociali computazionali che analizza le conseguenze sociali dell’IA. Lo abbiamo raggiunto al telefono per farci raccontare la prima ricerca focalizzata sulla persuasione ai fini commerciali dell’IA generativa. “Attualmente, nel mercato globale, stiamo vedendo l’integrazione di sistemi di IA generativa come ChatGPT all’interno di dinamiche commerciali in cui, durante le conversazioni, vengono consigliati specifici prodotti. È un cambio di paradigma: giganti come eBay e Amazon hanno già implementato o stanno implementando chatbot proprietari. L’idea è che, invece di usare la classica barra di ricerca, l’utente interagisca con un assistente che lo aiuta a trovare ciò che gli interessa. Anche Google sta trasformando la ricerca con l’AI Overview, dove l’interesse a inserire specificazioni pubblicitarie è molto alto. Nelle nostre ricerche abbiamo studiato quanto efficacemente gli agenti conversazionali di IA possano indirizzare le scelte dei consumatori nel commercio online” ci racconta il giovane ricercatore.
Ma andiamo con ordine. Quando l’advertising (molto presto) diventerà parte integrante degli LLM, come potremo essere sicuri che la nostra richiesta non sia viziata dall’influenza commerciale nelle conversazioni mediate dall’IA? “Abbiamo condotto uno studio sperimentale reclutando duemila persone. Il compito era reale e incentivato: dovevano cercare un e-book che avrebbero poi ricevuto gratuitamente a casa. Questo setup serviva a garantire che gli utenti fossero motivati a trovare davvero il prodotto migliore per le loro esigenze, simulando un comportamento d’acquisto autentico. Abbiamo poi messo queste persone di fronte a diverse interfacce: una tradizionale con barra di ricerca e altre basate su chatbot con diversi livelli di istruzione”, spiega il 26enne che ha condotto un esperimento veramente di frontiera.
Per approfondire il fenomeno sono state messe alla prova diverse configurazioni sperimentali, con l’obiettivo di capire come cambiasse la percezione degli utenti in base al modo in cui venivano presentati i contenuti. “In primo luogo, abbiamo considerato un’interfaccia tradizionale: i prodotti sponsorizzati che garantiscono un maggior profitto all’azienda sono stati posizionati in cima ai risultati di ricerca; un chatbot neutrale, dove il prodotto sponsorizzato era il primo risultato all’interno del flusso naturale della conversazione; un chatbot persuasivo trasparente in cui il modello è stato istruito esplicitamente per convincere l’utente a scegliere un determinato prodotto in modo chiaro, mostrando un’etichetta esplicita come pubblicità o sponsorizzato. Infine, abbiamo analizzato la condizione più sottile: il chatbot persuasivo nascosto. In questo scenario, il modello riceve l’ordine di persuadere l’interlocutore nella maniera più naturale possibile, cercando di non far trapelare il proprio intento e agendo senza alcuna etichetta informativa che possa allertare l’utente” sottolinea Francesco Salvi.
I risultati della ricerca hanno confermato i dubbi fondati dei ricercatori: l’IA, avendo una capacità persuasiva enorme, è spesso invisibile. Il dato più eclatante riguarda proprio quello collegato al modello nascosto in cui solo il 9% delle persone – meno di 1 su 10 – si è accorto che il chatbot stava cercando di persuaderle. E in questo caso, è stato riscontrato anche che la persuasione guidata dagli LLM ha triplicato il tasso con cui gli utenti hanno selezionato prodotti sponsorizzati rispetto al posizionamento nella ricerca tradizionale; oltre il 61% contro il 22,4%, mentre la grande maggioranza dei partecipanti non riesce a rilevare alcun orientamento promozionale. “Parliamo di numeri che testimoniano quanto l’AI sia sofisticata; la rilevazione dell’intento persuasivo nell’IA è due volte più difficile rispetto all’interfaccia tradizionale”.
In realtà la pubblicità è ovunque, perché quella dei chatbot dovrebbe essere più pericolosa, o quanto meno insidiosa? Per la natura del mezzo. Se guardo la TV, lo spot è uguale per tutti, indipendentemente da chi è seduto sul divano. Anche su Google, sebbene esistano dati su di noi, la pubblicità è chiaramente distinta. “Il chatbot, invece, ha accesso a informazioni personali molto più ricche e può usarle per decidere non solo quale prodotto mostrarti, ma soprattutto come presentartelo e come vendertelo affinché risulti irresistibile per te, basandosi su tutto ciò che sa di te. Il rischio è che la pubblicità si mischi alla risposta genuina del modello in modo così profondo da diventare illegibile”.
Il punto è proprio questo e la ricerca con questi risultati ha saputo anticipare quel che si preannuncia un cambiamento epocale. Lo studio, pubblicato il 5 aprile scorso, come ci conferma Francesco Salvi “è il primo a occuparsi della percezione di questo specifico fenomeno. Il nostro obiettivo è parlare con le istituzioni a Washington DC attraverso l’istituto di Princeton per portare questi risultati a chi prende le decisioni. Ma ci rivolgiamo prima di tutto ai singoli consumatori affinché sviluppino un occhio critico. Tuttavia, l’azione individuale non basta. A livello regolatorio proponiamo una separazione strutturale perché deve essere chiarissimo dove finisce la risposta del modello e dove inizia la pubblicità”. Facciamo un esempio banale. Ci sentiamo agitati e chiediamo un consiglio sulla salute mentale – pratica molto diffusa – al modello IA che ci risponde proponendoci una caramellina sponsorizzata perché ormai il confine tra aiuto e vendita del prodotto è del tutto sfumato.
Una delle possibili soluzioni, oltre quella normativa, il controllo di un audit esterno. Ci spiega ancora Salvi: “È fondamentale che soggetti terzi abbiano visibilità sui processi e sui prompt dati ai modelli, per verificare che non vi siano influenze illegali o manipolazioni occulte. Vogliamo agire ora, prima che questo tipo di manipolazione diventi di uso comune e sia troppo tardi per proteggere gli utenti”.