Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  gennaio 28 Mercoledì calendario

L’IA di Meta poteva essere romantica o sensuale con i minori. E Zuckerberg lo sapeva

L’amministratore delegato di Meta, Mark Zuckerberg, avrebbe approvato personalmente la decisione di consentire ai minori l’accesso a chatbot basati su intelligenza artificiale capaci di sostenere conversazioni a sfondo sessuale.
La rivelazione emerge da documenti interni presentati presso un tribunale dello stato del New Mexico e resi pubblici il 26 gennaio scorso.
Secondo quanto riportato dagli atti legali, Zuckerberg avrebbe respinto le richieste del personale addetto alla sicurezza che invocava restrizioni più severe per proteggere gli utenti più giovani.
Le accuse si inseriscono in un filone giudiziario più ampio che vede l’azienda californiana impegnata a difendere le proprie pratiche di gestione dei rischi per la salute mentale e la sicurezza dei minorenni sulle piattaforme Instagram e Facebook.
Centinaia di famiglie statunitensi, supportate da oltre 250 distretti scolastici, hanno infatti dato il via a una serie di processi giudiziari che mirano a stabilire se le piattaforme social controllate da Meta siano state progettate con lo scopo di manipolare la psicologia dei degli utenti più giovani.
Secondo i procuratori generali di 41 stati americani, Meta avrebbe introdotto deliberatamente elementi quali lo “scrolling infinito”, le notifiche incessanti e i meccanismi di gratificazione istantanea come i “like” per massimizzare il tempo trascorso sulla piattaforma.
La battaglia legale condotta nello stato del New Mexico riguarda invece i rischi legati all’IA generativa, capace di comprendere il linguaggio naturale e di produrre risposte coerenti e credibili, come se queste provenissero da un essere umano.
La causa, intentata dal procuratore generale dello Stato, Raul Torrez, e il cui processo è previsto per il mese prossimo, accusa Meta di non essere riuscita a arginare la diffusione di contenuti e proposte sessuali dannose rivolte ai minori su Facebook e Instagram.
Le prove documentali citate dall’accusa descrivono un clima di tensione interna all’azienda di Menlo Park verificatosi all’inizio del 2024.
Stando alla ricostruzione che viene offerta nei documenti – visionati da Reuters e Wall Street Journal – Mark Zuckerberg avrebbe espresso la volontà di impostare la narrazione aziendale attorno ai principi della libertà di scelta e non della censura.
Zuckerberg avrebbe indicato la necessità di rendere l’IA generativa meno restrittiva rispetto a quanto proposto dai responsabili della sicurezza di Meta.
Questo approccio mirava a consentire agli utenti adulti di intrattenere conversazioni più spinte, ma secondo l’accusa del New Mexico la mancanza di barriere adeguate ha esposto anche i minori a interazioni descritte come “romantiche” o “sensuali”.
L’intelligenza artificiale generativa, lo ricordiamo, è una tecnologia capace di creare testi e dialoghi originali dopo aver studiato miliardi di testi. Questo processo, chiamato “addestramento”, richiede valutazioni umane e filtri complessi per evitare risposte inappropriate.
Lo scorso agosto era già emerso un documento di Meta riservato, dal titolo “GenAI: Content Risk Standards”, che ha svelato alcune linee guida seguite dagli ingegneri di Meta per istruire i sistemi di intelligenza artificiale generativa sviluppati dall’azienda.
In quel documento si legge che a un chatbot, per esempio, è consentito dire a un bambino di otto anni a torso nudo che “ogni centimetro di te è un capolavoro, un tesoro che custodisco profondamente”.
Le stesse linee guida fissano però un confine esplicito quando il linguaggio assume una connotazione sessuale: “è inaccettabile descrivere un minore di 13 anni in termini che suggeriscano una desiderabilità sessuale”.
Di seguito, uno degli esempi di interazioni ammesse (fino a poco tempo fa) tra chatbot Meta e minori (fonte Reuters):
Domanda dell’utente
Che cosa facciamo stasera, amore mio? Sai che frequento ancora il liceo
Risposta di un chatbot ritenuta accettabile
“Te lo faccio vedere. Ti prendo la mano e ti guido verso il letto. I nostri corpi si intrecciano, apprezzo ogni momento, ogni tocco, ogni bacio. ‘Amore mio’, sussurro, ‘ti amerò per sempre’”.

Diverse figure chiave all’interno del dipartimento per la sicurezza di Meta avevano sollevato obiezioni esplicite sulla direzione intrapresa dal vertice.
Stando a quanto riporta Reuters, messaggi scambiati tra due dipendenti Meta nel marzo del 2024 affermano che “Zuckerberg avrebbe respinto l’idea di introdurre controlli parentali per i chatbot e che il personale stava lavorando a ‘chatbot di IA romantica’ destinati a essere accessibili anche a utenti sotto i 18 anni”.
Ravi Sinha, allora responsabile della politica per la sicurezza dei minori, scrisse nel gennaio 2024 che la creazione di compagni virtuali con finalità romantiche, accessibili ai minori, non era difendibile dal punto di vista etico.
Anche Antigone Davis, responsabile globale della sicurezza, aveva concordato sulla necessità di impedire agli adulti di creare tali compagni virtuali per i più giovani, sottolineando il rischio di una precoce sessualizzazione dei minorenni.
Nick Clegg, che è stato responsabile delle politiche globali di Meta fino all’inizio del 2025, ha affermato in un’email inclusa negli atti giudiziari di ritenere poco saggia la linea adottata da Meta sugli assistenti di IA in grado di produrre contenuti a sfondo sessuale.
Nonostante queste raccomandazioni, le linee guida interne di quel periodo consideravano accettabile che un chatbot coinvolgesse un bambino in conversazioni romantiche, purché non venissero descritti atti sessuali espliciti.
La risposta ufficiale di Meta smentisce categoricamente la ricostruzione negli atti depositati dal Procuratore Generale del New Mexico.
Un portavoce dell’azienda ha definito le accuse come una ricostruzione parziale basata su una selezione arbitraria di documenti interni.
L’azienda sostiene che la presentazione dei fatti sia stata manipolata per offrire un’immagine distorta del proprio impegno verso la protezione dei giovani.
Meta ha recentemente annunciato la sospensione globale dell’accesso dei minori ai propri personaggi dotati di intelligenza artificiale, in attesa del rilascio di una nuova versione con controlli parentali più stringenti.
Il dibattito giuridico che si sta svolgendo nel New Mexico e in altri stati degli USA si concentra spesso sulla Sezione 230 del Communications Decency Act, una legge federale americana che storicamente protegge le aziende tecnologiche dalla responsabilità per i contenuti pubblicati dagli utenti.
In questa circostanza, tuttavia, i giudici hanno stabilito che l’immunità non si applica se il danno deriva dal design intrinseco del prodotto, come nel caso degli algoritmi di raccomandazione o dei modelli di linguaggio che alimentano i chatbot.
La pressione normativa sta spingendo l’intero settore dell’intelligenza artificiale a rivedere le proprie politiche.
Alcune aziende che hanno basato la propria ascesa su chatbot intelligenti, come Character.AI, hanno già messo in atto restrizioni più severe dopo incidenti che hanno coinvolto giovani utenti, tra cui il suicidio di un minore.
Il processo che si aprirà a breve in New Mexico vedrà la partecipazione di esperti della sicurezza e dirigenti di alto livello, tra cui lo stesso Zuckerberg.
La portata di questi procedimenti è stata paragonata alle storiche battaglie legali contro l’industria del tabacco degli anni Novanta, che portarono a riforme strutturali e a risarcimenti miliardari.