repubblica.it, 26 gennaio 2026
Indagine Ue su X per i deepfake sessuali di Grok: “Forma violenta e inaccettabile di degradazione”
La Commissione europea ha annunciato l’avvio di una nuova indagine formale nei confronti di X ai sensi del Digital Services Act, ampliando il procedimento già aperto nel 2023. Il punto centrale è l’integrazione di Grok, il sistema di xAI incorporato nella piattaforma, e il modo in cui questo può aumentare la diffusione di contenuti illegali o gravemente dannosi, in particolare immagini sessualmente esplicite manipolate con l’intelligenza artificiale, comprese quelle non consensuali e quelle che potrebbero arrivare a configurare materiale di abuso sessuale su minori.
Bruxelles chiarisce che l’istruttoria non riguarda solo la generazione di immagini con Grok, ma anche il ruolo dei sistemi di raccomandazione di X per amplificare e far circolare questo tipo di contenuti, e indica richieste operative come la trasmissione di una valutazione dei rischi ad hoc collegata alle funzionalità di Grok all’interno del servizio X.
“I deepfake sessuali di donne e bambini sono una forma violenta e inaccettabile di degradazione”, ha detto Henna Virkkunen, vicepresidente della Commissione con deleghe su sovranità tecnologica, sicurezza e democrazia. “In questa indagine stabiliremo se X abbia rispettato i propri obblighi legali ai sensi del DSA, oppure se abbia trattato i diritti dei cittadini europei, inclusi quelli di donne e bambini, come danni collaterali del proprio servizio”.
Il portavoce della Commissione europea, Thomas Regnier va oltre: “Riteniamo che X possa aver violato il DSA, come abbiamo visto nelle ultime settimane e mesi, con contenuti antisemiti. Abbiamo visto deepfake non consensuali di donne e abbiamo visto materiale di abusi sessuali su minori in Europa. Nessuna azienda guadagnerà denaro violando i nostri diritti fondamentali”.
Cosa valuta la Commissione sotto il Digital Services Act
L’indagine mira a capire se X abbia rispettato gli obblighi di un soggetto classificato come piattaforma online di grandi dimensioni, in particolare sull’analisi dei rischi sistemici e sulle misure di mitigazione. Nel caso specifico, si indaga su tre aspetti collegati tra loro.
Il primo è la gestione dei contenuti illegali o comunque gravemente dannosi connessi a Grok, come immagini sessualmente esplicite manipolate e non consensuali, e il rischio che parte di esse possa rientrare nella categoria del materiale di abuso sessuale su minori.
Il secondo riguarda la velocità e l’efficacia dei meccanismi di intervento, quindi prevenzione, rilevazione, rimozione, e riduzione della ricomparsa degli stessi contenuti.
Il terzo è il ruolo dei sistemi di raccomandazione, perché anche un contenuto prodotto da pochi può diventare un problema sistemico se l’algoritmo lo spinge e lo rende facilmente scopribile. Questo filone si inserisce nella più ampia attenzione dell’Ue verso le raccomandazioni di X, già oggetto di misure istruttorie tecniche in precedenza.
Il Digital Services Act dà alla Commissione diversi strumenti istruttori e sanzionatori: richieste di informazioni, verifiche tecniche, audizioni, ispezioni e, se necessario, misure correttive. Se venissero accertate violazioni, l’impianto del DSA consente multe fino al 6 per cento del fatturato globale annuo, oltre a possibili penalità periodiche in caso di mancato adeguamento alle decisioni.
Per X il contesto è particolarmente delicato, anche perché non è il primo. Il procedimento del 2023 sulla conformità al DSA è ancora in corso su alcune aree, e nel dicembre 2025 Bruxelles ha già inflitto al social una multa da 120 milioni di euro per violazioni legate alla trasparenza, che includono criticità sul sistema di verifica a pagamento, sul repository pubblicitario e sull’accesso ai dati per i ricercatori
La questione Grok ha suscitato reazioni anche fuori dall’Ue. Nel Regno Unito il regolatore Ofcom ha aperto un’indagine sul rispetto degli obblighi previsti dall’Online Safety Act, mentre il governo britannico ha spinto per accelerare norme che colpiscono la creazione di immagini intime non consensuali e la disponibilità di strumenti progettati per produrle. I deepfake sessuali stanno passando rapidamente da problema di moderazione a tema di responsabilità legale dei servizi che offrono capacità di generazione e modifica immagini, soprattutto quando l’uso abusivo è prevedibile e osservabile.
Ma il caso Grok su X è un test importante su un tema che sta diventando centrale: quando la capacità di generare o modificare immagini viene integrata direttamente in un social, produzione e distribuzione si fondono, e il rischio non dipende solo dal modello ma anche da come la piattaforma progetta l’esperienza, controlla le funzioni, limita l’abuso e gestisce l’amplificazione algoritmica. Per questo, la Commissione mette insieme Grok e sistemi di raccomandazione nella stessa cornice istruttoria.
Intanto, il social di Musk ha ribadito una politica di tolleranza zero su sfruttamento sessuale di minori, nudità non consensuale e contenuti sessuali indesiderati, rimandando anche a un comunicato recente con interventi sui limiti dell’editing e su restrizioni legate alle leggi locali. Il punto, per Bruxelles, è dimostrare che queste misure siano sufficienti, tempestive e realmente efficaci su scala europea.