Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2025  novembre 21 Venerdì calendario

Troppa violenza e odio online TikTok chiede un aiuto all’IA

Ogni giorno oltre 100 milioni tra video, foto, commenti e live stream vengono pubblicati su TikTok, la piattaforma di video brevi, di proprietà della società cinese di informatica ByteDance che ha sede a Pechino. A utilizzarla sono un miliardo di persone nel mondo e solo in Europa 200 milioni di cittadini scrollano tra video ogni giorno. Sopra, vi si trovano contenuti in 70 lingue differenti.
Questi numeri danno la misura di quanto, da un lato, TikTok sia diventato pervasivo nelle nostre vite e, dall’altro, di quanto sia enorme la sfida della moderazione, a cui è chiamata la piattaforma social, per preservare un ambiente online sicuro e rispettoso che si opponga alla diffusione di violenza ed estremismi. Se gli ordini di scala da affrontare sono impressionanti, basti pensare agli 8 miliardi di commenti sono stati rimossi solo nei primi tre mesi del 2025, ci sono anche il contesto e le sfumature linguistiche da monitorare: e per fare questo serve il senso critico umano. “Sarà un coltello da cucina quello che brandisce la donna nel video oppure si tratta di un contenuto violento da rimuovere?”: domande di questo tipo sono quelle che ogni giorno si pongono i 6mila moderatori di TikTok che lavorano in tutta Europa: persone, in carne e ossa, che trascorrono le loro giornate a guardare e rimuovere video violenti e degradanti, immagini che la maggior parte delle persone non sopporterebbe nemmeno per pochi istanti. Un flusso che inevitabilmente condiziona la loro salute mentale, oltre a quella degli utenti che vorrebbero utilizzare Tik-Tok per intrattenersi e svagarsi. Che fare, dunque, per «offrire la migliore esperienza possibile sia agli utenti della piattaforma sia allo staff di moderazione»? «Garantire un equilibrio tra velocità, coerenza e qualità dei contenuti pubblicati» è l’obiettivo dichiarato dalla stessa piattaforma di video brevi, in occasione del Trust & Safety Forum, organizzato nella sede europea a Dublino. E la risposta studiata da TikTok prevede l’introduzione dell’intelligenza artificiale (IA), con diversi modelli utilizzati come strumenti aggiuntivi alla moderazione umana dei contenuti. La tecnologia IA esamina ogni contenuto – inclusi commenti, video, foto, live stream e persino la creazione di nuovi account – sia prima sia dopo che questi vengano pubblicati online. Questo processo è progettato per intercettare e bloccare grandi quantità di contenuti non conformi e permettere una rimozione di massa rapida.
A fronte della preoccupazione su una possibile riduzione del numero di moderatori in carne e ossa che lavorano per la piattaforma social, TikTok ha ribadito di «ritenere essenziale bilanciare il lavoro umano e quello della tecnologia IA per mantenere la nostra piattaforma sicura – ha spiegato Brie Begum is TikTok’s Global Head of Regulatory, Risk, and Program Management for Trust & Safety —. Avremo sempre gli esseri umani come parte di questo processo, ma riteniamo anche molto importante ridurre l’esposizione a contenuti dannosi il più rapidamente possibile, ed è qui che gran parte del supporto delle macchine entra in gioco». Per citare un esempio, i moderatori che si occupano di disinformazione possono utilizzare i “grandi modelli linguistici” (LLM) per individuare l’affermazione specifica all’interno di un video che l’IA ha individuato come potenzialmente rischioso e da esaminare, permettendo ai professionisti della moderazione di concentrarsi sul compito critico di valutazione. Stando ai dati forniti da TikTok, è stato possibile già «ridurre del 76% l’esposizione dei nostri moderatori umani ai contenuti violenti. Abbiamo anche visto un aumento della qualità, con il 99% dei contenuti ritenuti inappropriati rimossi, prima che venissero segnalati da qualcuno». Non solo gli LLM hanno rimosso il doppio dei commenti che violavano le linee guida, ma è stata segnalata anche una diminuzione del 34% rispetto al tasso precedente, per quanto riguarda le decisioni inaccurate prese nelle moderazione, sempre grazie ai sistemi di intelligenza artificiale. Sempre nell’ambito del Trust & Safety Forum si è discusso molto di strumenti di sicurezza per gli utenti, ma anche di nuove collaborazioni con partner esterni per sviluppare risorse che contrastino l’odio. Secondo la direttrice della Violence Prevention Network, la principale organizzazione europea della società civile impegnata nella prevenzione e nel contrasto dell’estremismo violento, Judy Korn non basta bloccare le parole chiave sui social: «Le piattaforme devono ripensare il modo di considerare gli utenti e identificare i segnali comportamentali online (chi seguono, cosa apprezzano, cosa ripubblicano) come indicatori della propensione allo sviluppo dell’estremismo» soprattutto per prevenire i comportamenti pericolosi dei più giovani. Korn nel suo intervento ha messo in luce quanto l’estremismo violento nichilistico sia sempre più diffuso: esso non cerca un cambiamento politico, sociale o religioso, ma porta solo distruzione e caos. Per questo ragione pone una sfida ulteriore perché questo genere di contenuti violenti non sottintendono a un’ideologia facilmente riconoscibile e dunque potrebbero non violare le linee guida della community di Tik-Tok, pur spingendo le persone verso reti criminali. Secondo Korn, le piattaforme tecnologiche hanno la responsabilità di prevenire l’estremismo violento con la loro piattaforma e non solo di impedire che si diffonda al suo interno.