corriere.it, 14 ottobre 2025
Un tredicenne arrestato per aver chiesto a ChatGpt: «Come ammazzare il mio amico nel bel mezzo della lezione»
Da un prompt scritto su ChatGpt alle sbarre di un carcere. Così un tredicenne di Deland, una città in Florida a nord di Orlando, è stato arrestato per avere scritto sul chatbot di OpenAI di volere uccidere un compagno di classe.
«Come ammazzare il mio amico nel bel mezzo della lezione», aveva chiesto lo studente della scuola media Shouthwestern Middle School a ChatGpt. Nel giro di poco tempo è arrivata una volante della polizia e lo ha messo in manette, portandolo poi in prigione. Il giovane si sarebbe giustificato dicendo che stava solo «trollando», cioè si trattava solo di uno scherzo goliardico rivolto a un compagno di classe che lo stava infastidendo. «Un altro “scherzo” che ha creato una situazione di emergenza nel campus. Genitori, parlate con i vostri figli affinché non commettano lo stesso errore», ha dichiarato un portavoce dell’ufficio dello sceriffo all’emittente televisiva Wfla.
Scherzo o primi segnali di un comportamento potenzialmente violento? Impossibile dirlo con sicurezza. L’unica certezza è che il costante alto livello di allarme nelle scuole statunitensi per paura dell’ennesima sparatoria di massa.
Ma questa volta a denunciare in tempo reale il comportamento apparentemente antisociale del giovanissimo studente non è stato né un compagno di classe né un docente, bensì un’intelligenza artificiale realizzata da un’azienda, Gaggle. «Offriamo due strumenti di sicurezza proattivi per aiutare i distretti scolastici ad adottare l’AI in modo responsabile», si legge sul sito ufficiale dell’azienda che vende il proprio software agli istituti. Uno di questi è un semplice filtro che blocca ricerche pericolose sul Web, l’altro invece è proprio un sistema di monitoraggio delle attività online, che controlla anche «le conversazioni con strumenti di intelligenza artificiale come Google Gemini, ChatGPT e altre piattaforme» e che segnala eventuali «comportamenti preoccupanti legati all’autolesionismo, alla violenza, al bullismo e altro ancora, e fornisce il contesto con screenshot».
Tutte le attività degli studenti, insomma, vengono monitorate e i possibili comportamenti pericolosi vengono così segnalati in automatico all’amministrazione scolastica.
Ma non è la prima volta che Gaggle (che con il suo software monitora le attività di quasi sei milioni di studenti in 1500 distretti scolastici) e altri strumenti simili finiscono al centro dell’attenzione e, soprattutto, delle polemiche. Secondo alcuni critici, si tratterebbe di strumenti di sorveglianza di massa che fanno più male che bene, in particolare considerando il numero di falsi allarmi. Secondo quanto riporta Associated Press, dei 1200 casi segnalati in 10 mesi a Gaggle nel distretto scolastico di Lawrence, in Kansas, circa due terzi delle segnalazioni sono state ritenute irrilevanti dai funzionari scolastici.
In alcuni casi non c’è neanche bisogno di premere invio. Come nel caso del software Lightspeed Alert, che è in grado di rilevare quello che gli studenti stanno scrivendo e di inviare un allarme prima ancora che la frase venga pubblicata. Una studentessa sedicenne di West Palm Beach ha raccontato ad Associated Press che nella propria scuola due studenti avevano scritto minacce nei confronti di un’insegnante, salvo poi cancellare il messaggio prima di inviarlo. Ma non sarebbe bastato: Lightspeed Alert avrebbe rilevato la minaccia avvisando così la scuola del potenziale pericolo. «I due sono stati portati via circa cinque minuti dopo», racconta la studentessa.