Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2026  febbraio 22 Domenica calendario

ChatGpt aveva previsto la strage in Canada, ma OpenAI non avvisò la polizia

Come nel film fantascientifico “Minority Report”, l’Intelligenza Artificiale è più rapida e più brava degli esseri umani a individuare minacce criminali. Solo che l’IA, da sola, non può compiere arresti: e se non interviene la polizia in carne ed ossa, l’allarme dato dagli algoritmi non serve a nulla. Sembra questa la lezione dell’annuncio che ChatGpt, il motore di ricerca intelligente, aveva segnalato come pericolosa la giovane transgender canadese autrice della recente strage in una scuola in Canada: senonché la segnalazione, giunta ai responsabili di OpenAI, la società di San Francisco che controlla il chatbot, non ha ritenuto che l’avvertimento rendesse necessario avvertire le forze dell’ordine. E così sono morte otto persone.
Otto mesi prima del massacro compiuto dalla 18enne Jesse Van Rootselaar a Tumbler Ridge, una cittadina rurale nello stato canadese di British Columbia, OpenAI aveva valutato la possibilità di avvisare la polizia in merito alle sue interazioni con ChatGpt, riporta stamani il Wall Street Journal. Lo scorso giugno, mentre dialogava con il chatbot, la ragazza aveva ripetutamente descritto scenari di violenza armata. Segnalati da un sistema di revisione automatizzato, i suoi post avevano allarmato i dipendenti di OpenAI. Una dozzina di membri dello staff si erano interrogati se intervenire. Alcuni avevano esortato ad avvisare le forze dell’ordine. Ma i dirigenti hanno deciso di non contattare le autorità, limitandosi a bloccare l’account di Van Rootselaar. Ritenevano che la sua attività non soddisfacesse i criteri per la segnalazione alla polizia, ovvero che non ci fosse “un rischio credibile e imminente di gravi danni fisici al prossimo”.
Invece il rischio esisteva. Il 10 febbraio Van Rootselaar è stata trovata morta, probabilmente suicida, dopo avere aperto il fuoco in una scuola e contro i propri stessi familiari in una sparatoria di massa in cui hanno perso la vita otto persone e venticinque sono rimaste ferite. Solo dopo questo fatto di sangue, uno dei più gravi nella storia del Canada, l’azienda ha contattato la Royal Canadian Mounted Police rivelando le precedenti segnalazioni venute fuori da ChatGpt e rammaricandosi di non avere agito subito. “I nostri pensieri”, afferma un portavoce di OpenAI, “vanno a tutti coloro che sono stati colpiti dalla tragedia di Tumbler Ridge”. Quasi un’ammissione di corresponsabilità.
Le tracce delle intenzioni della giovane lasciate online erano numerose anche su altre piattaforme. Su Roblox aveva creato un videogioco che simulava una sparatoria all’interno di un centro commerciale. Sui social c’erano suoi post che la mostravano mentre sparava a un poligono di tiro. Aveva preso parte a discussioni in video su YouTube fra appassionati di armi da fuoco. Ma gli indizi più chiari che si preparava a compiere una strage erano emersi nella sua interazione con ChatGpt. Purtroppo gli umani si sono dimostrati meno intelligenti del chatbot e non li hanno presi abbastanza sul serio.