Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2025  luglio 22 Martedì calendario

I chatbot “amici” dei bambini? Telefono azzurro lancia l’allarme

I chatbot che assumono sembianze umanoidi e diventano gli amici immaginari preferiti da un numero sempre più alto di adolescenti o addirittura “psicologi” ai quali chiedere aiuto; tendenze come quella soprannominata “Sephora Kids”, che porta le bambine a usare sui social prodotti per la cura della pelle destinati agli adulti in cambio di qualche like; ragazzini che entrano in contatto con contenuti espliciti e non adatti ai minori; giovanissimi che compiono azioni di cyberbullismo verso i propri coetanei. Sono solo alcuni degli esempi di come, loro malgrado, «questa rete faccia crescere i ragazzi, ma li può anche distruggere, rappresentando un mondo in cui c’è violenza e sofferenza, dove troppo spesso gli adulti non sono presenti per accompagnarli in questa crescita che è ancora più difficile di prima», spiega ad Avvenire Ernesto Caffo, presidente di Telefono Azzurro. L’Organizzazione ieri ha lanciato l’ultimo allarme sui rischi della vita parallela che i minori conducono online, spesso con genitori totalmente allo scuro dei pericoli che i loro figli corrono. Questa volta a preoccupare è l’uscita del nuovo modello di intelligenza artificiale di xAI, Grok 4, che introduce una compagna virtuale di nome Ani. Il chatbot dell’azienda di Elon Musk è programmato per dialogare con l’utente. Come altri “AI companion” – per esempio Replika, Character.AI e Nomi – dà consigli e prova a creare interazioni amichevoli o romantiche. I bambini sono i più fragili e frequentano costantemente queste piattaforme. «La solitudine, che prima li spingeva a confidarsi con un diario, ora li spinge a cercare un amico immaginario nell’AI companion, che però interagisce, con tutti i rischi che ne conseguono, genera attaccamento emotivo, fornisce risposte empatiche e realistiche, sempre più sofisticate», avverte il presidente di Telefono Azzurro, che ieri ha anche diffuso i dati sul problema. Secondo le ultime ricerche, infatti, l’84% degli adolescenti tra i 13 e i 17 anni ha già interagito almeno una volta con un chatbot AI. Per un ragazzo su sei si tratta di un vero rifugio dato che chatta regolarmente con questi strumenti perché non ha nessun altro con cui parlare. Il 40% ritiene vere le informazioni ricevute dai chatbot, senza verificarne l’attendibilità e il 23% degli utenti minorenni ha ricevuto consigli rischiosi o inappropriati, inclusi riferimenti a autolesionismo e sessualità. «I ragazzi usano di continuo l’IA, anche quando fanno una semplice ricerca o consultano Chat Gpt. Su questo tema le istituzioni devono interagire al più presto con il mondo delle aziende. L’intervento non può essere costantemente rinviato perché il problema lo stiamo vivendo già oggi».
Intanto Musk ha annunciato anche una Baby Grok, un chatbot di intelligenza artificiale pensato per i bambini. «Al momento non sono stati forniti da xAi ulteriori dettagli tecnici, operativi e di sicurezza sul progetto Baby Grok, ma tutto quello che riguarda i più piccoli deve richiedere una massima attenzione in termini di sicurezza dei contenuti», commenta Caffo. Le aziende, puntualizza poi il presidente, «vorrebbero correre velocemente, essere competitive e avere meno regole, ma non può essere fatto a scapito delle nuove generazioni. Non possiamo pensare di perdere bambini e adolescenti per interessi commerciali. I ragazzi vanno accompagnati da strumenti di supporto, non da strumenti che sono in grado di rapire i loro dati e farli propri per profilarli, rendere le risposte sempre più apparentemente soddisfacenti, il tutto lasciando prevalere interessi economici». L’impegno dei privati sarebbe comunque insufficiente senza forme di controllo. Per garantire un uso responsabile dell’intelligenza artificiale è indispensabile introdurre misure concrete. «Tra queste, riteniamo fondamentale l’obbligo di verifica dell’età e l’adozione di filtri di sicurezza per tutti i chatbot avanzati, come previsto dal Digital Services Act europeo – continua il presidente –. Occorre inoltre definire standard “child-safe”, assicurando che i chatbot siano trasparenti e dotati di sistemi di alert e supervisione per tutelare i minori durante l’interazione». Infine, secondo Caffo, è necessario prevedere forme di responsabilità civile e l’applicazione di sanzioni nei confronti delle aziende che non rispettano le norme a tutela dei minori: «Solo attraverso un’azione condivisa e responsabile potremo costruire un ecosistema digitale davvero sicuro e a misura di bambino». Bisogna dunque coinvolgere anche i genitori e gli educatori «che dovrebbero scaricare queste app e provare loro stessi a porre domande agli strumenti di intelligenza artificiale per rendersi conto di quanto sia complessa la situazione attuale di un minore che si trova davanti a risposte difficili da elaborare senza l’aiuto di un adulto e senza un senso critico, risposte che spesso sono anche disfunzionali». Oggi il mondo adulto non sempre si mostra abbastanza cosciente delle proprie responsabilità: «Purtroppo la cultura di molti adulti è di mettere i bambini davanti a questi strumenti online, a partire da Tik-Tok, dimenticando che questi possono creare dipendenza e fargli vedere cose improprie per la loro età». È fondamentale, dunque, accompagnare le leggi con un lavoro culturale ed educativo che renda gli adulti più consapevoli, per esempio sull’utilizzo di mezzi come il parental control: «Ma anche i ragazzi devono parlarne di più tra loro e nelle scuole, imparare ad avere più attenzione ai loro dati personali». L’intelligenza artificiale può essere d’aiuto, ma «possiamo e dobbiamo per forza intervenire perché i ragazzi recuperino l’interazione fisica, imparino l’uno dall’altro e possano ritornare nella vita a usare questi strumenti come un elemento utile ma marginale, controllato con un pensiero critico adeguato». Questi “assistenti virtuali” si stanno evolvendo velocemente, per questo, conclude Caffo, «serve subito un piano che coinvolga l’educazione, la salute, il sociale e il giuridico. È una partita complessa, ma per evitare che i minori ne soffrano va affrontata con serietà da parte di tutti».