Questo sito utilizza cookies tecnici (propri e di terze parti) come anche cookie di profilazione (di terze parti) sia per proprie necessità funzionali, sia per inviarti messaggi pubblicitari in linea con tue preferenze. Per saperne di più o per negare il consenso all'uso dei cookie di profilazione clicca qui. Scorrendo questa pagina, cliccando su un link o proseguendo la navigazione in altra maniera, acconsenti all'uso dei cookie Ok, accetto

 2025  ottobre 15 Mercoledì calendario

ChatGpt permetterà contenuti erotici. Sam Altman: “Tratteremo gli adulti come tali”

OpenAI consentirà – presto – contenuti “erotici” su ChatGpt, accessibili esclusivamente agli utenti che avranno verificato la propria età sulla piattaforma.
In un post pubblicato su X, il CEO Sam Altman ha annunciato che l’azienda permetterà conversazioni per adulti a partire dal prossimo dicembre, quando sarà attivo il sistema di verifica dell’età.
“A dicembre, con la piena attivazione del controllo dell’età, OpenAI introdurrà nuovi contenuti per adulti, compreso l’erotismo, nel rispetto del principio ‘trattare gli adulti come adulti’”, ha scritto Altman.

Il leader di OpenAI non ha però chiarito se l’apertura riguarderà solo conversazioni a sfondo sessuale oppure anche la possibilità di generare immagini o video di natura esplicita.
Altri competitor, come il chatbot Grok di Elon Musk, hanno già adottato un approccio più disinibito. Grok propone due avatar virtuali, uno maschile e uno femminile, ciascuno con una personalità distinta e un tono più ironico e provocatorio rispetto a ChatGpt. Gli utenti possono scegliere con chi interagire e impostare il livello di “spontaneità” nelle risposte e negli atteggiamenti, scegliendo una modalità “piccante” e meno filtrata.
Nel suo post, Altman ha anche annunciato un allentamento delle restrizioni su ChatGpt, in particolare per gli utenti senza vulnerabilità legate alla salute mentale. Ha riconosciuto che le limitazioni precedenti – introdotte per evitare di aggravare situazioni di disagio psicologico – avevano irritato molti utenti, che percepivano il sistema come eccessivamente prudente e poco piacevole da usare.
Altman ha aggiunto che OpenAI ha migliorato i propri strumenti interni e le capacità di monitoraggio per identificare e gestire meglio i rischi legati alla salute mentale. Ha inoltre promesso che, nelle prossime settimane, una nuova versione di ChatGpt – vicina a tutto ciò che gli utenti avevano apprezzato del vecchio modello Gpt-4o – permetterà di scegliere personalità più espressive (“usa tante emoji”, “comportati come un amico”), ma solo previo consenso esplicito dell’utente.
L’obiettivo di OpenAI – nata come laboratorio no-profit dedicato allo sviluppo di un’IA sicura e utile all’umanità – resta complesso: trovare un equilibrio più sfumato tra utilità, intrattenimento e sicurezza, soprattutto in relazione a temi delicati come suicidio, autolesionismo e disagio emotivo.
Recentemente, i genitori di Adam Raine, un sedicenne che si è tolto la vita, hanno intentato una causa contro OpenAI e Sam Altman, sostenendo che ChatGpt non solo non sia riuscito a prevenire il gesto del figlio, ma che in alcune conversazioni lo abbia persino incoraggiato e assistito nella pianificazione dell’autolesionismo, contribuendo in modo determinante alla sua morte. La vicenda è diventata un punto centrale nel dibattito sui rischi che le IA conversazionali possano trasformarsi, involontariamente, in “compagni” che alimentano dipendenze o comportamenti dannosi.
Il caso Raine non è isolato. Nel corso del 2025 sono emerse altre segnalazioni di utenti che hanno riferito un peggioramento del proprio stato mentale o che hanno sviluppato una dipendenza emotiva dal chatbot. Questo fenomeno, talvolta definito “psicosi da chatbot”, descrive situazioni in cui le persone finiscono per attribuire all’IA una sensibilità o un’intelligenza umana, aggravando potenzialmente pensieri deliranti o ossessivi.
OpenAI ci aveva promesso una superintelligenza. Per ora ci ha dato i deepfake
Anche i più avanzati modelli linguistici (LLM) mostrano difficoltà nella gestione delle crisi e possono rafforzare narrazioni dannose o convalidare convinzioni negative. Uno studio pubblicato a settembre scorso, Evaluating the Clinical Safety of LLMs in Response to High-Risk Mental Health Disclosures, ha evidenziato che nessuno dei chatbot analizzati – incluso ChatGpt – soddisfa costantemente gli standard clinici previsti dagli esperti, come il riconoscimento del rischio, il sostegno empatico e l’offerta di aiuto concreto in situazioni ad alto rischio.
Nonostante ciò, Altman ha dichiarato che OpenAI è riuscita a “mitigare i problemi più gravi legati alla salute mentale”. “Ora che disponiamo di nuovi strumenti – ha aggiunto – possiamo allentare le restrizioni nella maggior parte dei casi in modo sicuro”.
Altman si riferisce anche alla creazione di un consiglio dedicato a “benessere e IA”, incaricato da OpenAI di guidare le politiche dell’azienda nei casi più complessi o sensibili. Il gruppo è composto da otto ricercatori ed esperti che studiano l’impatto dell’intelligenza artificiale sulla salute mentale, ma non include specialisti nella prevenzione del suicidio.