UN CHATBOT MOLTO “HOT” – OPENAI CONSENTIRÀ CONTENUTI EROTICI SU CHATGPT – SAM ALTMAN HA SPIEGATO: “TRATTEREMO GLI ADULTI COME TALI” - MA NON HA CHIARITO SE LA NUOVA MODALITÀ PICCANTELLA RIGUARDERÀ SOLO CONVERSAZIONI A SFONDO SESSUALE OPPURE ANCHE LA POSSIBILITÀ DI GENERARE IMMAGINI O VIDEO A LUCI ROSSE – PER MITIGARE IL RISCHIO DI SVILUPPARE UNA DIPENDENZA EMOTIVA DAL PROGRAMMA DI INTELLIGENZA ARTIFICIALE, L’AZIENDA HA ANNUNCIATO CHE…
Estratto dell’articolo di Pier Luigi Pisa per www.repubblica.it
OpenAI consentirà - presto - contenuti “erotici” su ChatGpt, accessibili esclusivamente agli utenti che avranno verificato la propria età sulla piattaforma. In un post pubblicato su X, il CEO Sam Altman ha annunciato che l’azienda permetterà conversazioni per adulti a partire dal prossimo dicembre, quando sarà attivo il sistema di verifica dell’età.
“A dicembre, con la piena attivazione del controllo dell’età, OpenAI introdurrà nuovi contenuti per adulti, compreso l’erotismo, nel rispetto del principio ‘trattare gli adulti come adulti’”, ha scritto Altman. Il leader di OpenAI non ha però chiarito se l’apertura riguarderà solo conversazioni a sfondo sessuale oppure anche la possibilità di generare immagini o video di natura esplicita.
Altri competitor, come il chatbot Grok di Elon Musk, hanno già adottato un approccio più disinibito. Grok propone due avatar virtuali, uno maschile e uno femminile, ciascuno con una personalità distinta e un tono più ironico e provocatorio rispetto a ChatGpt. Gli utenti possono scegliere con chi interagire e impostare il livello di “spontaneità” nelle risposte e negli atteggiamenti, scegliendo una modalità “piccante” e meno filtrata.
[…] Altman ha aggiunto che OpenAI ha migliorato i propri strumenti interni e le capacità di monitoraggio per identificare e gestire meglio i rischi legati alla salute mentale. […]
Recentemente, i genitori di Adam Raine, un sedicenne che si è tolto la vita, hanno intentato una causa contro OpenAI e Sam Altman, sostenendo che ChatGpt non solo non sia riuscito a prevenire il gesto del figlio, ma che in alcune conversazioni lo abbia persino incoraggiato e assistito nella pianificazione dell’autolesionismo, contribuendo in modo determinante alla sua morte. La vicenda è diventata un punto centrale nel dibattito sui rischi che le IA conversazionali possano trasformarsi, involontariamente, in “compagni” che alimentano dipendenze o comportamenti dannosi.
Il caso Raine non è isolato. Nel corso del 2025 sono emerse altre segnalazioni di utenti che hanno riferito un peggioramento del proprio stato mentale o che hanno sviluppato una dipendenza emotiva dal chatbot. Questo fenomeno, talvolta definito “psicosi da chatbot”, descrive situazioni in cui le persone finiscono per attribuire all’IA una sensibilità o un’intelligenza umana, aggravando potenzialmente pensieri deliranti o ossessivi.
[…] Nonostante ciò, Altman ha dichiarato che OpenAI è riuscita a “mitigare i problemi più gravi legati alla salute mentale”. “Ora che disponiamo di nuovi strumenti - ha aggiunto - possiamo allentare le restrizioni nella maggior parte dei casi in modo sicuro”.
Altman si riferisce anche alla creazione di un consiglio dedicato a “benessere e IA”, incaricato da OpenAI di guidare le politiche dell’azienda nei casi più complessi o sensibili. Il gruppo è composto da otto ricercatori ed esperti che studiano l’impatto dell’intelligenza artificiale sulla salute mentale, ma non include specialisti nella prevenzione del suicidio.




