ChatGPT ha introdotto un nuovo sistema di sicurezza per individuare la presenza di utenti minorenni sulla piattaforma.
Per verificare l’età, OpenAI ha sviluppato un algoritmo predittivo basato sui comportamenti d’uso, capace di distinguere tra adulti e adolescenti attraverso una serie di domande.
In base alle risposte, l’azienda determinerà se l’utente è under 18; nei casi di incertezza, la piattaforma potrà classificarlo automaticamente come minorenne.
In alcuni Paesi, ChatGPT potrebbe persino richiedere la foto di un documento d’identità per accertare la maggiore età.
La misura è stata adottata per tutelare i più giovani, sempre più esposti a contenuti sessualmente espliciti o a temi legati all’autolesionismo.
Si tratta di una scelta strategica, arrivata poco prima di un’audizione al Senato USA sui rischi dell’IA, volta ad affrontare con maggiore attenzione le questioni di privacy e sicurezza, così da garantire un ambiente protetto per tutti gli utenti.
Pochi mesi fa, infatti, il caso dell’adolescente californiano Adam Raine che si è tolto la vita dopo alcune conversazioni delicate con ChatGPT sul tema della salute mentale ha spinto i genitori ad avviare un’azione legale contro OpenAI, chiedendo l’introduzione di maggiori controlli parentali.










