CharacterAI ha annunciato che limiterà l’accesso ai dialoghi open-ended con i suoi chatbot per gli utenti under 18, dopo essere stata coinvolta negli Stati Uniti in un caso legato al suicidio di un 14enne.
Da ora in poi, i minorenni potranno conversare con i chatbot per un massimo di 2 ore al giorno, mentre la chiusura totale dell’accesso alle chat per gli under 18 entrerà in vigore il 25 novembre 2025, data in cui la nuova politica diventerà ufficiale.
Lanciata nel maggio 2023, Character.AI è rapidamente diventata una piattaforma virale tra i più giovani, grazie alla possibilità di creare amici virtuali personalizzati tramite l’IA e di simulare la personalità di celebrità reali.
L’azienda ha però chiarito che continuerà a offrire strumenti “creativi” non legati alla chat, come la creazione di personaggi, video e storie, pur dovendo limitare le conversazioni aperte.
Questa decisione arriva in risposta alle crescenti preoccupazioni sulla sicurezza dei minori e alle numerose cause legali negli USA che accusano i chatbot di influenzare negativamente il benessere degli adolescenti.
Per garantire un ambiente più sicuro, Character.AI introdurrà nuovi sistemi di verifica dell’età e un “AI Safety Lab”, un organismo dedicato al monitoraggio e allo sviluppo di un ecosistema più controllato e responsabile.










