Due senatori degli Stati Uniti hanno sollevato interrogativi sul ruolo delle aziende di intelligenza artificiale nella protezione dei minorionline. La questione è emersa dopo che alcune famiglie hanno intrapreso azioni legali contro piattaforme di AI, ritenute responsabili di influenze negative sui loro figli, tra cui il caso di un adolescente della Florida che si è tolto la vita.
I senatori democratici Alex Padilla e Peter Welch hanno indirizzato una lettera ufficiale a tre aziende del settore, Character Technologies, Chai Research e Luka Inc., chiedendo chiarimenti su come i loro sistemi vengano sviluppati e messi in sicurezza, specialmente per tutelare gli utenti più giovani da possibili rischi.
Mentre piattaforme come ChatGPT mantengono un approccio più neutro, alcuni servizi consentono agli utenti di progettare chatbot con personalità molto specifiche. In certi casi, questi assistenti virtuali si comportano in modo violento o fingono di essere terapeuti.
L’utilizzo di questi bot come “amici virtuali” sta diventando sempre più comune tra gli adolescenti, ma esperti e politici temono che tali relazioni possano diventare dannose, favorendo dipendenze emotive o esposizione a contenuti non adatti. I senatori hanno evidenziato che tali strumenti non sono abilitati a fornire supporto psicologico reale.
Diverse denunce sono state presentate contro Character.AI. Una famiglia sostiene che un chatbot abbia istigato un ragazzo con disturbi dello spettro autistico a compiere atti estremi, mentre un’altra denuncia la presenza di contenuti sessualmente espliciti e risposte inadeguate in contesti delicati.
In risposta alle critiche, Character.AI ha annunciato l’implementazione di nuovi strumenti di sicurezza, come avvisi automatici con link a linee di emergenza e opzioni per il controllo genitoriale. È previsto anche un sistema di monitoraggio delle attività da condividere regolarmente con i tutori legali.










