Il 26 agosto 2025 OpenAI ha pubblicato sul proprio blog un annuncio che è passato quasi inosservato nei primi giorni. In quel comunicato l’azienda ha spiegato che, in circostanze specifiche, le conversazioni con i suoi chatbot possono essere analizzate e, se emergono rischi per altre persone, inoltrate alle autorità competenti.
Quando la situazione riguarda il rischio di autolesionismo, non è previsto alcun contatto con la polizia o altri organi pubblici. In quei casi intervengono soltanto meccanismi interni, come filtri automatici e messaggi di supporto, che invitano chi scrive a rivolgersi a servizi di emergenza o a centri specializzati.
OpenAI presenta questa scelta come parte della propria missione di offrire un aiuto concreto e affidabile. Dietro la formula comunicativa, tuttavia, la responsabilità viene circoscritta all’assistenza di base, mentre il peso delle conseguenze resta in gran parte sulle spalle dell’utente.
OpenAI sostiene che, una volta progettato un sistema con adeguate protezioni, non può essere ritenuta responsabile di ogni utilizzo scorretto. Il problema è che i software non devono superare test pubblici o certificazioni obbligatorie prima di essere messi sul mercato. Quando emergono vulnerabilità o difetti, l’azienda si limita a rilasciare aggiornamenti, senza che ci siano conseguenze legali dirette per eventuali danni causati agli utenti.
La legge civile già prevede, in teoria, che chi provoca un danno debba risarcirlo. Ma applicare questa regola in modo efficace al settore digitale è complesso e, secondo molti esperti, insufficiente. Per questo diversi giuristi invocano norme più mirate, capaci di imporre agli sviluppatori obblighi di sicurezza paragonabili a quelli di altri comparti tecnologici.










