Negli Stati Uniti cresce il dibattito su come regolamentare l’intelligenza artificiale, un settore che avanza molto più velocemente delle leggi attuali. L’assenza di regole federali chiare genera incertezze, soprattutto per quanto riguarda la tutela dei minori e la gestione dei contenuti sensibili. Per affrontare il problema, Jeff Jackson, procuratore generale della Carolina del Nord, e Derek Brown, suo omologo nello Utah, hanno avviato una collaborazione bipartisan per creare una task force dedicata alla sicurezza dell’IA.
OpenAI e Microsoft hanno già aderito all’iniziativa, dichiarandosi disponibili a contribuire alla definizione di linee guida condivise. L’obiettivo è individuare i potenziali rischi, stabilire standard minimi e promuovere un utilizzo responsabile della tecnologia. La task force punta a proporre un modello di riferimento per aziende e legislatori.
Il progetto nasce in un contesto normativo frammentato: negli Stati Uniti non esiste una legge federale organica sull’intelligenza artificiale e alcuni membri del Congresso hanno tentato di limitare l’autonomia dei singoli Stati nel regolamentare la materia. Jackson e Brown si sono opposti a un emendamento che avrebbe impedito per dieci anni l’approvazione di nuove normative statali sull’IA. A oggi, a livello federale, è stata approvata solo una norma specifica sui deepfake pornografici non consensuali, un ambito molto ristretto rispetto alle problematiche più ampie.
L’urgenza di regole più solide nasce anche da episodi sempre più frequenti in cui sistemi di IA hanno generato contenuti fuorvianti, comportamenti inappropriati o esposto gli utenti più giovani a materiali non adatti.
Il dibattito è complicato anche dalle divergenze interne agli stessi sviluppatori. Sam Altman, CEO di OpenAI, si è mostrato favorevole a funzioni riservate agli adulti, previa verifica dell’età. Mustafa Suleyman, responsabile IA di Microsoft, sostiene invece un approccio completamente orientato alla fruizione familiare, che esclude contenuti per adulti.










