Il 5 novembre 2025 la Commissione Europea ha avviato i lavori per definire un codice di condotta dedicato alla marcatura dei contenuti generati dall’intelligenza artificiale, con l’obiettivo di renderli facilmente riconoscibili dagli utenti.
L’iniziativa nasce dal crescente allarme legato alla diffusione di deepfake e immagini sintetiche un fenomeno che Bruxelles considera una minaccia per la fiducia pubblica e la sicurezza delle informazioni.
L’AIAct, entrato in vigore nel 2024, impone già l’obbligo di segnalare i materiali prodotti da sistemi di AI. Il nuovo codice, di natura volontaria, mira invece a fornire linee guida pratiche per aiutare aziende e sviluppatori a rispettare gli obblighi di trasparenza in modo coerente e tecnicamente efficace.
Secondo diversi esperti, le tecniche attuali di etichettatura dalle filigrane digitali ai metadati restano ancora limitate e facilmente aggirabili. Nel frattempo, grandi aziende come OpenAI, Microsoft, Google e Meta, riunite nella Coalition for Content Provenance and Authenticity (C2PA), stanno lavorando alla definizione di standard comuni per certificare l’origine dei contenuti digitali.
Il gruppo di lavoro incaricato dalla Commissione, coordinato dall’Ufficio europeo per l’intelligenza artificiale, dovrà elaborare il codice entro metà 2026, attraverso consultazioni pubbliche e confronti con il settore privato. Le nuove disposizioni sulla trasparenza, previste dall’AI Act, diventeranno pienamente operative nell’agosto dello stesso anno.
Le imprese, rappresentate da associazioni come Digital Europe e ITI, chiedono però più tempo per adeguarsi, sottolineando che un approccio troppo rigido potrebbe ripetere l’errore dei banner dei cookie, spesso ignorati dagli utenti.
Con questo progetto, l’Unione Europea punta a un equilibrio tra tutela dell’informazione digitale e innovazione tecnologica, rendendo più chiaro quando un contenuto è frutto dell’intelligenza artificiale.










