AI Act UE: pubblicata la prima bozza del Codice di condotta sulla trasparenza

-

Deepfake, etichette e responsabilità: cosa prevede il nuovo framework

È stata pubblicata la prima bozza del Codice di condotta sulla trasparenza dei contenuti generati dall’AI, uno strumento previsto dall’AI Act europeo per aiutare aziende e organizzazioni a rispettare gli obblighi di marcatura e identificazione dei contenuti sintetici, in particolare deepfake e testi generati artificialmente su temi di interesse pubblico.

Il Codice riguarda gli obblighi di trasparenza previsti dall’articolo 50 dell’AI Act ed è stato elaborato attraverso un processo partecipativo che ha coinvolto industria, accademia, società civile e Stati membri. Il lavoro è stato coordinato tramite due gruppi di lavoro avviati nel novembre 2025 e si basa su 187 contributi scritti, workshop e analisi di esperti. La bozza è ora in consultazione pubblica fino al 23 gennaio 2026, prima della pubblicazione della seconda versione.

L’obiettivo è garantire che i contenuti AI-generated o manipolati siano riconoscibili, leggibili dalle macchine e interoperabili, consentendo agli utenti di individuare facilmente deepfake e media sintetici.

Un’icona europea per segnalare i deepfake

Secondo quanto riportato da Euractiv, il Codice potrebbe introdurre una “icona comune europea” per segnalare visivamente immagini e video generati o alterati con l’AI. L’icona includerebbe un acronimo (come “AI”) e permetterebbe agli utenti di accedere a informazioni aggiuntive sul contenuto. Le aziende firmatarie si impegnerebbero a supportarne lo sviluppo e l’adozione.

2026: l’anno chiave per l’AI governance globale

Un editoriale di Nature sottolinea come il 2026 possa diventare un punto di svolta per la sicurezza e la regolamentazione dell’intelligenza artificiale. I dati dello Stanford AI Index Report 2025 confermano una forte accelerazione normativa:
– almeno 40 leggi sull’AI approvate nel 2024 a livello globale;
– ruolo trainante di Europa, Stati Uniti ed Est Asia;
– forte ritardo dei Paesi a basso reddito.

L’editoriale evidenzia la necessità di regole globali condivise, paragonando l’AI a settori già soggetti a standard di sicurezza come energia, farmaceutica e comunicazioni.

L’AI Act entra nel vivo nel 2026

Secondo CGTN, il 2026 sarà l’anno in cui la maggior parte delle disposizioni dell’AI Act entrerà in piena applicazione. L’UE punta a posizionare l’AI europea come “AI affidabile”, ma restano critiche sul possibile impatto sull’innovazione e sulla competitività globale. Gli esperti sottolineano che senza meccanismi di enforcement chiari, il rischio è avere una buona legge con effetti limitati.

Focus su diritti fondamentali e settori ad alto rischio

La newsletter segnala anche:
una guida operativa alle Fundamental Rights Impact Assessments (FRIA) pubblicata dal Danish Institute for Human Rights e dall’European Centre for Not-for-Profit Law, destinata ai deployer di AI ad alto rischio (PA, istruzione, lavoro, servizi essenziali, law enforcement);
un’analisi legale sull’impatto dell’AI Act nel settore automotive a cura dello studio Squire Patton Boggs, che evidenzia come molti sistemi AI per veicoli rientreranno nella categoria high-risk, con obblighi stringenti a partire dal 2026–2027.