AI Act UE: pubblicata la prima bozza del Codice di condotta sulla trasparenza

Deepfake, etichette e responsabilità: cosa prevede il nuovo framework

È stata pubblicata la prima bozza del Codice di condotta sulla trasparenza dei contenuti generati dall’AI, uno strumento previsto dall’AI Act europeo per aiutare aziende e organizzazioni a rispettare gli obblighi di marcatura e identificazione dei contenuti sintetici, in particolare deepfake e testi generati artificialmente su temi di interesse pubblico.

Il Codice riguarda gli obblighi di trasparenza previsti dall’articolo 50 dell’AI Act ed è stato elaborato attraverso un processo partecipativo che ha coinvolto industria, accademia, società civile e Stati membri. Il lavoro è stato coordinato tramite due gruppi di lavoro avviati nel novembre 2025 e si basa su 187 contributi scritti, workshop e analisi di esperti. La bozza è ora in consultazione pubblica fino al 23 gennaio 2026, prima della pubblicazione della seconda versione.

L’obiettivo è garantire che i contenuti AI-generated o manipolati siano riconoscibili, leggibili dalle macchine e interoperabili, consentendo agli utenti di individuare facilmente deepfake e media sintetici.

Un’icona europea per segnalare i deepfake

Secondo quanto riportato da Euractiv, il Codice potrebbe introdurre una “icona comune europea” per segnalare visivamente immagini e video generati o alterati con l’AI. L’icona includerebbe un acronimo (come “AI”) e permetterebbe agli utenti di accedere a informazioni aggiuntive sul contenuto. Le aziende firmatarie si impegnerebbero a supportarne lo sviluppo e l’adozione.

2026: l’anno chiave per l’AI governance globale

Un editoriale di Nature sottolinea come il 2026 possa diventare un punto di svolta per la sicurezza e la regolamentazione dell’intelligenza artificiale. I dati dello Stanford AI Index Report 2025 confermano una forte accelerazione normativa:
– almeno 40 leggi sull’AI approvate nel 2024 a livello globale;
– ruolo trainante di Europa, Stati Uniti ed Est Asia;
– forte ritardo dei Paesi a basso reddito.

L’editoriale evidenzia la necessità di regole globali condivise, paragonando l’AI a settori già soggetti a standard di sicurezza come energia, farmaceutica e comunicazioni.

L’AI Act entra nel vivo nel 2026

Secondo CGTN, il 2026 sarà l’anno in cui la maggior parte delle disposizioni dell’AI Act entrerà in piena applicazione. L’UE punta a posizionare l’AI europea come “AI affidabile”, ma restano critiche sul possibile impatto sull’innovazione e sulla competitività globale. Gli esperti sottolineano che senza meccanismi di enforcement chiari, il rischio è avere una buona legge con effetti limitati.

Focus su diritti fondamentali e settori ad alto rischio

La newsletter segnala anche:
una guida operativa alle Fundamental Rights Impact Assessments (FRIA) pubblicata dal Danish Institute for Human Rights e dall’European Centre for Not-for-Profit Law, destinata ai deployer di AI ad alto rischio (PA, istruzione, lavoro, servizi essenziali, law enforcement);
un’analisi legale sull’impatto dell’AI Act nel settore automotive a cura dello studio Squire Patton Boggs, che evidenzia come molti sistemi AI per veicoli rientreranno nella categoria high-risk, con obblighi stringenti a partire dal 2026–2027.

Paolo Brambilla - Direttore Responsabile - Lamiafinanza.it Avatar

Paolo Brambilla, Consigliere dell'Ordine dei Giornalisti della Lombardia, è direttore responsabile de "La Mia Finanza" e di "Trendiest Media Agenzia di stampa". Laureato a pieni voti in Economia e Commercio alla Bocconi (qualche decennio fa) con un breve Master a Harvard e un corso di copywriting a Berkeley, è membro attivo di numerosi club, fra i quali il "Rotary Club Milano Porta Vercellina" e il "Cambridge University Yacht Club". Rappresenta l'Italia a Bruxelles nell'associazione "Better Finance" a tutela di investitori e risparmiatori.

Areas of Expertise: economia, finanza, arte, cultura classica
Fact Checked & Editorial Guidelines

Our Fact Checking Process

We prioritize accuracy and integrity in our content. Here's how we maintain high standards:

  1. Expert Review: All articles are reviewed by subject matter experts.
  2. Source Validation: Information is backed by credible, up-to-date sources.
  3. Transparency: We clearly cite references and disclose potential conflicts.
Reviewed by: Subject Matter Experts

Our Review Board

Our content is carefully reviewed by experienced professionals to ensure accuracy and relevance.

  • Qualified Experts: Each article is assessed by specialists with field-specific knowledge.
  • Up-to-date Insights: We incorporate the latest research, trends, and standards.
  • Commitment to Quality: Reviewers ensure clarity, correctness, and completeness.

Look for the expert-reviewed label to read content you can trust.