L’Europa scrive le regole concrete dell’Intelligenza Artificiale: pubblicato il primo Code of Practice
Pubblicato il primo Code of Practice
di Giovanni Bonomo* (nella foto)
Dal 10 luglio 2025, l’intelligenza artificiale generativa in Europa ha finalmente un codice di condotta operativo. L’Unione Europea ha pubblicato il suo Code of Practice sull’AI generica, uno strumento che fissa regole concrete per la progettazione, la documentazione e il controllo dei grandi modelli linguistici che ormai influenzano la nostra quotidianità: da ChatGPT a Claude, da Gemini a LLaMA.
Questo documento segna un cambio di paradigma per uno dei settori più rivoluzionari – e meno regolati – dell’era digitale, una svolta epocale in un settore caratterizzato da un’assenza di vincoli normativi, aprendo la strada ad una maggiore trasparenza, sicurezza e responsabilità.
Di seguito i punti fondamentali, in sintesi, del Code of Practice.

- Trasparenza strutturale: basta “scatole nere”
I fornitori dei modelli saranno tenuti a compilare una Model Card ufficiale: una scheda tecnica che dovrà illustrare, nero su bianco:
- quali dati sono stati utilizzati per addestrare il modello,
- i suoi limiti e i rischi noti,
- il funzionamento tecnico e applicativo,
- gli ambiti in cui il modello è sconsigliato.
Un modo per aprire le scatole nere dell’AI e restituire comprensibilità e tracciabilità a chi utilizza o regola questi sistemi.
- Diritti d’autore: l’AI non è al di sopra della legge
Per la prima volta, viene introdotto un insieme di regole chiare sul copyright applicato all’AI. Tra i principi fondamentali:
- divieto assoluto di utilizzare contenuti piratati,
- obbligo di rispettare le esclusioni espresse tramite txt o opt-out,
- adozione di policy interne sul copyright con figure responsabili, procedure di reclamo e prevenzione di abusi (come l’output non autorizzato o copiato da opere esistenti).
Un passaggio storico che riconosce il valore della creatività e della proprietà intellettuale anche nell’epoca dell’AI, ponendo un freno agli eccessi di alcuni sviluppatori che finora hanno utilizzato contenuti protetti senza autorizzazione.
- Sicurezza e rischio sistemico: “super modelli”, regole più severe
Per i modelli considerati ad alto impatto sistemico – ovvero quelli con potenza computazionale superiore a 10²⁵ FLOP – il codice prevede una disciplina molto più rigorosa:
- audit indipendenti annuali,
- meccanismi interni per prevenire abusi e fughe di dati,
- analisi di rischio continue, sia in fase di sviluppo che dopo il rilascio,
- obbligo di notifica di incidenti e vulnerabilità all’AI Office europeo.
Per la prima volt viene introdotto un principio di “safety by design” obbligatorio per i modelli AI più avanzati, stabilendo una responsabilità diretta degli sviluppatori nella prevenzione dei rischi.
- Un ponte verso la futura regolamentazione
Il Code of Practice ha natura volontaria, ma chi lo adotta sarà considerato conforme all’AI Act (articoli 53 e 55), godendo quindi di:
- una riduzione degli oneri burocratici,
- maggiore certezza giuridica,
- più fiducia da parte di utenti, aziende e autorità.
È un ponte verso il futuro: queste regole transitorie resteranno in vigore fino all’adozione degli standard europei armonizzati, prevista tra il 2026 e il 2027. Con il Code of Practice l’Europa si posiziona ancora all’avanguardia mondiale nella governance dell’Intelligenza artificiale.
* New Media Lawyer, A.L. Chief Information Officer, IICUAE Certified Advisor #AlterEgoGPT founder

LMF green
Mente e denaro
Sala Stampa