Nuova tutela del diritto d’immagine in Danimarca, basta deepfake. Cosa cambia rispetto alle regole Ue

-

Il parlamento di Copenaghen prepara una tutela inedita: diritti “tipo copyright” su volto, voce e corpo contro i deepfake. Come si inserisce e come supera AI Act, DSA e GDPR

La Danimarca ha avviato l’iter per una legge che, per la prima volta in Europa, riconosce ai cittadini un diritto simile al copyright sulla propria immagine, voce e caratteristiche fisiche quando vengono imitate in modo realistico dall’AI. Il governo aveva annunciato l’intervento a fine giugno, con un ampio accordo politico tra maggioranza e opposizioni; il testo finale è atteso in Parlamento entro l’autunno, visto l’accordo politico raggiunto il 10 agosto di quest anno. In concreto, la norma darebbe a chiunque (non solo a personaggi noti) il potere di chiedere la rimozione di deepfake non consensuali e di chiedere un risarcimento; resterebbero esenzioni per satira e parodia. Se approvata, sarebbe la prima legge europea di questo tipo.

Il cuore della proposta è semplice: trasformare la “somiglianza” (volto, voce, corpo) in un bene giuridico autonomo e azionabile quando viene riprodotta digitalmente senza consenso. L’impianto si innesta sull’ordinamento danese del diritto d’autore, ma non pretende di disciplinare tutto da sola la responsabilità delle piattaforme: per l’enforcement, infatti, la Danimarca richiama il quadro Ue del Digital Services Act (DSA), che già prevede sanzioni fino al 6% del fatturato globale per i grandi intermediari che non rimuovono contenuti illegali dopo segnalazione. La novità danese sarebbe quindi un “gancio” legale per qualificare i deepfake non consensuali come illeciti da rimuovere rapidamente, con rimedi diretti in capo alla persona offesa.

Cosa fa già l’Europa (e cosa non fa)

L’AI Act introduce obblighi di trasparenza per i sistemi che generano contenuti sintetici: i deepfake devono essere etichettati come artificiali; per i modelli generali (GPAI) sono previste misure di rilevabilità dei contenuti (es. watermarking) e regole attuative in arrivo. Ma l’AI Act, da solo, non dà alla singola persona un diritto esplicito e uniforme a ordinare la rimozione del deepfake che la riguarda: stabilisce doveri per chi sviluppa/usa l’AI, non crea un “diritto alla somiglianza”.

Il DSA, come detto, colpisce la mancata rimozione dei contenuti illegali e impone ai grandi intermediari obblighi di valutazione dei rischi e procedure di notice-and-action. Tuttavia, il DSA non definisce cosa sia “illegale”: serve sempre una base di diritto sostanziale (penale o civile) per qualificare quel contenuto come illecito. Qui si capirebbe la portata danese: trasformare il deepfake non consensuale in violazione di un nuovo diritto soggettivo chiaramente tipizzato.

Infine, il GDPR protegge i dati biometrici (immagini del volto, voce) come dati sensibili, e consente la cancellazione (art. 17) in diversi casi; resta però una tutela privacy-centrica, non un diritto d’autore sulla somiglianza. La rimozione, in pratica, passa per la prova di un trattamento illecito di dati personali, strada efficace ma non sempre rapida o uniforme per i deepfake più “creativi”.

Cosa cambierebbe con la legge danese

Se l’AI Act chiede ai fornitori di etichettare i contenuti sintetici e il DSA obbliga le piattaforme a gestire e togliere gli illeciti, la proposta danese crea un titolo giuridico nuovo a disposizione di ciascun cittadino per agire direttamente contro chi diffonde imitazioni realistiche della sua identità. La protezione coprirebbe anche performance digitali degli artisti, con un regime speciale; e, pur salvaguardando satira e parodia, offrirebbe una via rapida per takedown e danni civili. Il governo ha presentato l’iniziativa come un primo passo europeo e ha raccolto una larga convergenza politica dopo casi che hanno acceso l’opinione pubblica.

Da tenere a mente lo stato dell’iter: al 10 agosto 2025 parliamo di accordo politico e proposta; l’approvazione finale è attesa tra fine 2025 e inizio 2026. Vari osservatori notano anche i limiti giurisdizionali: la rimozione vale per piattaforme soggette a DSA o con presenza in Ue; copie ospitate fuori da tali ambiti potrebbero sfuggire, pur attenuandosi il danno grazie all’effetto rete dei grandi intermediari.

Perché interessa l’Italia (e gli altri Paesi Ue)

Nell’Unione non esiste un vero “diritto alla somiglianza” armonizzato: ogni Paese combina diritto all’immagine e privacy con sfumature diverse. L’approccio danese potrebbe diventare un modello: un diritto unitario, azionabile e cross-platform, che si appoggia al DSA per l’enforcement e si complementa con AI Act (etichettatura/rilevabilità) e GDPR (tutela dati). È un tassello che manca oggi a Bruxelles: il quadro Ue obbliga i produttori di AI e spinge le piattaforme alla gestione del rischio, ma non tipizza in modo uniforme i rimedi individuali contro i deepfake identitari.

In prospettiva, due i punti di attenzione: 1) bilanciamento con libertà di espressione e eccezioni giornalistiche/satiriche, già previste in Danimarca; 2) coordinamento con il diritto d’autore tradizionale e i diritti dei fotografi/videomaker, per evitare conflitti quando opere lecite ritraggono persone in contesti di interesse pubblico. Il dibattito europeo su watermarking e provenance (obblighi AI Act) resta cruciale per rendere tecnicamente tracciabile il contenuto sintetico e accelerare le decisioni di rimozione.

Cosa c’è davvero di “rivoluzionario”

La proposta danese non sostituisce AI Act, DSA e GDPR: li completa colmando un vuoto molto concreto: il diritto individuale a difendere la propria identità digitale contro imitazioni realistiche, con takedown e danni chiari, e uno standard nazionale pensato per scalare a livello Ue. Se Copenaghen farà da apripista, Bruxelles potrebbe trovarsi presto davanti alla scelta di europeizzare il modello, trasformando il “tu sei la tua proprietà intellettuale” in un diritto comune dei cittadini europei.