Siamo a Natale. A che punto siamo con la sicurezza dei giocattoli in Europa? E l’intelligenza artificiale?
La revisione della sicurezza dei giocattoli in UE: l’intelligenza artificiale resta un punto debole della norma
Nel 2025 l’Unione europea ha aggiornato la normativa sulla sicurezza dei giocattoli, trasformando in Regolamento (UE) 2025/2509 la disciplina che finora era affidata alla Direttiva 2009/48/CE (in vigore dal 2009). Il nuovo testo, pubblicato nella Gazzetta Ufficiale dell’Unione il 12 dicembre 2025, è destinato a diventare il quadro giuridico comune per tutti gli Stati membri, con piena applicazione prevista dal 1° agosto 2030, dopo un periodo transitorio di circa quattro anni e mezzo per consentire l’adeguamento delle imprese e delle autorità di mercato.

Che cosa cambia davvero
Le novità introdotte sono molte e riguardano soprattutto sicurezza chimica, tracciabilità e controlli sul mercato. Tra i principali aggiornamenti:
l’estensione dei divieti di sostanze pericolose nei giocattoli, che ora includono interferenti endocrini, PFAS e tipi pericolosi di bisfenoli, oltre ai già vietati agenti carcinogeni, mutageni e tossici per la riproduzione;
l’introduzione del digital product passport (DPP): ogni giocattolo dovrà avere un passaporto digitale con informazioni sulla conformità alle norme, accessibile ad autorità e consumatori tramite QR code o altri mezzi elettronici;
nuovi obblighi per operatori economici, marketplace online e fornitori di servizi logistici per garantire che i prodotti immessi sul mercato siano sicuri. (fonte: Compliance & Risks)
Queste innovazioni rispondono a problemi concreti: secondo l’industria europea dei giocattoli, nel 2025 una vasta maggioranza di giocattoli per bambini venduti online attraverso piattaforme globali come Temu, Shein o Amazon presentava rischi significativi per la sicurezza, dal rischio di soffocamento a materiali tossici. Secondo il Financial Times questo apetto evidenziava come una normativa più stringente fosse urgente.
E l’intelligenza artificiale?
Nonostante l’aggiornamento sia stato motivato anche dalla crescita dei giocattoli “intelligenti” o digitali, la nuova regolazione non contiene disposizioni dettagliate specifiche per l’IA nei giocattoli, né obblighi di valutazione degli algoritmi o limiti d’età riferiti all’uso di sistemi di intelligenza artificiale. A livello normativo la regolazione si concentra infatti innanzitutto sulla sicurezza fisica e chimica, sulla tracciabilità e sulla conformità tecnica del prodotto, ma tratta solo in forma generica i “rischi digitali” (come quelli di cybersecurity o di protezione dei dati) senza specifiche regole sugli algoritmi o contenuti intelligenti.
Questa lacuna normativa è percepita come un elemento critico da parte di osservatori internazionali: come raccontato da The Guardian, negli Stati Uniti gruppi per la tutela dei consumatori hanno segnalato casi di giocattoli AI con comportamenti inappropriati o potenzialmente dannosi e hanno chiesto una regolamentazione più stringente per questi prodotti.
Normativa in Italia
In Italia la normativa sulla sicurezza dei giocattoli, a oggi, si basa sulla trasposizione della Direttiva UE 2009/48/CE e sulle norme tecniche armonizzate della serie EN 71, recepite dall’UNI come standard essenziali per la marcatura CE e la conformità ai requisiti di sicurezza fisica e chimica.
Con l’entrata in vigore del Regolamento UE 2025/2509, il nuovo testo si applicherà direttamente in tutti gli Stati membri UE, Italia inclusa, senza necessità di recepimento nazionale. Tuttavia, fino alla data di applicazione prevista del 1° agosto 2030 la normativa italiana continua a fare riferimento alla disciplina vigente, integrata dalle norme tecniche e dai controlli di mercato previsti dal legislatore europeo e nazionale.
Limiti e prospettive
Il passaggio da direttiva a regolamento rappresenta un passo avanti significativo per uniformare e rafforzare la sicurezza dei giocattoli nell’Unione: soprattutto per la tracciabilità digitale e la protezione da sostanze chimiche pericolose. Tuttavia, la quasi totale assenza di riferimenti specifici all’intelligenza artificiale, malgrado lo sviluppo rapido di giocattoli con capacità conversazionali e comportamentali basate su AI, indica che il legislatore europeo ha preferito limitarsi a norme generali sulla sicurezza digitale piuttosto che disciplinare direttamente l’IA applicata ai prodotti per l’infanzia.
Per colmare questa lacuna, organismi internazionali, associazioni di consumatori e esperti di sicurezza, come riferisce The Guardian, chiedono l’adozione di standard di valutazione dedicati, trasparenza sugli algoritmi e meccanismi di controllo indipendenti, soprattutto in un mercato in cui i dispositivi intelligenti destinati a bambini e adolescenti sono in rapido aumento e sollevano questioni di protezione dei dati, dipendenza tecnologica e sviluppo cognitivo.

LMF green
Mente e denaro
Sala Stampa