Il Regolamento europeo sull’IA: la prima legge nel suo genere al mondo

-
- Advertising -

Approvato nel marzo 2024 con l’obiettivo di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, sarà pienamente applicabile dopo 24 mesiTuttavia, alcune disposizioni specifiche avranno date di applicazione diverse, come i divieti relativi a sistemi di IA con un livello di rischio inaccettabile, che saranno applicabili a partire da 6 mesi dopo l’entrata in vigore, o le previsioni relative ai modelli GPAI già presenti sul mercato, per i quali è previsto un termine di 12 mesi per garantire la conformità a quanto previsto nel Regolamento

L’AI Act promuove nel contempo l’innovazione con l’intento di assicurare all’Europa un ruolo guida nel settore. Il regolamento stabilisce obblighi per l’IA sulla base dei possibili rischi e del livello d’impatto.

- Advertising -

Applicazioni vietate

Le nuove norme mettono fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.

- Advertising -

Eccezioni per le forze dell’ordine

In linea di principio le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L’identificazione “in tempo reale” potrà essere utilizzata solo se saranno rispettate garanzie rigorose, ad esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, ad esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato.

Il parere dell’eurodeputato Brando Benifei

Il Regolamento europeo sull’Intelligenza artificiale è la prima legge nel suo genere al mondo, di cui sono relatore per il Parlamento insieme al collega di Renew Europe Dragos Tudorache. Il Regolamento si basa sul livello di rischio, con obblighi graduati in base a esso, dalle pratiche inaccettabili, agli usi ad alto rischio, quelli che necessitano di trasparenza (come chatbot, AI generative e deepfakes) e quelli a basso rischio, regolati da principi generali.

La sfida più complessa, vista l’orizzontalità del tema, che tocca tutti i settori dell’economia ma anche i nostri valori fondamentali, è quella di trovare il giusto equilibrio tra la promozione dell’innovazione e della competitività delle imprese europee che sviluppano o utilizzano sistemi di intelligenza artificiale, e un’adeguata protezione dei diritti e delle libertà fondamentali dei cittadini. Senza le adeguate tutele, non si creerà infatti la necessaria fiducia da parte dei cittadini e consumatori, e quindi il mercato europeo dell’IA rischia di restare limitato. Dobbiamo assolutamente evitare gli abusi, dalla privacy alle discriminazioni, alla stessa violazione della dignità umana, che purtroppo queste tecnologie possono consentire, se usate nel modo sbagliato.

Un punto fermo del mio lavoro è il rifiuto di una società della sorveglianza, per la quale non ci deve essere posto in Europa, oltre a un’attenzione particolare ai diritti dei lavoratori. Negli ultimi mesi gli sviluppi nel campo dell’IA sono stati molto veloci e sostanziali: per questo nel regolamento abbiamo inserito un capitolo sull’IA per scopi generali e, in particolare sui modelli fondazionali che, vista la loro potenza, saranno più regolamentati e avranno obblighi di buona progettazione, governance dei dati, documentazione tecnica, ecc. In particolare, l’IA generativa (come GPT, Dall-E e simili) dovrà essere progettata in modo da ridurre al minimo la generazione di contenuti illegali e rivelare l’uso di materiale protetto da copyright per addestrare il modello.

Il voto finale della plenaria del Parlamento, con 499 voti a favore, 28 contrari e 93 astensioni è un successo che mi rende orgoglioso e che renderà il mandato del Parlamento molto più forte, grazie alla grandissima maggioranza raggiunta.