Le nuove regole sull’AI Act. Intelligenza Artificiale sì, ma nel rispetto dei cittadini

-
- Advertising -

Lo scorso 9 dicembre 2023 Parlamento e Consiglio Europeo hanno raggiunto lo storico accordo che prevede nuove regole sull’AI Act, la legge europea che regolamenta l’intelligenza artificiale con una sfida ambiziosa: stimolare innovazione e tecnologia tutelando sicurezza, privacy e diritti dei cittadini. La Commissione europea ha inoltre stanziato 84 milioni di euro per lo sviluppo della ricerca in tecnologia e cybersicurezza.

Roberta Ammendola ne ha parlato sulla RAI il 10 gennaio durante la puntata di Casa Italia: ospiti Daniele Chieffi, giornalista e co-founder di BiWise, Luca Sambucci, esperto in AI e Cybersecurity, Giovanna Botteri, corrispondente Rai dalla sede di Parigi e Donato Bendicenti, corrispondente Rai dalla sede di Bruxelles. Qui il link alla puntata

- Advertising -

Proposta europea per un quadro giuridico sull’Intelligenza Artificiale

La Commissione europea mira ad affrontare i rischi generati da usi specifici dell’Intelligenza Artificiale attraverso una serie di norme complementari, proporzionate e flessibili. Queste regole forniranno inoltre all’Europa un ruolo guida nella definizione del gold standard globale. Il quadro delineato offre agli sviluppatori, agli operatori e agli utenti dell’IA la maggior chiarezza possibile, intervenendo solo in quei casi che le normative nazionali e dell’UE esistenti non coprono. Il quadro giuridico per l’Intelligenza Artificiale o AI Act, ha un approccio chiaro e di facile comprensione, basato su quattro diversi livelli di rischio: rischio minimo, rischio elevato, rischio inaccettabile e rischio specifico di trasparenza. Introduce inoltre regole dedicate per i modelli di intelligenza artificiale di uso generale. Qui il link ai documenti originali

Ursula von der Leyen, presidente della Commissione europea, ha dichiarato: “L’intelligenza artificiale sta già cambiando la nostra vita quotidiana. E questo è solo l’inizio. Usata saggiamente e ampiamente, l’intelligenza artificiale promette enormi vantaggi per la nostra economia e società. Accolgo pertanto con grande favore l’accordo politico odierno del Parlamento europeo e del Consiglio sulla legge sull’intelligenza artificiale. L’AI Act dell’UE è il primo quadro giuridico completo sull’intelligenza artificiale a livello mondiale. Quindi, questo è un momento storico. L’AI Act traspone i valori europei in una nuova era. Focalizzando la regolamentazione sui rischi identificabili, l’accordo odierno promuoverà l’innovazione responsabile in Europa. Garantendo la sicurezza e i diritti fondamentali delle persone e delle imprese, sosterrà lo sviluppo, la diffusione e l’adozione di un’IA affidabile nell’UE. La nostra legge sull’intelligenza artificiale darà un contributo sostanziale allo sviluppo di regole e principi globali per un’intelligenza artificiale incentrata sull’uomo”.

- Advertising -

Le categorie di rischio

Rischio minimo: la stragrande maggioranza dei sistemi di intelligenza artificiale rientra nella categoria del rischio minimo. Le applicazioni a rischio minimo come i sistemi di raccomandazione abilitati all’intelligenza artificiale o i filtri antispam beneficeranno di un pass gratuito e dell’assenza di obblighi, poiché questi sistemi presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini. Su base volontaria, le aziende possono tuttavia impegnarsi ad adottare ulteriori codici di condotta per questi sistemi di IA.

Alto rischio: i sistemi di IA identificati come ad alto rischio dovranno rispettare requisiti rigorosi, tra cui sistemi di mitigazione del rischio, alta qualità dei set di dati, registrazione delle attività, documentazione dettagliata, informazioni chiare sugli utenti, supervisione umana e un alto livello di robustezza, accuratezza e sicurezza informatica. I sandbox normativi faciliteranno l’innovazione responsabile e lo sviluppo di sistemi di intelligenza artificiale conformi.

Esempi di tali sistemi di IA ad alto rischio includono alcune infrastrutture critiche, ad esempio nei settori dell’acqua, del gas e dell’elettricità; dispositivi medici; sistemi per determinare l’accesso alle istituzioni educative o per il reclutamento delle persone; o determinati sistemi utilizzati nei settori dell’applicazione della legge, del controllo delle frontiere, dell’amministrazione della giustizia e dei processi democratici. Inoltre, anche i sistemi di identificazione biometrica, categorizzazione e riconoscimento delle emozioni sono considerati ad alto rischio.

Rischio inaccettabile: i sistemi di intelligenza artificiale considerati una chiara minaccia ai diritti fondamentali delle persone saranno vietati. Sono inclusi sistemi o applicazioni di intelligenza artificiale che manipolano il comportamento umano per eludere il libero arbitrio degli utenti, come giocattoli che utilizzano l’assistenza vocale che incoraggiano comportamenti pericolosi di minori o sistemi che consentono il “punteggio sociale” da parte di governi o aziende e alcune applicazioni di polizia predittiva. Inoltre, saranno vietati alcuni usi dei sistemi biometrici, ad esempio i sistemi di riconoscimento delle emozioni utilizzati sul posto di lavoro e alcuni sistemi per la categorizzazione delle persone o l’identificazione biometrica remota in tempo reale per scopi di contrasto in spazi accessibili al pubblico (con limitate eccezioni).

Rischio specifico per la trasparenza: quando si utilizzano sistemi di intelligenza artificiale come i chatbot, gli utenti dovrebbero essere consapevoli che stanno interagendo con una macchina. I deep fake e altri contenuti generati dall’intelligenza artificiale dovranno essere etichettati come tali e gli utenti dovranno essere informati quando vengono utilizzati sistemi di categorizzazione biometrica o di riconoscimento delle emozioni. Inoltre, i fornitori dovranno progettare sistemi in modo tale che il contenuto sintetico di audio, video, testo e immagini sia contrassegnato in un formato leggibile dalla macchina e rilevabile come generato o manipolato artificialmente.