AI ACT: il Parlamento Europeo ha dato il via libera
AI ACT approvato dal Parlamento Europeo
Avv. Giuseppe Imbergamo, Avv. Tania Rea
Indice
- Introduzione
- A cosa e a chi si applica la nuova legge?
- Le nuove norme riguardano tutte le aziende e gli enti pubblici che forniscono o utilizzano sistemi di AI in Europa.
- L’approccio basato sul rischio e i sistemi vietati
- Sanzioni
Introduzione
È ufficiale: l’Unione Europea è la prima istituzione politica al mondo a dotarsi di regole sull’intelligenza artificiale.
L’obiettivo dell’UE è di promuovere l’innovazione garantendo i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai possibili rischi derivanti dall’utilizzo della stessa.
Tutto è iniziato ad aprile 2021 con la proposta della Commissione, seguita poi dalle posizioni di Consiglio (dicembre 2022) e Parlamento (giugno 2023). Lo scorso 9 dicembre è stato raggiunto l’accordo politico sul testo e subito dopo sono partiti i lavori di rifinitura in vista delle votazioni finali.
Il Parlamento europeo ieri, (13 marzo) ha approvato il cosiddetto “Ai Act”. Il via libera del testo in plenaria è arrivato ad ampia maggioranza: 523 voti favorevoli, 46 contrari e 49 astenuti.
L’obiettivo è stato dunque raggiunto in tempi rapidi, con un testo attualmente composto da 113 articoli e 12 allegati, anche se l’adozione formale avverrà in seduta plenaria ad aprile.
A cosa e a chi si applica la nuova legge?
L’AI Act regola lo sviluppo, la fornitura e l’uso di sistemi di IA in tutta Europa. La definizione di «sistema di AI» è quella proposta dall’OCSE: restano quindi esclusi i software tradizionali più semplici e gli approcci di programmazione. Ci saranno anche delle linee guida della Commissione sul punto.
Le nuove norme riguardano tutte le aziende e gli enti pubblici che forniscono o utilizzano sistemi di AI in Europa. Ciò vale anche per chi non ha sede in uno paese europeo, a condizione che l’output del sistema sia usato in Unione Europea.
La legge obbliga poi anche altri soggetti, come importatori e distributori.
Il Regolamento non si applica invece ai sistemi di AI per scopi militari, di difesa o sicurezza nazionale, per finalità di ricerca scientifica e a quelli rilasciati con licenze free e open source (salvo rischio). Allo steso modo, sono escluse anche le attività di ricerca, prova e sviluppo dell’IA e l’uso personale non professionale da parte di singoli individui.
L’approccio basato sul rischio e i sistemi vietati
Il Regolamento classifica i sistemi di AI in base al rischio che potrebbe derivare dal loro utilizzo, graduando di conseguenza requisiti e obblighi.
In particolare, il Regolamento UE prevede un livello orizzontale di protezione degli utenti, con una scala di rischio per regolamentare le applicazioni di intelligenza artificiale su quattro livelli: minimo, limitato, alto e inaccettabile.
I sistemi che presentano un rischio limitato saranno soggetti a obblighi di trasparenza molto leggeri, come la divulgazione del fatto che il contenuto è stato generato dall’intelligenza artificiale.
Per quelli ad alto rischio, invece, è prevista una valutazione dell’impatto sui diritti fondamentali prima dell’immissione sul mercato, compresi l’obbligo a registrarsi nella banca dati UE apposita e la definizione di requisiti sui dati e la documentazione tecnica da presentare per dimostrare la conformità dei prodotti.
In altre parole, maggiore è il rischio, maggiori sono le misure di protezione imposte dall’AI Act. Tuttavia, diversi sono i sistemi vietati.
Innanzitutto, sono vietati i sistemi di categorizzazione biometrica basati sulle caratteristiche sensibili delle persone, quelli che in pratica permettono di estrapolare in maniera indiscriminata immagini di volti da internet o dalle registrazioni delle videocamere a circuito chiuso, con l’obiettivo di creare banche dati utili per il riconoscimento facciale, anche se sono previste alcune eccezioni in casi predeterminati e previa autorizzazione.
Sono usi a rischio inaccettabile, e per questo proibiti, anche i sistemi di polizia predittiva e di social scoring, il riconoscimento delle emozioni nelle scuole e a lavoro e lo scraping di immagini facciali da internet per creare banche dati.
Sanzioni
Infine, per quanto riguarda le sanzioni, qualsiasi persona fisica o giuridica potrà presentare un reclamo all’autorità di vigilanza del mercato competente in merito alla mancata osservanza della legge UE sull’intelligenza artificiale.