AI Act, l’Unione Europea regolamenta l’intelligenza artificiale
Il Parlamento ha approvato un testo a suo modo storico: ecco di cosa si tratta
Questa settimana l’approfondimento di Osservatorio Europa, la rubrica che accompagnerà i lettori de Il Piccolo alle elezioni europee dell’8 e 9 giugno 2024 indagando l’Unione Europea e i suoi temi d’attualità, è dedicato all’intelligenza artificiale e più specificatamente alla recente approvazione da parte del Parlamento Europeo dell’AI Act.
L’approvazione dell’AI Act
Quella di mercoledì 13 marzo 2024 è una data a suo modo storica: si tratta infatti del giorno in cui il Paramento Europeo ha approvato il primo regolamento comunitario sull’intelligenza artificiale.
Il testo ha quindi terminato il lungo iter legislativo europeo, per questo inizia ora il conto alla rovesce per tutte le aziende del settore, che dovranno adeguarsi alle nuove norme dell’Unione Europea.
L’obiettivo principale dell’AI Act è quello di rendere centrale nello sviluppo di queste nuove tecnologie il rispetto e la tutela dei diritti fondamentali e della dignità delle persone. Un passo decisamente innovativo e che costituisce di fatto una base importante anche per le operazioni e le emulazioni future, ma che porta con sé inevitabili critiche, con particolare riguardo al via libera per l’osservazione biometrica di massa da parte delle Forze dell’ordine con possibili situazioni a rischio in diversi Paesi dal conteso illiberale.
A ogni modo, con il voto favorevole dell’organo rappresentativo dell’Unione – che si rinnoverà quest’anno proprio in occasione della tornata elettorale di giugno – l’Ue e i suoi stati membri sono diventati i primi al mondo a dotarsi di una legge in materia di intelligenza artificiale.
OSSERVATORIO EUROPA: LEGGI TUTTI I CONTENUTI
L’ambito di applicazione
Per quanto riguarda le tempistiche, il testo non verrà promulgato prima di maggio 2024, visto che dovrà essere tradotto in 24 lingue e le necessarie correzioni per adattarlo alle normative nazionali richiederanno un’ulteriore voto del Parlamento, previsto per metà aprile, e il via libera del Consiglio dell’Unione europea.
Scopriamo adesso l’ambito di applicazione: il regolamento infatti riguarderà tutti i soggetti, pubblici e privati, all’interno e all’esterno dell’Unione, che producono strumenti a intelligenza artificiale destinati al mercato europeo o il cui uso riguardi persone situate nell’Unione.
E regolamento si rivolge sia ai fornitori che agli utilizzatori dei sistemi a intelligenza artificiale, e allo stesso tempo sarà anche onere degli acquirenti verificare e assicurarsi che il prodotto comprato abbia già passato la procedura di valutazione e conformità prevista, sia provvisto di un marchi di conformità europei e accompagnato dalla documentazione e dalle istruzioni richieste.
Il regolamento non si applica esclusivamente nel caso di attività di ricerca e sviluppo che precedono la vendita, ai sistemi destinati esclusivamente a scopi militari, di difesa o sicurezza nazionale e ai modelli gratuiti e open-source, che non siano modelli di intelligenza artificiale con rischi sistemici.
Il sistema dei rischi
Se si parla di intelligenza artificiale il termine ‘rischio’ si dà quasi per scontato: è proprio sulla classificazione di quattro diverse categorie di rischio che si basa l’architettura che regge l’AI Act: minimo, limitato, alto e inaccettabile.
Maggiore è il rischio, maggiori sono le responsabilità e i limiti per chi sviluppa o usa questi sistemi, fino ad arrivare ai modelli troppo pericolosi per essere autorizzati. Tra le utilizzazioni vietate si trovano:
- le tecnologie subliminali per manipolare i comportamenti delle persone;
- la categorizzazione biometrica che fa riferimento a dai sensibili;
- la raccolta massiccia e illimitata di foto di volti da internet;
- il riconoscimento delle emozioni sul posto di lavoro o a scuola;
- i sistemi di punteggio sociale o social scoring;
- la polizia predittiva, cioè l’uso di dati sensibili per calcolare le probabilità che una persona commetta un reato.
Inoltre, l’AI Act prevede anche che i sistemi di Artificial Intelligence ad alto rischio siano soggetti a una serie di requisiti e obblighi per accedere al mercato dell’Ue, tra i quali:
- adozione di sistemi di gestione dei rischi;
- elevata qualità dei set di dati che alimentano il sistema;
- adozione di documentazione tecnica recante tutte le informazioni necessarie alle autorità per valutare la conformità dei sistemi di Artificial Intelligence ai requisiti;
- conservazione delle registrazioni degli eventi;
- trasparenza e fornitura di informazioni;
- misure di sorveglianza umana;
- adeguati livelli di accuratezza, robustezza, cybersicurezza.
Le tempistiche
Le regole previste dall’AI Act entreranno in vigore a scaglioni. Entro i prossimi sei mesi partiranno i divieti e i soggetti pubblici dovranno compiere valutazioni sull’entità dei rischi posti dai sistemi che stanno usando. Fra un anno sarà il turno delle norme sulle intelligenze artificiali generative, che dovranno rispettare alti standard di trasparenza, sicurezza informatica e condivisione della documentazione tecnica.
Fra due anni, infin, l’AI Act entrerà in vigore per intero, con conseguenti sanzioni per chi non lo rispetta. Le sanzioni partono dall’1,5% del fatturato globale, pari a 7,5 milioni di euro, fino al 7%, pari a 35 milioni di euro.