AI ACT EU – Cosa prevede la prima normativa internazionale sull’Intelligenza Artificiale

Dic 11 2023
a cura della Redazione
Il Parlamento Europeo (MEPs) ha raggiunto un accordo politico con il Consiglio sul disegno di legge che garantire l’uso dell’intelligenza artificiale in Europa in modo sicuro, rispettando i diritti fondamentali e la democrazia, favorendo nel contempo l’utilizzo nel business.
Immagine da EU Artificial Intelligence Act.
Immagine da EU Artificial Intelligence Act.

Venerdì 8 dicembre, i negoziatori del Parlamento e del Consiglio hanno raggiunto un accordo provvisorio sull’Artificial Intelligence Act (AI Act). Questo regolamento mira a garantire che i diritti fondamentali, la democrazia, la rule of law e la sostenibilità ambientale siano sempre garantiti e protetti nell’utilizzo dell’IA, promuovendo al contempo l’innovazione e rendendo l’Europa leader nel settore. Le norme stabiliscono obblighi per l’IA in base ai rischi potenziali e al livello di impatto.

Il testo concordato dovrà ora essere adottato formalmente sia dal Parlamento che dal Consiglio per diventare legge dell’UE. Le Internal Market and Civil Liberties del Parlamento voteranno sull’accordo in una prossima riunione.

Applicazioni vietate

Riconoscendo la potenziale minaccia ai diritti dei cittadini e alla democrazia rappresentata da alcune applicazioni dell’IA, i colegislatori hanno convenuto di vietare determinate applicazioni:

• sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza);

• raccolta non mirata di immagini facciali da Internet o filmati CCTV per creare database di riconoscimento facciale;

• riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative;

• social scoring basato sul comportamento o sulle caratteristiche personali;

• sistemi di intelligenza artificiale che manipolano il comportamento umano per scavalcare il libero arbitrio;

• intelligenza artificiale utilizzata per sfruttare le vulnerabilità delle persone (a causa della loro età, disabilità, situazione sociale o economica).

Esenzioni delle forze dell’ordine

I negoziatori hanno altresì concordato una serie di garanzie ed eccezioni limitate per l’uso dei sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico per scopi relativi all’applicazione della legge, soggetti a previa autorizzazione giudiziaria e per categorie di reati rigorosamente definiti. Il “Post-remote” RBI verrebbe utilizzato rigorosamente nella ricerca mirata di una persona dichiarata colpevole o sospettata di aver commesso un reato grave.

Il “Real-time” RBI rispetterebbe condizioni rigorose e il suo utilizzo sarebbe limitato nel tempo e nel luogo, allo scopo di:

• ricerche mirate delle vittime (sequestro, traffico, sfruttamento sessuale),

• prevenzione di una minaccia terroristica specifica e attuale, oppure

• la localizzazione o l’identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nella norma (ad esempio terrorismo, traffico, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reati ambientali).

Obblighi per i sistemi ad alto rischio

Per i sistemi di IA classificati come ad alto rischio (a causa del loro significativo potenziale danno alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e alla rule of law), sono stati concordati obblighi chiari. Gli eurodeputati sono riusciti con successo a includere, tra gli altri requisiti, una valutazione d’impatto obbligatoria sui diritti fondamentali, applicabile anche ai settori assicurativo e bancario.
Allo stesso modo i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori sono classificati come ad alto rischio. I cittadini avranno, infatti, il diritto di presentare reclami sui sistemi di intelligenza artificiale e ricevere spiegazioni sulle decisioni basate su sistemi IA ad alto rischio che incidono sui loro diritti.

Guardrail per sistemi generali di intelligenza artificiale

Per tenere conto dell’ampia gamma di compiti che i sistemi di intelligenza artificiale possono svolgere e della rapida espansione delle loro capacità, si è concordato che i sistemi IA per scopi generali (GPAI) e i modelli GPAI su cui si basano dovranno aderire ai requisiti di trasparenza, come inizialmente proposto dal Parlamento. Questi includono la stesura di documentazione tecnica, il rispetto della normativa UE sui diritti d’autore e la diffusione di riepiloghi dettagliati sui contenuti utilizzati per la formazione.

Per i modelli GPAI ad alto impatto con rischio sistemico, i negoziatori del Parlamento sono riusciti a garantire obblighi più rigorosi. Se questi modelli soddisfano determinati criteri, dovranno condurre valutazioni dei modelli, valutare e mitigare i rischi sistemici, condurre test contraddittori, segnalare alla Commissione incidenti gravi, garantire la sicurezza informatica e riferire sulla loro efficienza energetica. I MEPs hanno inoltre insistito sul fatto che, fino a quando non verranno pubblicate norme UE armonizzate, le GPAI con rischio sistemico potranno fare affidamento su codici di condotta per conformarsi al regolamento.

I lead MEPs Brando Benifei (S&D, Italia) e Dragos Tudorache (Renew, Romania). (Fonte: European Union)
I lead MEPs Brando Benifei (S&D, Italia) e Dragos Tudorache (Renew, Romania). (Fonte: European Union)
Misure a sostegno dell’innovazione e delle PMI

L’obiettivo dei MEPs è stato quello garantire che le imprese, in particolare le PMI, possano sviluppare soluzioni di intelligenza artificiale senza indebite pressioni da parte dei giganti del settore che controllano la catena del valore. A tal fine, l’accordo promuove i cosiddetti sandbox normativi e real-world-testing, istituiti dalle autorità nazionali per sviluppare e formare un’intelligenza artificiale innovativa prima del collocamento sul mercato.

Sanzioni

Il mancato rispetto delle norme può portare a sanzioni che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda.

Dichiarazioni

I lead MEPs Brando Benifei (S&D, Italia) e Dragos Tudorache (Renew, Romania), il Segretario di Stato per la digitalizzazione e l’intelligenza artificiale Carme Artigas e il commissario Thierry Breton hanno tenuto una conferenza stampa congiunta dopo i negoziati.

A seguito dell’accordo, Brando Benifei (S&D, Italia) ha dichiarato: “È stato lungo e intenso, ma ne è valsa la pena. Grazie alla resilienza del Parlamento europeo, la prima legislazione orizzontale al mondo sull’intelligenza artificiale manterrà la promessa europea, garantendo che i diritti e le libertà siano al centro dello sviluppo di questa tecnologia innovativa. La corretta attuazione sarà fondamentale: il Parlamento continuerà a vigilare per garantire il sostegno a nuove idee imprenditoriali con sandbox e regole efficaci per i modelli più potenti”.

Dal canto suo Dragos Tudorache (Renew, Romania) ha affermato: “L’UE è la prima al mondo a mettere in atto una solida regolamentazione sull’intelligenza artificiale, guidandone lo sviluppo e l’evoluzione in una direzione incentrata sull’uomo. La legge sull’intelligenza artificiale stabilisce norme per modelli di intelligenza artificiale grandi e potenti, garantendo che non presentino rischi sistemici per l’Unione e offre solide garanzie per i nostri cittadini e le nostre democrazie contro eventuali abusi della tecnologia da parte delle autorità pubbliche. Protegge le nostre PMI, rafforza la nostra capacità di innovare e guidare nel campo dell’intelligenza artificiale e protegge i settori vulnerabili della nostra economia. L’Unione Europea ha dato un contributo impressionante al mondo; l’AI Act è un altro atto che avrà un impatto significativo sul nostro futuro digitale”.

L’articolo originale è consultabile qui.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *