a

Intelligenza artificiale e diritti umani: un rapporto problematico

Dic 21 2020
Arianna Maviglia
L’Unione Europea ha lanciato l’allarme: settori come quelli sanitario, legale e militare sono troppo esposti a possibili violazioni dei diritti fondamentali derivanti dall’utilizzo dei nuovi strumenti tecnologici, compresi i sistemi basati sull’AI. Per correre ai ripari è stata avanzata la proposta di creare un quadro normativo più chiaro e strutturato che consenta di trovare il necessario equilibrio fra etica e progresso.
Alcune applicazioni dell'intelligenza artificiale sollevano il problema di un equilibrio fra progresso ed etica (fonte: profilo Instagram del Parlamento europeo)



diritti umani intelligenza artificiale
diritti umani intelligenza artificiale
diritti umani intelligenza artificiale
diritti umani intelligenza artificiale
Alcune applicazioni dell’intelligenza artificiale sollevano il problema di un equilibrio fra progresso ed etica (Fonte: profilo Instagram del Parlamento europeo)

Come disse una volta il filosofo Umberto Galimberti, “con la tecnica gli uomini possono ottenere da sé quello che un tempo chiedevano agli dèi”. Ma il progresso tecnologico, di cui l’intelligenza artificiale (AI) rappresenta uno dei più potenti sviluppi, può talvolta sollevare problemi di natura etica, in particolare nell’ottica della tutela dei diritti dell’uomo. A sostenerlo è un recente rapporto dell’Agenzia dell’Unione Europea per i diritti fondamentali (FRA), nel quale si evidenzia la necessità di un intervento normativo a livello continentale che disinneschi i pericoli, attuali e potenziali, in questo delicato settore.
Il tema non è nuovo per l’UE, dotatasi nel giugno 2020 di un organismo ad hoc, la commissione speciale sull’intelligenza artificiale (AIDA – Artificial Intelligence in a Digital Age), con lo scopo di delineare un percorso comune nell’approccio alle sfide nascenti dalle nuove tecnologie.

L’Agenzia per i diritti fondamentali teme un impatto negativo dei nuovi mezzi tecnologici sulla privacy dei cittadini, sulla trasparenza e protezione dei dati e sul rispetto stesso dei diritti umani. Con il recente rapporto sull’intelligenza artificiale, l’Agenzia auspica una presa di posizione netta da parte delle istituzioni europee e degli stati membri, sottolineando come l’AI debba essere orientata in modo non solo da rispettare i diritti umani, ma anche di proteggerli e rafforzarli.

Logo della FRA (fonte: profilo Facebook della FRA)
Logo della FRA (fonte: profilo Facebook della FRA)
I tre settori a rischio secondo la European Union Agency for Fundamental Rights

Come emerge dal rapporto, tre sono i settori considerati maggiormente a rischio: l’ambito legale, quello sanitario e quello militare.
Nel settore legale, il timore è quello di un contatto sempre meno umano con la realtà e di una automatizzazione eccessiva dei sistemi giuridici. Le autorità pubbliche fanno in parte affidamento sull’intelligenza artificiale per prendere decisioni, tuttavia questo non deve significare che le macchine prenderanno il posto della capacità di giudizio umana e si innalzeranno a giudici. Nel documento viene infatti sottolineato come l’intelligenza artificiale non possa sostituire o eguagliare le capacità cognitive umane, aggiungendo che “la decisione finale deve essere presa da un essere umano a seguito di un giusto processo”.

Nell’ambito sanitario, il tema della privacy e della trasparenza nella gestione e diffusione dei dati dei pazienti è fondamentale. I relativi archivi, a causa della mole di dati raccolti e dell’alto tasso di consultazione, rendono questo settore ad elevato rischio di attacchi hacker. Il tema è diventato ancor più delicato a seguito della pandemia di CoVid-19.

Nell’ambito militare, il documento delinea un quadro allarmante circa il pericolo costituito dall’intelligenza artificiale se questa non è controllata dall’uomo. Gli eurodeputati hanno infatti dichiarato che “l’intelligenza artificiale non può sostituire la mente umana e la sua capacità intrinseca di giudizio”, e hanno richiesto che sistemi come le armi autonome letali (Lethal Autonomous Weapons – LAWs) vengano considerati legali solo se soggetti al controllo umano.

Tecnicamente, le LAWs sono in grado di identificare, prendere di mira una persona e ucciderla senza la necessità di un intervento umano, quindi, potenzialmente, senza un previa autorizzazione a farlo. Tali sofisticati sistemi rappresentano una grave minaccia alla comunità civile, minaccia di cui le aziende produttrici e grandi istituzioni quali l’ONU e l’UE si stanno occupando.
L’Unione Europea aveva affrontato la questione approvando la Risoluzione del Parlamento Europeo del 12 settembre 2018 sui sistemi d’arma autonomi, e oggi torna a discutere della questione.

È necessario il controllo umano sui sistemi basati sull’AI

Nel portare avanti la loro argomentazione circa le gravi minacce dell’intelligenza artificiale nel contesto militare, gli eurodeputati si sono appellati a regolamentazioni già esistenti e in vigore, regole che sanciscono l’importanza di un significativo controllo umano sui sistemi basati sull’AI con lo scopo di prevenire violazioni umanitarie. La presenza umana permette inoltre di disattivare il sistema in caso di comportamento inconsueto o potenzialmente pericoloso, e quindi di prevenire gravi incidenti altrimenti non riparabili.

Il monitoraggio da parte dell'uomo è fondamentale per prevenire violazioni dei diritti umani derivanti dall'impiego di potenti strumenti tecnologici come l'intelligenza artificiale (fonte: profilo Facebook della FRA)


diritti umani intelligenza artificiale
Il monitoraggio da parte dell’uomo è fondamentale per prevenire violazioni dei diritti umani derivanti dall’impiego di potenti strumenti tecnologici come l’intelligenza artificiale (Fonte: profilo Facebook della FRA)

Micheal O’Flaherty, direttore dell’Agenzia dell’Unione Europea per i diritti fondamentali, ha affermato che l’UE “deve chiarire come le norme vigenti debbano essere applicate all’intelligenza artificiale”, mettendo inoltre in evidenza il ruolo chiave delle organizzazioni pubbliche e private nel valutare in che modo le proprie tecnologie interferiscono con i diritti degli individui sia a livello di sviluppo sia a livello dell’utilizzo dell’IA. Lo sforzo, conclude, non deve essere circoscritto all’Unione Europea. Si spera in una partecipazione attiva da parte di enti come l’ONU e dell’intera comunità internazionale, con il proposito di tracciare una linea guida comune.

L’obiettivo e l’auspicio sono quelli di sviluppare un sistema di tutela legale a livello globale in grado di affrontare tali questioni etiche e giuridiche in maniera chiara e definitiva, e, contemporaneamente, di tracciare un confine comune da non superare per poter trovare il giusto e necessario equilibrio tra progresso ed etica.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *