AI Act: La Normativa Europea sull’Intelligenza Artificiale

Rate this post

L’Unione Europea ha affrontato il tema delle nuove tecnologie e in particolare l’uso dell’Intelligenza Artificiale. Scopriamo che cos’è l’AI Act la normativa sull’Intelligenza artificiale.

 

Che cos’è l’AI Act: La normativa sull’intelligenza artificiale

Le innovazioni tecnologiche storicamente influenzano il modo di vivere delle persone. Ecco perché l‘Unione Europea ha deciso di affrontare le nuove sfide poste dall’intelligenza artificiale emanando l’AI Act: la normativa sull’intelligenza artificiale. È stata approvata il 9 dicembre 2023 dalla Commissione, dal Consiglio e dal Parlamento Europeo. Si tratta di una tematica molto delicata anche perché affronta questioni di natura sociale oltre che tecnologica. L’AI se da un lato permette di avere indiscutibili vantaggi per quanto riguarda la gestione dei servizi sanitari e dei trasporti rendendo il tutto più sostenibile, dall’altro lato presenta dei rischi. La normativa vuole proteggere e tutelare i cittadini attraverso una graduale introduzione nella quotidianità. In realtà questo processo è iniziato nel giugno 2018 con raccomandazioni individuate da un gruppo di esperti. Si è quindi giunti all’AI Act per garantire un utilizzo etico e sicuro dello strumento.

 

Cosa prevede l’AI ACT

Sono diversi i temi affrontati nella normativa tra cui l’opportunità di garantire un utilizzo di sistemi basati sull’intelligenza artificiale in maniera sicuratracciabile e trasparente. Inoltre, va rispettato l’ambiente ed evitata qualsiasi forma di discriminazione. Il nocciolo della questione riguarda però il controllo umano. La Commissione Europea ha voluto rimarcare attraverso questo testo di legge che i sistemi sviluppati siano sottoposti alla supervisione umana per evitare rischi e danni. La palla viene poi lanciata alle aziende che avranno l’opportunità e il dovere di sviluppare prodotti basati sull’uso dell’AI a patto che questi rispettino i diritti fondamentali dell’uomo e non siano pericolosi.

 

Il concetto di risk-based

L’UE si è occupata per prima della gestione e definizione dei limiti entro i quali utilizzare l’AI. Tra l’altro, nello stesso progetto di legge sono stati introdotti altri concetti molto importanti ossia gli obblighi differenziati rispetto al livello di rischio. L’organissmo ha riconosciuto un rischio inaccettabile quando questi sistemi costituiscono una minaccia concreta per la popolazione. La tematica è molto complessa e articolata perché i rischi possono essere di natura comportamentale, sociale e biometrica. C’è poi un livello di rischio alto quando tali tecnologie possono influenzare in maniera negativa i diritti fondamentali e la sicurezza. Infine c’è il rischio limitato. Questo è il caso in cui c’è una problematica inerente alla trasparenza ossia gli utenti devono poter prendere decisioni avendo contezza di quello che sta per accadere.