
Lo scorso 21 aprile la Commissione Europea ha proposto il primo quadro giuridico mai realizzato sull’Intelligenza Artificiale che, combinato con un nuovo piano coordinato con gli Stati membri, garantirà la sicurezza e i diritti fondamentali di persone e imprese, rafforzando contestualmente l’adozione dell’IA e gli investimenti e l’innovazione nel settore in tutta l’UE.
L’obiettivo è lo sviluppo di una tecnologia etica che interpreti l’IA come un mezzo e non come un fine, nella quale l’Europa assuma un ruolo leader ed in cui i cittadini possano riporre una giustificata fiducia.
Un’Intelligenza Artificiale che sia antropocentrica, sostenibile, sicura, inclusiva e affidabile.
Nell’elaborazione del quadro giuridico, la Commissione ha adottato un approccio risk based, definendo quattro livelli di rischio.
Rischio inaccettabile
Sarà bandito un set molto limitato di utilizzi dell’IA particolarmente pericolosi e difformi dai valori europei in quanto violano diritti fondamentali. Alcuni esempi: attribuzione di un “punteggio sociale” da parte dei governi, sfruttamento delle vulnerabilità dei bambini, uso di tecniche subliminali e – fatte salve eccezioni ristrette – sistemi di identificazione biometrica remota dal vivo in spazi pubblicamente accessibili utilizzati finalizzati all’applicazione della legge.
Rischio elevato
Sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini; nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami); in componenti di sicurezza dei prodotti (ad esempio un’applicazione di IA utilizzata nella chirurgia assistita da robot); nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione); in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito); in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove); nella gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio); nell’amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).
I sistemi di IA ad alto rischio saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato.
Rischio limitato
Si tratta dei sistemi di IA con specifici obblighi di trasparenza (per esempio le chatbot) rispetto ai quali è indispensabile garantire la consapevolezza degli utenti del fatto che stanno interagendo con una macchina.
Rischio minimo
La grande maggioranza dei sistemi di IA rientra in questa categoria, su cui il progetto di regolamento non interviene poiché si evidenzia solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.
Fonte foto: https://www.bluearrow.co.uk/communities/warehouse/future-of-work—top-10-job-roles-of-the-future