AI: antropocentrica, sostenibile, sicura, inclusiva e affidabile

Future of Work - Top 10 Job Roles of the Future

Lo scorso 21 aprile la Commissione Europea ha proposto il primo quadro giuridico mai realizzato sull’Intelligenza Artificiale che, combinato con un nuovo piano coordinato con gli Stati membri, garantirà la sicurezza e i diritti fondamentali di persone e imprese, rafforzando contestualmente l’adozione dell’IA e gli investimenti e l’innovazione nel settore in tutta l’UE. 

L’obiettivo è lo sviluppo di una tecnologia etica che interpreti l’IA come un mezzo e non come un fine, nella quale l’Europa assuma un ruolo leader ed in cui i cittadini possano riporre una giustificata fiducia.

Un’Intelligenza Artificiale che sia antropocentrica, sostenibile, sicura, inclusiva e affidabile.

Nell’elaborazione del quadro giuridico, la Commissione ha adottato un approccio risk based, definendo quattro livelli di rischio.

Rischio inaccettabile

Sarà bandito un set molto limitato di utilizzi dell’IA particolarmente pericolosi e difformi dai valori europei in quanto violano diritti fondamentali. Alcuni esempi: attribuzione di un “punteggio sociale” da parte dei governi, sfruttamento delle vulnerabilità dei bambini, uso di tecniche subliminali e – fatte salve eccezioni ristrette – sistemi di identificazione biometrica remota dal vivo in spazi pubblicamente accessibili utilizzati finalizzati all’applicazione della legge.

Rischio elevato

Sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini; nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami); in componenti di sicurezza dei prodotti (ad esempio un’applicazione di IA utilizzata nella chirurgia assistita da robot); nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione); in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito); in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove); nella gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio); nell’amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).

I sistemi di IA ad alto rischio saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato.

Rischio limitato

Si tratta dei sistemi di IA con specifici obblighi di trasparenza (per esempio le chatbot) rispetto ai quali è indispensabile garantire la consapevolezza degli utenti del fatto che stanno interagendo con una macchina.

Rischio minimo

La grande maggioranza dei sistemi di IA rientra in questa categoria, su cui il progetto di regolamento non interviene poiché si evidenzia solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.

Fonte foto: https://www.bluearrow.co.uk/communities/warehouse/future-of-work—top-10-job-roles-of-the-future

 

Alessandra Schofield

Iscritta all’Ordine dei Giornalisti del Lazio, da oltre vent'anni sono vicina alle realtà associative di primo e di secondo livello degli Agenti d’assicurazione, prestando consulenza professionale nell’ambito della comunicazione. All’attivo ho anche un’esperienza nel mondo consumeristico. Attualmente collaboro con AUA Agenti UnipolSai Associati, dedicandomi a questo grande e coinvolgente progetto con passione ed entusiasmo.