Agenda Digitale pubblica un significativo articolo nel quale l’autrice – Valeria Martino,
post-doc presso l’Università di Torino – pone quesiti importanti sulla responsabilità in capo all’Intelligenza Artificiale nel momento in cui un essere umano venga danneggiato da un errore del robot o dello strumento basato sulla AI.
Un tema di grande peso, evidentemente, anche per l’ambito assicurativo. Ed un tema non nuovo: se ne parla dal 2007.
Di chi è, dunque, la colpa? Della macchina stessa? Di chi la sta utilizzando? Di chi l’ha progettata? Dell’azienda che l’ha immessa sul mercato?
E, ancora, chiede Martino: di che tipo di colpa stiamo parlando? Di una responsabilità legale o di una colpa di tipo morale, o quantomeno sociale?
Invitando alla lettura dell’interessante contenuto, teniamo intanto presente che nel settembre 2022 la Commissione Europea ha adottato una proposta di direttiva sulla responsabilità civile per l’intelligenza artificiale (“Direttiva IA”), applicabile ai casi in cui prodotti e servizi basati su questo tipo di tecnologia causino danni alle persone, al fine di agevolarne il risarcimento.
Di grande supporto, in questo senso, l’articolo di Giacomo Lusardi, dello studio legale DLA Pipe, che commenta “I principali limiti delle normative in questione sarebbero insiti nelle caratteristiche peculiari dell’IA, tra cui la complessità, l’autonomia e l’opacità (il cosiddetto effetto “scatola nera”), che potrebbero rendere difficile o eccessivamente oneroso per i danneggiati identificare i responsabili e dimostrare la sussistenza dei requisiti necessari per un’azione basata sulla responsabilità extracontrattuale. Inoltre, la catena di fornitura dei sistemi di IA coinvolge diversi attori, rendendo ancora più complessa l’attribuzione della responsabilità. Pensiamo, ad esempio, a un incidente che coinvolga un’auto a guida autonoma: la responsabilità del danno causato potrebbe ricadere sul conducente, sul progettista del sistema di guida autonoma, sul produttore del software dei sensori o dei sensori stessi, sul produttore del veicolo, sui soggetti che hanno fornito i dati rilevanti, su cyber-attaccanti, sul concorso di tutti questi soggetti o persino di altri. Altre difficoltà nell’attribuzione della responsabilità possono derivare dal fatto che alcuni sistemi di IA sono in grado di modificarsi in autonomia in base all’elaborazione di nuovi dati (self-adapting), oppure dagli aggiornamenti cui sono soggetti, o dalla loro interazione continua con l’ambiente circostante, altri sistemi e fonti di dati“.
