
Nella “puntata” n 17 abbiamo letto le conclusioni che EIOPA trae dalla sua indagine rispetto alle opportunità correlate all’analisi dei Big Data per il settore assicurativo.
Andiamo invece a vedere cosa l’Authority europea afferma in merito alle potenziali criticità e sfide.
Come evidenziato nella Dichiarazione sul rispetto dell’Etica e della Protezione dei Dati nell’ambito dell’Intelligenza Artificiale prodotta dalla quarantesima Conferenza Internazionale della Protezione dei Dati e della Privacy a Bruxelles, il 22 ottobre 2018, alcuni dataset utilizzati nei processi BDA possono essere distorti e mascherare alcune forme di discriminazione illegale. Assunto che gli strumenti di analisi dei Big Data come l’Intelligenza Artificiale e gli algoritmi di Machine Learning si basano su serie storiche di dati per “imparare”, alcune criticità (ad esempio sotto il profilo sociale/etico) a queste correlate risulteranno riflesse negli output (risultati) di questi algoritmi.
Tale problematica diventa più significativa laddove specifiche decisioni di un algoritmo (vedi la black box) non possono essere spiegate in maniera comprensibile, generando questioni fondamentali sull’affidabilità delle aziende che li utilizzano. Se ne deduce che ciò sia meno rilevante in ambiti quali le campagne di marketing, dove le BDA sono principalmente usate per lanciare campagne di comunicazione più personalizzate ed offerte su misura destinate ai consumatori.
Ad ogni modo, nel contesto della tariffazione e dell’assunzione, se gli algoritmi sono basati su dataset distorti o su fattori di rating, ciò potrebbe potenzialmente tradursi in pratiche di discriminazione tariffaria illegale in mancanza di una gestione debitamente diligente e coerente con i principi attuariali generalmente accettati. Inoltre, se le risultanze degli algoritmi sono basate su correlazioni falsamente assunte come causalità, i processi decisionali potrebbero altrettanto risultarne distorti.
EIOPA sottolinea che di quasi 1.000 fattori di rating analizzati, solo una parte minimale è stata giudicata portatrice di criteri di discriminazione tariffaria illegale (per esempio i fattori di rating basati sugli indirizzi e-mail o la nazionalità dei consumatori. L’Authority interverrà, con il supporto delle Autorità nazionali, chiedendo agli operatori interessati di risolvere queste criticità.
In aggiunta, un algoritmo non sufficientemente esplicabile, trasparente, verificabile o accurato può mettere a repentaglio l’intera posizione di solvibilità di una compagnia assicurativa. Per esempio, se le riserve o i prezzi sono calcolati in modo erroneo a causa di un approccio sbagliato della black box e/o una carenza nei meccanismi interni di controllo ne impedisce la rilevazione, ciò può influire negativamente sulla solvibilità dell’azienda.