L’utilizzo sostenibile dell’Intelligenza Artificiale a supporto della GDPR

L’utilizzo sostenibile dell’Intelligenza Artificiale a supporto della GDPR. Il punto di vista di GFT Italia

ASSINTEL REPORT 2020 - APPROFONDIMENTO DI PAG. 119

Gli istituti bancari hanno interesse a migliorare l’efficienza di un’ampia serie di attività quali il calcolo del rating, la profilazione dei clienti attuali e potenziali, l’identificazione della qualità dei crediti, la pianificazione delle campagne di marketing, la personalizzazione dei servizi bancari. È ormai anche acclarato che i migliori risultati in questi ambiti non derivano da trattamenti di dati personali basati sull’utilizzo di correlazioni identificate manualmente, bensì dall’utilizzo di processi decisionali/predittivi di derivazione AI (nello specifico Machine Learning).

La necessità di una maggiore «competitività» si sposa con la disponibilità di risposte «tecnologiche» innovative. Ma queste debbono essere tuttavia giuridicamente sostenibili alla luce del Regolamento europeo in materia di dati personali n. 679 del 2016 (GDPR). Questo aspetto riveste particolare importanza in GFT Italia, ovvero consigliare oggi tecnologie ed approcci metodologici che siano compliant con il GDPR che è ormai del tutto efficace come le normative nazionali di adeguamento che sono state emanate dall’Italia e dagli altri stati membri dell’UE.

I processi predittivi di derivazione AI, che utilizzano le tecniche conosciute, come Machine Learning, ovvero gli algoritmi, reti neurali, SVM-Support Vector Machine, su cui tali predizioni si basano, sono definiti “Black Box”. A fronte di informazioni da apprendere, provenienti da varie fonti (Dati di business, social, sensori, etc.), si producono modelli predittivi, sotto forma di funzioni matematiche, che possono prendere accurate decisioni su concessione di crediti/prestiti, profilazione, etc. processando le informazioni del cliente con l’obiettivo di produrre un esito, positivo o negativo. La complessità matematica del modello non può essere utilizzata per spiegare il perché la decisione predittiva è stata assunta.

Algoritmi quindi sì capaci di predire cosa accadrà, e quindi di permettere di poter prendere le relative decisioni, ma non di spiegare il perché, essendo la funzione predittiva rappresentabile solo attraverso una funzione matematica complessa.

Viceversa, una nuova wave di tecniche di AI, chiamata XAI-Explainable, introduce nuovi metodi e tecnologie, il cui obiettivo è produrre predizioni auto-esplicative. Esempi di XAI sono rappresentati da algoritmi denominati “Clear Box”, ovvero capaci, utilizzando le fonti informative di apprendimento, di arrivare ad una decisione attraverso una logica predittiva spiegabile, attraverso regole “IF - THEN”.

GFT Italia, attraverso l’adozione e integrazione di piattaforme di AI di qualificati partner internazionali, è in grado di realizzare e generare un modello «Clear Box» inteso come insieme di regole intellegibili che esplicitano con chiarezza, per esempio, l’attribuzione delle «Classi di Rating»  e rispondere in modo comprensibile ai quesiti del cliente su domande inerenti la sua classificazione di rischiosità.