L’open source per un’intelligenza artificiale sempre più affidabile
Sempre più aziende si affidano oggi a intelligenza artificiale e machine learning per implementare le proprie operazioni e i processi produttivi e le istituzioni finanziarie non fanno certo eccezione. In questo contesto, l’affidabilità dell’IA è sempre più cruciale, visti anche i crescenti requisiti normativi. La tracciabilità e la spiegabilità dei modelli di IA/ML sono importanti per creare fiducia e accettazione nella loro adozione e assicurarne il miglioramento continuo. Strategie, tecnologie e soluzioni open source trasparenti avranno quindi un ruolo centrale per la loro implementazione.
Secondo Armin M. Warda, Chief Technologist FSI EMEA di Red Hat, le tecnologie di IA e ML sono già utilizzate con successo in alcuni ambiti del settore finanziario, con scenari applicativi classici che includono la gestione del rischio o il rilevamento di anomalie, soprattutto in relazione alle transazioni per il rilevamento di frodi e il riciclaggio di denaro. L’elaborazione del linguaggio naturale viene utilizzata anche per l’analisi dei documenti o per i chatbot interattivi. Infine, gli istituti finanziari utilizzano IA e ML in aree quali la segmentazione dei clienti, l’iper-personalizzazione e la definizione di strategie di marketing sempre più avanzate
“IA e ML sono già utilizzati da molte imprese di quasi tutti i settori, con il successo di ChatGPT che ne ha reso ancor più visibili i benefici e ha contribuito ad accelerarne l’adozione. Di conseguenza, è naturale prevedere un incremento nell’uso di IA e ML anche nel settore finanziario, persino nei sistemi centrali. Le soluzioni che soddisfano il criterio di IA affidabile svolgeranno un ruolo importante in questo senso. Dopotutto, gli istituti finanziari sono vincolati da rigidi requisiti normativi”, afferma Warda.
L’importanza dell’AI Act
L’AI Act (Artificial Intelligence Act) dell’UE, una normativa dedicata allo sviluppo e all’utilizzo dell’IA, sarà di grande importanza in futuro. L’AI Act conterrà infatti un quadro normativo che si applicherà anche al settore finanziario. Sebbene la configurazione finale non sia ancora definita, si può presumere che la normativa conterrà requisiti rigorosi per l’uso dei sistemi di IA, che determineranno, ad esempio, se le banche potranno gestire applicazioni per la valutazione del rischio, utilizzando i modelli di IA per valutare l’affidabilità creditizia di un cliente.
“Attualmente esistono diverse iniziative volte a promuovere l’applicazione dell’IA affidabile nelle aziende, tra cui spicca la più estesa in Europa, appliedAI. Nata nel 2017 da UnternehmerTUM, l’iniziativa mira a rafforzare l’innovazione europea nel campo dell’IA e, grazie alla partecipazione di NVIDIA, NetApp, Red Hat e Munich Re, appliedAI ha esaminato l’uso dell’AI affidabile in vari ambiti, tra cui finanza e assicurazioni. Una stretta collaborazione tra diverse aziende è comunque indispensabile per il successo dell’introduzione delle applicazioni di IA. Di norma, nell’implementazione sono sempre coinvolti tre tipologie di partner: un fornitore e gestore di piattaforme, un fornitore di software indipendente con soluzioni di IA e ML e un Global System Integrator”, continua Warda.
I principi dell’open source per un’IA affidabile
Ma quali sono i prerequisiti per fornire un’IA affidabile? Qui entrano in gioco strategie, tecnologie e soluzioni open source proprio per le loro intrinseche proprietà di trasparenza e collaborazione. La trasparenza, infatti, è sinonimo di dati facilmente accessibili e processi decisionali tracciabili, mentre la collaborazione garantisce uno scambio continuo tra tutte le parti, che porta a risultati migliori, più efficienti e più sostenibili. Questo approccio open source può anche costituire un punto di riferimento per l’IA/ML in termini di affidabilità. L’affidabilità dell’intelligenza artificiale riguarda in ultima analisi aspetti quali spiegabilità, equità, trasparenza, tracciabilità, riproducibilità, robustezza e monitorabilità dei modelli.
L’open source è quindi un aspetto cruciale nel percorso verso un’IA affidabile. “Allo stesso modo, le piattaforme cloud ibride aperte basate su Kubernetes con controlli di sicurezza, versioning e archiviazione possono costituire la base sia per l’implementazione di IA e ML, sia per lo sviluppo, l’addestramento e l’incorporazione di nuovi modelli di IA in tutte le applicazioni, anche in ambito bancario”, continua Warda.
In genere, per modellare l’IA, i data scientist conducono dei processi di formazione, test e riadattamento al di fuori dell’ambiente IT produttivo degli istituti finanziari. Il passaggio, poi, all’implementazione delle applicazioni di IA in un ambiente produttivo e, nello specifico, la loro integrazione nei sistemi bancari, richiede di rispettare le specifiche best practice e le norme di sicurezza, di conformità e di governance dell’istituto finanziario.
È proprio per favorire questi compiti e processi che le piattaforme aperte rappresentano un’ottima base, in quanto consentono di progettare i modelli in modo affidabile e accelerare il cambio di passo tra la fase di sperimentazione l’operatività. I concetti di MLOps (Machine Learning Operations), in particolare, stanno acquisendo crescente importanza. Questi si basano su collaudati principi DevOps e mirano allo sviluppo, alla fornitura, alla gestione e alla manutenzione efficiente dei modelli di apprendimento automatico. I modelli di ML sono quindi confezionati in container e distribuiti in modo sicuro utilizzando le procedure DevOps. Il grande vantaggio dei processi MLOps è che possono supportare sia i data scientist nella fase di sviluppo, sia i team operativi nella distribuzione dei modelli di ML in un ambiente di produzione.
Flessibilità e resilienza
Una piattaforma open hybrid cloud può anche offrire alle aziende maggiore flessibilità in termini di infrastruttura utilizzata, consentendo di gestire a piacimento il passaggio da ambienti on-premise a cloud. Tale concetto di piattaforma consente, ad esempio, lo sviluppo e l’addestramento del modello di ML nel cloud utilizzando dati di test sintetici, con il successivo incorporamento del modello nell’applicazione on-premise. Al contrario, è possibile addestrare i modelli con i propri dati altamente sensibili nel proprio data center e poi utilizzarli nel cloud.
Inoltre, una strategia open source e di cloud ibrido è vantaggiosa per garantire la conformità ai nuovi regolamenti DORA (Digital Operational Resilience Act) dell’UE, che obbligano le società finanziarie ad assicurare la resilienza delle tecnologie utilizzate per i processi e le applicazioni business-critical e la stabilità operativa dei sistemi digitali. Basandosi su un’infrastruttura cloud ibrida, le aziende possono eseguire le applicazioni in ambienti diversi, supportando al contempo la portabilità delle applicazioni. Ciò contribuisce in modo significativo a rafforzare la resilienza digitale.
“Per fare in modo che l’utilizzo dell’IA sia accettato sia da un punto di vista politico-normativo che sociale, la fiducia è un criterio decisivo. In molti settori che devono soddisfare requisiti normativi elevati, sarà quindi indispensabile creare un’IA affidabile che sia spiegabile e rispetti i principi legali ed etici. Nell’implementazione dei corrispondenti scenari di IA, i principi dell’open source svolgeranno un ruolo cruciale”, conclude Warda.