IA e modelli multimodali, le linee guida dell’Oms
L’Organizzazione mondiale della sanità (OMS) ha pubblicato una nuova guida sull’etica e la governance dei modelli multimodali di grandi dimensioni (LMM), un tipo di tecnologia di intelligenza artificiale generativa in rapida crescita con applicazioni in ambito sanitario.
I LMM possono accettare uno o più tipi di dati in ingresso, come testi, video e immagini, e generare diversi output non limitati al tipo di dati immessi. Sono unici per la loro capacità di imitare la comunicazione umana e di svolgere compiti per i quali non sono stati esplicitamente programmati.
La guida presenta oltre 40 raccomandazioni che devono essere prese in considerazione da governi, aziende tecnologiche e fornitori di assistenza sanitaria per garantire l’uso appropriato dei LMM per promuovere e proteggere la salute delle popolazioni.
“Le tecnologie di intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se coloro che sviluppano, regolano e utilizzano queste tecnologie identificano e tengono pienamente conto dei rischi associati“, ha dichiarato Jeremy Farrar, Chief scientist dell’Oms. “Abbiamo bisogno di informazioni e politiche trasparenti per gestire la progettazione, lo sviluppo e l’uso dei LMM, al fine di ottenere risultati sanitari migliori e superare le persistenti disuguaglianze sanitarie“.
Cinque applicazioni
La nuova guida delinea cinque ampie applicazioni dei LMM per la salute:
– diagnosi e assistenza clinica, come la risposta alle richieste scritte dei pazienti;
– uso guidato dal paziente, ad esempio per indagare sui sintomi e sul trattamento;
– compiti amministrativi come la documentazione e il riepilogo delle visite dei pazienti nelle cartelle cliniche elettroniche;
– formazione medica e infermieristica, compresa l’offerta ai tirocinanti di incontri simulati con i pazienti;
– ricerca scientifica e sviluppo di farmaci, anche per identificare nuovi composti.
Se da un lato i LMM iniziano a essere utilizzati per scopi specifici legati alla salute, dall’altro è documentato il rischio di produrre affermazioni false, imprecise, tendenziose o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sulla salute. Inoltre, i LMM possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età.
La guida descrive anche rischi più ampi per i sistemi sanitari, come l’accessibilità e l’economicità dei LMM più performanti. Gli LMM possono anche incoraggiare “pregiudizi di automazione” da parte degli operatori sanitari e dei pazienti, in quanto vengono trascurati errori che altrimenti sarebbero stati identificati, o gli vengono impropriamente delegate scelte difficili. I LMM, come altre forme di IA, sono anche vulnerabili ai rischi di cybersecurity che potrebbero mettere a repentaglio le informazioni dei pazienti o l’affidabilità di questi algoritmi e, più in generale, la fornitura di assistenza sanitaria.
Per creare strumenti sicuri ed efficaci, l’OMS sottolinea la necessità di coinvolgere diverse parti interessate: governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile, in tutte le fasi dello sviluppo e dell’impiego di tali tecnologie, comprese la loro supervisione e regolamentazione.
“I governi di tutti i Paesi devono collaborare per regolamentare in modo efficace lo sviluppo e l’uso delle tecnologie di intelligenza artificiale, come i LMM“, ha dichiarato Alain Labrique, direttore dell’Oms per la salute digitale e l’innovazione nella divisione scientifica.
Le raccomandazioni
L’analisi dell’Oms indica anche raccomandazioni per i governi, che hanno la responsabilità primaria di definire gli standard per lo sviluppo e la diffusione dei Lmm, nonché per la loro integrazione e il loro utilizzo per scopi medici e di salute pubblica. I governi dovrebbero investire o fornire infrastrutture pubbliche o senza scopo di lucro, tra cui potenza di calcolo e set di dati pubblici, accessibili agli sviluppatori del settore pubblico, privato e non profit, che richiedano agli utenti di aderire a principi e valori etici in cambio dell’accesso.
Utilizzare leggi, politiche e regolamenti per garantire che i Lmm e le applicazioni utilizzate nell’assistenza sanitaria e nella medicina, a prescindere dal rischio o dal beneficio associato alla tecnologia di Ia, rispettino gli obblighi etici e gli standard dei diritti umani che riguardano, ad esempio, dignità, autonomia o privacy di una persona.
Assegnare a un’agenzia di regolamentazione, esistente o nuova, il compito di valutare e approvare i nuovi strumenti e le applicazioni destinate all’assistenza sanitaria o alla medicina, in base alle risorse disponibili. Introdurre verifiche e valutazioni d’impatto obbligatorie dopo il rilascio, anche per quanto riguarda la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un Lmm viene utilizzato su larga scala. Le valutazioni di audit e di impatto dovrebbero essere pubblicate e dovrebbero includere risultati e impatti disaggregati per tipo di utente, ad esempio per età, razza o disabilità.
La guida include anche le seguenti raccomandazioni chiave per gli sviluppatori i quali dovrebbero garantire che i Lmm non siano progettati solo da scienziati e ingegneri. I potenziali utenti e tutte le parti interessate dirette e indirette, compresi i fornitori di servizi medici, ricercatori scientifici, operatori sanitari e pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’Ia in una progettazione strutturata, inclusiva e trasparente e avere l’opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input. Gli sviluppatori dovrebbero anche essere in grado di prevedere e comprendere i potenziali esiti secondari.
I rischi sistemici associati all’uso dei Lmm includono rischi che potrebbero riguardare i sistemi sanitari. Con il loro utilizzo, infatti, potrebbero emergere rischi normativi e sistemici più ampi. Una preoccupazione è se i Lmm siano conformi ai regimi legali o normativi esistenti, compresi i regimi internazionali di protezione delle persone, o regolamentari esistenti, compresi gli obblighi internazionali in materia di diritti umani e le normative nazionali in materia di protezione dei dati.
Rischi sociali più ampi associati all’uso crescente dei Lmm includono il fatto che questi strumenti sono spesso sviluppati e utilizzati da grandi aziende tecnologiche, in parte a causa delle ingenti risorse di calcolo, di dati, umane e finanziarie necessarie per lo sviluppo di tali algoritmi, risorse umane e finanziarie necessarie. Ciò può rafforzare il potere dominante di queste aziende rispetto alle imprese più piccole e ai governi per quanto riguarda lo sviluppo e l’uso dell’Ia.
Ulteriori preoccupazioni riguardo al potenziale dominio delle grandi aziende tecnologiche includono l’insufficiente impegno aziendale in materia di etica e trasparenza. Nuove iniziative volontarie impegni da parte di tali aziende, tra di loro e con i governi, potrebbero mitigare diversi rischi nel breve termine, ma non sono un’alternativa alla supervisione governativa che potrebbe che potrebbe essere attuata. Tutto deve essere maneggiato con cura.