I dubbi del CSS sull’Intelligenza Artificiale
L’Intelligenza artificiale è probabilmente una delle tecnologie di cui più si parla nel mondo della sanità digitale. Argomento sul quale aleggia un certo entusiasmo, con risultati che sembrano molto buoni, ma che rimane un tema da maneggiare con cura per le implicazioni anche etiche che può avere. Proprio per questo e per cercare di fare il punto sulla situazione prima che varie iniziative prendano il largo seguendo ognuna una sua strada, la Sezione V del Consiglio superiore di sanità ha pubblicato un documento “I sistemi di intelligenza artificiale come strumento di supporto alla diagnostica“ che fa il punto della situazione, sottolineando i rischi e indicando le necessarie vie di sviluppo.
L’elenco dei rischi
“Uno sviluppo incontrollato e non governato dell’Ai – scrive il rapporto – non è scevro da potenziali rischi, derivanti, ad esempio: 1) dall’uso di sistemi di Ai privi di una rigorosa validazione scientifica 2) dalla mancanza di controllo sulla modalità di processazione dei dati da parte dai sistemi esperti 3) da possibili violazioni della privacy degli utenti 4) da discriminazioni (ad esempio di razza e/o di genere) introdotte dalla programmazione degli algoritmi 5) dall’assenza di informazioni circa la sicurezza e la riproducibilità nell’uso dei sistemi di Ai 6) dalla mancanza di norme circa la responsabilità professionale del medico nell’interazione con gli algoritmi 7) dalla impreparazione del personale medico e sanitario al corretto utilizzo dei sistemi di Ai e alla appropriata modalità di comunicazione del loro utilizzo ai pazienti 8) dall’incomprensione da parte dell’utente/cittadino dei reali benefici e limitazioni dei sistemi di Ai”.
Al dettagliato elenco si aggiungono alcune considerazioni come quelle relative alla criticità di sistemi Ai basati su metodi di machine learning e deep learning in larga parte “legate alla grande capacità di questi modelli di riprodurre i dati che vengono utilizzati nella fase di apprendimento, dovuta all’elevato numero di parametri liberi”.
Secondo il rapporto queste architetture possono copiare internamente tutti i dati disponibili, senza alcuna capacità di astrarre relazioni generali dai dati. In questo modo da una parte “durante la realizzazione di questi sistemi è fondamentale utilizzare delle strategie che siano in grado di assicurare buone prestazioni su casi non visti nella fase di apprendimento (ossia assicurarsi che l’approccio addestrato abbia una buona capacità di generalizzazione); dall’altra è inevitabile che il sistema che viene appreso dai dati sia indissolubilmente legato alle procedure di raccolta e alle eventuali distorsioni presenti nei dati”.
I risultati dell’indagine
L’analisi è frutto di un’indagine su articoli scientifici degli ultimi cinque anni che ha evidenziato quali sono le tendenze principali riguardo alle esperienze di Ai.
“Sebbene siano molti gli studi che sembrano fornire prove di affidabilità a favore dei sistemi di Ai usati in un contesto diagnostico, esistono alcune revisioni sistematiche e meta-analisi che ne mettono in discussione la validità scientifica e la metodologia impiegata per raggiungere tali risultati. Pochi, infatti, sono gli studi clinici che confrontano la diagnosi raggiunta da un sistema di Ai o di machine learning rispetto a quella raggiunta da un operatore sanitario o un esperto della materia, e la maggior parte di questi ha un elevato rischio di bias perché non correttamente condotti dal punto di vista metodologico. A ciò occorre aggiungere il fatto che molti studi clinici sono retrospettivi e basati su set di dati precedentemente assemblati, mentre pochi sono quelli prospettici condotti in ambienti clinici reali, in un contesto di real world e basati sul modello delle sperimentazioni cliniche controllate randomizzate. A complicare le cose e a mettere ulteriormente in discussione i risultati raggiunti dagli studi clinici è il fatto che molti di questi adottano una validazione interna del sistema di Ai a scapito di una validazione esterna, più accurata nel raggiungere gli obiettivi”.
Altri problemi metodologici risiedono nell’ampio range di metriche usate per misurare le performance diagnostiche dei sistemi di Ai che ne rende difficile il confronto e l’interpretazione, il ridotto numero di operatori sanitari usati per il confronto delle prestazioni diagnostiche, la limitata generalizzazione dei risultati e la ridotta disponibilità di data-set e codici che rendono difficile la riproducibilità degli studi pubblicati.
La conclusione è che prima di poter essere impiegati in ambito assistenziale, i sistemi di Ai necessitano di una rigorosa validazione scientifica, basata su studi metodologicamente solidi (prospettici, possibilmente randomizzati e condotti in ambienti clinici reali) che dimostrino la non inferiorità, o la superiorità, oltre il costo-efficacia, rispetto al percorso diagnostico e decisionale convenzionale.
“È, inoltre, importante dimostrare la sicurezza e la riproducibilità nell’uso del software, nonché considerare le emergenti problematiche etiche e legali inerenti la responsabilità professionale del medico nell’interazione con gli algoritmi”.
Le richieste del Css
Dal punto di vista pratico il Consiglio superiore di sanità chiede che per introdurre in modo sicuro nella pratica clinica i sistemi di Ai e competere in ambito internazionale nella programmazione e nello sviluppo, è auspicabile siano attuati interventi come la realizzazione di infrastrutture organizzative, informatizzate, a livello locale, regionale o nazionale, di data stewardship e data governance.
È necessario creare una struttura di governance dei sistemi di Ai da parte delle agenzie regolatorie italiane, ministero della Salute per i dispositivi medici e Aifa per gli aspetti terapeutici, con lo scopo di stabilire delle regole rigorose per l’approvazione e la registrazione dei sistemi.
Oltre a linee guida nazionali per il corretto utilizzo dell’intelligenza artificiale, si chiede la creazione di un osservatorio nazionale permanente presso il ministero per il monitoraggio delle performance dei sistemi e l’organizzazione di moduli formativi universitari e post-universitari per migliorare le conoscenze e competenze in materia di Ai del personale medico e delle professioni sanitarie, l’integrazione di elementi metodologici in tema di Ai all’interno dei programmi della scuola secondaria superiore e la creazione di contenuti informativi, anche tramite canali informatici, al servizio del cittadino.