Imaging Ia, il problema dei dati
Parlare di intelligenza artificiale in Sanità significa indirizzarsi subito sulla diagnostica per immagini, l’area dove l’I.A ha un’applicazione immediata.
I vantaggi infatti ormai sono molto chiari e vanno in due direzioni: da una parte c’è un importante recupero di efficienza da parte del sistema e dell’altro la possibilità di avere maggiori e più precise informazioni sulle immagini degli esami.
L’intelligenza artificiale in generale permette di ottenere maggiori approfondimenti e informazioni dallo stesso insieme di dati, migliorando l’accuratezza e la velocità della diagnostica, offrendo benefici misurabili in una migliore cura del paziente, riduzioni dei costi e della variabilità e maggiore soddisfazione per i radiologi.
Gli esami diventano più veloci, i flussi di lavoro più efficienti e dal punto di vista medico è possibile individuare anomalie e lesioni dopo l’opportuno addestramento dei sistemi che possono determinare anche la natura benigna o maligna di un problema. L’utilizzo del machine learning e dell’intelligenza artificiale per analizzare i dati di imaging medico si fa sempre più diffuso.
La radiomica
Negli Stati Uniti la radiomica è cresciuta significativamente negli ultimi anni con sessanta nuovi prodotti approvati dalla Food and Drug Administration nel solo 2020. Anche in Italia non mancano gli esempi di radiomica, l’utilizzo di algoritmi per estrarre da immagini radiologiche, valori numerici che se elaborati e interpretati, possono fornire elementi utili per la diagnosi e la valutazione dell’evoluzione clinica di una malattia.
I ricercatori dell’Irccs Istituto Ortopedico Galeazzi di Milano e dell’Università degli Studi di Milano, in collaborazione con l’Università degli Studi di Napoli Federico II, ne hanno dimostrato il valore nella valutazione dei condrosarcomi, tumori maligni dell’osso.
“La cosa più importante per questo tipo di tumori, non è tanto il riconoscimento e la classificazione accertata attraverso una biopsia, ma fornire una descrizione dell’aggressività del tumore. Questo è fondamentale soprattutto in tumori maggiormente aggressivi rispetto a tutti gli altri come quelli benigni, che spesso non devono essere trattati. in questa differenziazione radiologia e biopsia fanno fatica in quanto ci sono tumori che presentano caratteristiche miste e non sono sempre differenziabili. Il grande vantaggio dell’uso dell’intelligenza artificiale è la possibilità di insegnare al computer di riuscire a differenziare questi diversi gradi di aggressività. Solo così è possibile inoltre fornire al chirurgo o all’oncologo informazioni rilevanti per procedere con il trattamento migliore per quel paziente”, spiega Luca Maria Sconfienza, responsabile dell’Unità operativa di Radiologia diagnostica e interventistica del Galeazzi, docente all’Università degli Studi di Milano.
Altro progetto importante è “Ciò che l’occhio non vede”, nato nell’aprile del 2017, e che vede la collaborazione fra medici e fisici: l’Unità operativa di Radiodiagnostica dell’Ospedale Santa Maria delle Croci di Ravenna, la Scuola di specializzazione in Radiodiagnostica dell’Istituto Scientifico Romagnolo e l’Unità operativa di Fisica sanitaria diretta da Anna Sarnelli. Il progetto ha visto anche la realizzazione di uno studio scientifico pubblicato su Nature dove viene sottolineata l’importanza dell’impiego dell’intelligenza artificiale in ambito diagnostico con la valorizzazione dei risultati ottenuti.
Il software open source del Cnr
Al Cnr hanno pensato invece di applicare l’analisi radiomica all’oncologia. Radar (Radiomics analysis with R) è il software sviluppato dai ricercatori e fisici medici dell’Azienda Usl Toscana Centro, dell’Istituto di fisica applicata Nello Carrara del Cnr di Firenze dell’Università degli studi di Firenze che permette di eseguire l’analisi dei dati radiomici in modo completo e dettagliato. Per dimostrare l’affidabilità del software i ricercatori hanno utilizzato dati Tc di oltre 850 pazienti oncologici, ricavati da database open access disponibili in rete.
Il software è stato distribuito in modalità open source tramite la piattaforma GitHub ed è disponibile gratuitamente. “Basandoci sulle immagini cliniche, una volta identificata la zona corrispondente a una lesione – spiegano i due ricercatori i ricercatori Andrea Barucci e Nicola Zoppetti -, sono state valutate caratteristiche come la distribuzione dei toni di intensità, l’arrangiamento spaziale dei pixel (la cosiddetta tessitura dell’immagine o texture), la forma (spesso associata alla gravità della malattia), e altre funzioni matematiche come la dimensione frattale”.
“Da qui si è partiti per creare una pipeline di estrazione delle features in grado di interfacciarsi con un server dove sono depositate le immagini cliniche, e pre-processarle nel caso sia necessario renderle compatibili con gli standard del software di calcolo. Oltre alle immagini radiologiche la pipeline di analisi richiede anche le cosiddette immagini segmentate, le mappe dove le zone corrispondenti alla patologia in esame sono segmentate (cioè localizzate) dal medico competente. Avendo come input questi due tipi di immagini la pipeline realizzata è in grado di eseguire il calcolo delle features e organizzare i risultati in modo strutturato (ad esempio in un file .csv) importabile nel software Radar per le analisi statistiche successive”.
Le strade da seguire
In UK questo tipo di soluzione viene utilizzata per combattere il cancro al seno. Nel Regno Unito esiste un problema di carenza di forza lavoro nel settore sanitario, non sono gli unici, che crea problemi per esempio nel caso dello screening del seno con la mammografia.
In questo caso c’è bisogno di una doppia lettura da parte di due esperti che però iniziano a mancare. Una società di software ha lavorato quindi sul machine learning per alleviare il carico di lavoro delle unità di screening con un software che supporta l’attività dei medici e ne aumenta l’accuratezza riducendo il numero di falsi positivi e negativi risparmiando le preziose risorse del servizio sanitario nazionale. Il software ha ricevuto il marchio Ce (Classe IIa) ed è in fase di sperimentazione clinica in un Nhs Test Bed e in tutta Europa.
Lo sviluppo di questo tipo di applicazioni deve però affrontare alcune sfide. Come ha osservato Elad Benjamin, direttore generale di Radiologia e Ai Informatics di Philips, durante una presentazione di Amazon Web Services “Il campo dell’Ia sta vivendo un’incredibile rinascita di applicazioni e strumenti e prodotti e aziende”.
La domanda a cui molte aziende stanno cercando di rispondere è: Come possiamo usare il machine learning e il deep learning per analizzare i dati di imaging medico e identificare i risultati clinici rilevanti che dovrebbero essere evidenziati ai radiologi o ad altri fornitori di imaging per fornire loro gli strumenti di supporto decisionale di cui hanno bisogno? Secondo l’esperto esistono tre percorsi.
Il primo riguarda il triage che comporta l’identificazione dei risultati critici per garantire risposte rapide alle questioni urgenti. “Per esempio una lacerazione del polmone, un’emorragia cerebrale o un ictus sono situazioni critiche in cui il tempo conta, e se identificate presto possono davvero salvare la vita di un paziente”.
Il secondo è la salute della popolazione che comporta la stratificazione del rischio delle popolazioni per scoprire le persone in pericolo di malattie ad alto impatto e ad alto costo. “La prevenzione è spesso più facile ed economica del trattamento”.
Il terzo invece si occupa del supporto decisionale che si traduce nella fornitura di analisi in tempo reale dei dati di imaging per aiutare la lettura e l’interpretazione. Secondo Benjamin esistono alcune difficoltà da affrontare nel settore sanitario. Raccogliere dati su scala è un ostacolo e la diversità delle informazioni è critica. L’etichettatura dei dati, per esempio, è il processo più costoso e dispendioso in termini di tempo, e richiede la prospettiva di un professionista (al contrario di altri settori, quando un profano potrebbe etichettare un’immagine come “auto” o “strada” senza troppi problemi).
Anche la ricezione di feedback e il monitoraggio sono fondamentali. “Hai bisogno di capire come i tuoi strumenti Ai si comportano nel mondo reale”, ha affermato. “Ci sono alcune sottopopolazioni in cui sono meno efficaci? Si stanno lentamente riducendo nella loro qualità a causa di un nuovo scanner o di una diversa popolazione di pazienti che è improvvisamente è stata presa in considerazione?”.
“Senza risolvere queste sfide è difficile scalare l’Ia nel settore sanitario”. Inoltre, come ha sottolineato Walter Wiggins, assistente professore di radiologia alla Duke University e direttore clinico del Duke Center for Artificial Intelligence in Radiology le stesse complessità che rendono l’imaging medico un dominio ideale per gli algoritmi di analisi possono ostacolare l’uso dell’Ai. I ricercatori e gli sviluppatori hanno bisogno di enormi quantità di dati di imaging per addestrare con successo i modelli e garantire che siano pronti per essere distribuiti nella cura di routine.
Anche dopo l’implementazione però, i sistemi sanitari devono monitorare costantemente le prestazioni di questi strumenti, così come verificare che i fornitori stiano utilizzando le tecnologie per migliorare efficacemente le cure. Esiste quindi un problema di manutenzione e di stretto collegamento fra i ricercatori e chi opera sul campo. In più quando si progettano modelli di Ia per l’assistenza sanitaria è essenziale che gli sviluppatori costruiscano strumenti intuitivi che possano integrarsi facilmente con i flussi di lavoro clinici.
Tuttavia, le soluzioni sono spesso costruite senza l’input dei clinici, con il risultato di tecnologie contorte che possono causare più danni che benefici. Così, per facilitare la progettazione di algoritmi Ai clinicamente amichevoli, gli specializzandi in radiologia del Brigham and Women’s Hospital hanno recentemente sviluppato un percorso di data science per introdurre gli specializzandi in radiologia del quarto anno a strumenti di analisi avanzati. Oltre ad ampliare la disponibilità di curricula organizzati di Ai e machine learning, il percorso dà agli studenti l’opportunità di contribuire a ogni fase dello sviluppo dell’algoritmo.
“L’idea era, se possiamo parlare meglio la lingua dell’altra parte, potremmo essere in grado di aiutarli a sviluppare modelli progettati con una domanda clinica specifica in mente”. Partnership simili sono emerse in tutto il settore sanitario. Recentemente, AWS e la Pittsburgh Health Data Alliance hanno annunciato che avrebbero sostenuto i ricercatori dell’University of Pittsburgh Medical Center, l’Università di Pittsburgh e la Carnegie Mellon University nell’uso di tecniche di apprendimento automatico per migliorare lo screening del cancro al seno. Il problema vero però riguarda i dati.
La maggior parte delle sfide nell’Ia non sono applicazioni tecniche dell’Ia. C’è infatti un numero robusto di algoritmi, in particolare algoritmi di scoperta causale, e altri modelli avanzati di apprendimento automatico che continuano a crescere. Tuttavia, la maggior parte della loro convalida e implementazione nella pratica medica è ostacolata dall’accesso a grandi set di dati di alta qualità. Da qui bisogna partire per consentire a tutto il lavoro di imaging che si verifica in una rete multidimensionale di pratiche di fluire in attività commerciali e di innovazione.
Bisogna creare la pipeline, data lake, magazzini, quadri normativi e di conformità necessari per rendere l’imaging Ai reale e facilmente accessibile alla comunità di sviluppo.