Non ce ne siamo accorti ma dietro le quinte della pandemia l’intelligenza artificiale ha dato una mano. Il come lo hanno spiegato durante l’incontro organizzato da AixIa, l’Associazione Italiana per l’Intelligenza Artificiale, dove Marco Penovich, Responsabile per il Centro di eccellenza Data & Analytics di Engineering e Marco Breda, Responsabile Area Adv. Analytics di D&A di Engineering hanno dato una lettura tecnica della soluzione adottata dalla Regione Veneto.

La sfida, hanno raccontato, era di calcolare l’evoluzione dell’epidemia con tutti i parametri, RT incluso. “In letteratura erano disponibili modelli compartimentali ma ci siamo resi conto che questi modelli non portavano a livelli di accuratezza come quelli con cui di solito operiamo. Allora li abbiamo aperti e introdotto ulteriori compartimenti per gestire tamponi e terapie intensive, abbiamo reso i parametri dinamici e applicato algoritmi di ottimizzazione per calcolare i parametri in modo ottimale. A questo punto abbiamo definito diversi scenari e inerzie, misurato l’accuratezza in diversi situazioni e calcolato una risultante”.

C’era poi un secondo livello a rete neurale, per gestire questa correzione ulteriore al modello di primo livello, utilizzando dati locali e di altre parti del mondo con tecniche di transfert learning.

“Abbiamo identificato possibili variazioni sulle vaccinazioni introducendo ulteriori compartimenti divisi per fasce d’età e gestendo i diversi comportamenti. In questo modo ogni giorno sono a disposizione modelli con previsioni fino a venti giorni, con la possibilità anche di calcolare lo scarto tra reale e previsto per verificare gli errori”.

In un momento in cui esistevano poche certezze dal punto di vista scientifico con il rischio che la situazione degenerasse l’intelligenza artificiale ha dato il suo apporto per avere un quadro il più possibile chiaro della situazione.

Il ruolo della bioinformatica

A dare una mano ci ha provato anche Claire, la task force europea, che, come ha raccontato Davide Bacciu, Professore Associato Unipi e segretario AixIa, dove è stato formato una gruppo di lavoro di persone con competenze diverse, dagli esperti di Ia ai medici biologici, per sviluppare metodologie di contrasto alla pandemia. “Ci siamo concentrati sulla bionformatica per esaminare i dati di andamento del virus”.

“Ma nell’aprile 2020 di dati affidabili ce n’erano pochi. C’erano però secoli di competenza medica distillati in strutture particolari che raccontavano le interazioni fra varie proteine e i processi biologici all’interno del nostro corpo. Il gruppo ha deciso quindi di prendere le reti che raccontano come le proteine interagiscono fra di loro e unirle alle funzionalità di alcune terapie sulle specifiche molecole. Abbiamo fuso queste informazioni per cercare all’interno di terapie già note la possibilità di utilizzarle per vedere se potevano avere efficacia in altre situazioni”.

Sono stati sviluppati modelli di reti neurali di deep learning grazie alle informazioni sulle interazioni tra proteine e le singole terapie con cui interagivano e quindi si è arrivati ad avanzare delle previsioni. “L’obiettivo era di identificare specifici insiemi di proteine e identificare e predire quali utilizzare da chimici e biologi per la sperimentazione chimica contro il virus”.

Il lavoro è stato messo a disposizione della comunità scientifica con un insieme di dati che possono aiutare nel processo di prioritizzazione degli studi clinici alla ricerca di farmaci per contrastare la pandemia.

Il sistema predittivo di Brescia

Anche a Brescia hanno lavorato sulla pandemia con un progetto nato nel momento peggiore, a inizio 2020, quando gli ospedali del Nord Italia sono stati pesantemente colpiti. Alfonso Gerevini, Professore Ordinario dell’Università di Brescia, ha spiegato come si è cercato di aiutare i medici a valutare la severità della malattia nei momenti di crisi per aiutarli nelle decisioni e nella gestione delle risorse e per decidere su quali pazienti concentrare l’attenzione.

Sono state utilizzate tecniche di machine learning con modelli predittivi per stimare il rischio di decesso. Le informazioni a disposizione erano limitate, ma c’erano gli esami ripetuti durante il ricovero che servivano come indicatori della malattia più gli esami radiologici sui polmoni. Con un campione di circa duemila pazienti è stato costruito modelli con sistemi di previsione per giorni differenti.

“Con i medici abbiamo scelto i giorni su cui concentrarci – ha aggiunto Gerevinicon problemi per la gestione dell’incertezza perché questi modelli predittivi forniscono in output una stima delle probabilità del decesso o sopravvivenza e questa probabilità può essere fornita direttamente ai medici ma se l’algoritmo deve prendere una decisione, suggerire una classificazione decesso o sopravvivenza, bisogna determinare quale è la soglia più adatta. Se abbiamo due stime per decesso e sopravvivenza molto vicine c’è la possibilità di grande margine di errore”.

Per questo è stato sviluppato un algoritmo che cerca di ottimizzare questa soglia dopo la quale viene presa una decisione cercando di minimizzare l’output di casi incerti e ottimizzare l’accuratezza del risultato. Su 225 pazienti di test i falsi negativi sono quattro e in totale 15 con i falsi positivi. Un certo numero di pazienti sono classificati come incerti e su questi il sistema non si è sbilanciato. “Dal punto di vista medico performance molto interessanti”, commenta Gerevini.

I risultati corretti però non bastano. In ambito clinico il sistema deve anche fornire spiegazioni poi interpretate dal medico. Molti sistemi di machine learning però non sono fatti per dare spiegazioni in modo semplice per questo bisogna utilizzare delle tecniche per raggiungere l’obiettivo.

Grazie agli algoritmi sono state estratte automaticamente regole prognostiche, mettendo insieme più variabili che il sistema prende tutte insieme, considerando le più rilevanti come quelle più favorevoli o sfavorevoli per il paziente e offrendo maggiori spunti per per ragionare sulla prognosi.

Il ruolo del machine learning

Secondo Gerevini –“Nella nostra esperienza il machine learning può essere applicato anche a dati abbastanza difficili ottenendo ottimi risultati per la prognosi e la previsione della mortalità. Ora lo stiamo applicando anche a previsioni sulla durata del ricovero e abbiamo sviluppato una serie di tecniche da utilizzare anche in altre situazioni di emergenza e patologie soprattutto quando queste non sono abbastanza conosciute per estrarre conoscenza anche dal punto di vista clinico”.

Ci sono però anche altre strade che potrebbero essere seguite. E’ il tema sottolineato da Marco Breda, Responsabile Area Adv. Analytics di D&A di Engineering che ha raccontato come il modello sviluppato dalla sua azienda abbia già in corso un’evoluzione con un versante predittivo e uno simulativo.

“Abbiamo provato infatti a vedere cosa sarebbe successo riducendo la possibilità di contatto fra le persone, mentre esaminando i dataset con pazienti Covid si può cercare di capire l’origine della malattia, le associazioni fra le variabili che caratterizzano i pazienti e soprattutto focalizzarsi su ciò che scatena l’epidemia. Stiamo facendo qualche passo in questa direzione”.

È poi possibile costruire algoritmi di geographic profiling con mappe che danno la informazione sulla diffusione dell’epidemia, da leggere anche in senso retrospettivo per vedere dove si è originata e dove si potrebbe diffondere.

Altro ambito è quello dell’imaging con le radiografie tacche toraciche sui polmoni.

Uscendo dall’ambito strettamente clinico un altro settore di intervento è relativo all’informazione per quello che riguarda l’atteggiamento delle persone rispetto alla vaccinazione, argomento quanto mai di attualità. Consultando le notizie di stampa che riportano le opinioni dei cittadini ed effettuando un’analisi di topic identification è possibile costruire una mappa semantica che spiega il discorso, lo articola in concetti, sottoconcetti e relazioni che rappresentano l’atteggiamento dell’opinione pubblica.

Da qui è possibile estrarre elementi per pianificare azioni di spiegazione e convincimento che partano dall’analisi oggettiva della situazione e dei pensieri.

Altri aspetti non tecnici ma comunque importanti sono stati sottolineati da Arianna Cocchiglia, Direttore Innovazione Pa e Salute di Engineering e Michele Mongillo, dirigente Uo Prevenzione e Sanità Pubblica della Regione Veneto. La prima ha osservato che se c’è una cosa che il Covid ha fatto emergere è il valore delle informazioni che la Pubblica Amministrazione gestisce “ma fino all’arrivo del virus erano in informazioni che vivevano in silos diversi”.

Per questo, ha sottolineato, è stato importante il lavoro fatto con Veneto e Lombardia con le quali è stata realizzato un sistema di biosorveglianza, una digital platform abilitante che dà la possibilità di raccogliere il patrimonio informativo di Sanità e PA delle regioni per creare strumenti di monitoraggio in real time dell’epidemia e avere il patrimonio di conoscenze e dati che permettessero di sviluppare una parte predittiva con un orizzonte temporale.

La seconda esperienza più ristretta ma sempre applicata nel primissimo periodo del Covid ha riguardato la raccolta dei dati e quindi l’applicazione del machine learning per individuare i ricoveri effettuati prima del 21 febbraio, giorno della scoperta del primo paziente Covid in Italia, per polmonite atipica che non erano stati individuati come casi Covid e vedere quindi i potenziali casi di persone infette libere sul territorio.

I medici e la politica

Altra lettura da parte di Michele Mongillo che ha evidenziato gli aspetti pratici dell’utilizzo di modelli previsionali dello sviluppo della pandemia. “La Regione Veneto ha fatto ricorso alla collaborazione con Engineering per l’utilizzo di un modello che ha permesso di disporre in tempo reale dei dati per valutare l’evoluzione della curva epidemica e fare delle previsioni fino a tre settimane”.

I dati storici della regione come contagi, ricoveri, decessi, indice rt sono alcuni dei parametri utilizzati per sviluppare un modello “fondamentale per avere una visione d’insieme e che ci ha permesso di capire dove stavamo andando e gli effetti dei nostri interventi”, sottolinea Mongillo.

Altro effetto importante è stata la riduzione della distanza fra il livello tecnico e quello politico che ha l’onere di prendere le decisioni.

“Il decisore politico ha potuto contare su uno strumento che in maniera sintetica ha offerto un quadro generale su tutti i parametri principali della pandemia è che si è dimostrato uno strumento fondamentale di comunicazione fra tecnici e politici. In questo modo si sapeva in modo chiaro cosa stava succedendo e cosa sarebbe successo”.

“La politica è più veloce dei tecnici perché doveva prendere decisioni immediate che avevano poi ricadute sul tessuto sociale ed economico”. Per questo dati chiari forniti in tempo reale con le possibili evoluzioni sono stati fondamentali e aumentato l’efficacia della performance a livello regionale.