IA e ML per valutare il Consciusness-Domain Index

IA e ML per valutare il Consciusness-Domain Index
Fondazione Don Gnocchi sviluppa un nuovo indicatore per valutare i danni ai pazienti con gravi cerebrolesioni acquisite.

Intelligenza Artificiale e Machine Learning possono essere d’aiuto per valutare lo stato di coscienza in pazienti con gravi cerebrolesioni acquisite. È il lavoro portato avanti dai ricercatori della Fondazione Don Gnocchi che cercano di andare oltre la Coma Recovery Scale-Revised (CSR-R), la scala validata che identifica se le risposte comportamentali a stimoli multisensoriali standardizzati sono riflesse o intenzionali e per questo in grado di distinguere il paziente in stato vegetativo da quello in stato di coscienza minima. La scala funziona come una check-list suddivisa in sei sottoscale che valutano risposte cognitive, motorie e la comunicazione dei pazienti, con l’assegnazione di punteggi. Il punteggio totale viene considerato per definire la prognosi del paziente e quindi offrire un quadro sulle probabilità di recupero della coscienza.

La collaborazione con l’Air Lab

“Dovendo costruire un progetto personalizzato – spiega Anna Estraneo, Neurologa e Ricercatrice del Polo Specialistico Riabilitativo della Fondazione Don Gnocchi di S. Angelo dei Lombardi (AV) e Chair del Panel sul coma e i disturbi protratti della coscienza dell’European Academy of Neurology – abbiamo necessità di avere un’idea circa i tempi di recupero della coscienza e per questo abbiamo bisogno di indicatori precisi. Tra l’altro, in letteratura scientifica, sono pochissimi gli studi sull’argomento e non esistono linee guida internazionali e nazionali. La scala CRS-R offre indicazioni utili in merito alla definizione della diagnosi, ma presenta alcuni limiti soprattutto in fase prognostica e per questo abbiamo chiesto aiuto ai colleghi ricercatori dell’Air Lab del Centro Don Gnocchi di Firenze”.

L’Air Lab (Artificial Intelligence for Rehabilitation Laboratory), nasce con l’obiettivo di sviluppare sistemi automatici di supporto alla decisione clinica in medicina riabilitativa che possano trovare utilità e applicazione nella pratica clinica quotidiana. Per fare questo, utilizza una tecnologia basata su algoritmi di apprendimento in grado di supportare nella selezione delle informazioni rilevanti e nell’interpretazione di dati complessi e multifattoriali.

Nell’ambito di questa collaborazione è nata l’idea per una soluzione che potesse rendere la valutazione effettuata attraverso la scala CRS-R più precisa e meglio definita, mettendo insieme in maniera sinergica medici e bioingegneri, clinica e intelligenza artificiale. “Siamo partiti – spiega Andrea Mannini, bioingegnere e responsabile di Air Lab – dai dati che Anna Estraneo e Alfonso Magliacano, neuropsicologo e ricercatore anche lui del Polo di S. Angelo dei Lombardi, ci hanno messo a disposizione. Si trattava di due campioni relativi a uno studio multicentrico italiano con 190 pazienti e di un multicentrico internazionale nell’ambito del progetto europeo DoCma e, su proposta di Pergiuseppe Liuzzi, bioingegnere e nostro dottorando, abbiamo implementato un algoritmo di clustering. In pratica, non gli abbiamo chiesto cosa cercare ma abbiamo lasciato che fosse lui a trovare all’interno dei dati disponibili dei pattern, cioè uno schema ricorrente, delle classi di raggruppamento, una specie di filo rosso. Abbiamo così individuato due raggruppamenti di dati che, una volta associati ai pazienti di riferimento, corrispondevano a due gruppi molto omogenei dal punto di vista diagnostico. L’appartenenza di un paziente a un cluster o all’altro costituisce quello che abbiamo chiamato il Consciusness-domain index (Cdi) del paziente, un marcatore prognostico che ha migliorato sensibilmente la prognosi basata sulla semplice valutazione clinica. L’utilizzo del Cdi al posto della diagnosi clinica basata sulla CRS-R è infatti in grado di migliorare le performance di modelli di intelligenza artificiale per la predizione della prognosi”.

Altre opportunità

Un’analisi matematica sofisticata ha permesso di migliorare l’accuratezza della prognosi di pazienti in stato vegetativo o di minima coscienza, fornendo indicazioni molto utili per i clinici e gli operatori della riabilitazione in termini di recupero della coscienza a sei, dodici e ventiquattro mesi. I ricercatori sono poi andati oltre, sviluppando una pagina web accessibile a tutti, dove il clinico può inserire liberamente i dati della CRS-R relativi a un determinato paziente e avere come risultato il suo indice prognostico, corrispondente ai margini di recupero della coscienza.

La ricerca, innovativa sia per i risultati raggiunti che per la metodica applicata, è già stata oggetto di due articoli rispettivamente su Ieee Journal of Biomedical and Health Informatic e su Brain Sciences e di un intervento alla conferenza internazionale della Engineering in Medicine & Biology Society (Embc) di Glasgow, nel novembre scorso.

Interessanti, sono anche le opportunità che si potrebbero aprire in futuro, come sottolinea Anna Estraneo: “Ampliando il campione, quindi avendo a disposizione i dati di un numero ancora maggiore di pazienti, potremmo affinare meglio lo strumento, inoltre un ulteriore sviluppo potrebbe essere il suo utilizzo non solamente legato allo stato di coscienza, ma anche nelle prognosi motoria e funzionale, altro aspetto molto importante per la riabilitazione. Sulla scia di questo risultato, sarebbe bello poter creare uno strumento prognostico per i pazienti in stato di minima coscienza marcato Don Gnocchi da proporre a livello nazionale e internazionale”.

Condividi:
 

IA generativa: una chance da 60 miliardi di dollari per gli operatori della supply chain

ia generativa
Prima o poi si dovranno costruire strategie di guadagno forti e differenziate per compensare il peso dei costi operativi in continua crescita dell’IA generativa.

L’IA generativa non è una tecnologia nuova, ma la sua democratizzazione è stata innescata dall’emergere di potenti API pubbliche, in particolare ChatGPT. Da allora, il mercato consumer ha registrato un traffico enorme e un utilizzo elevato. Sulla scia di questa domanda, la catena dell’offerta è esplosa con un’attività significativa su ogni livello (R&S, hardware, modello di base, strumenti di servizio ML, servizi di dati, applicazioni ed etica/regolamentazione), cercando di costruire l’accesso alle opportunità commerciali nel segmento aziendale.

Secondo un nuovo rapporto della società di intelligence tecnologica globale ABI Research, questo mercato si espanderà rapidamente entro il 2030 con un CAGR del 162%, offrendo quasi 60 miliardi di dollari di entrate agli operatori della supply chain.

“Cogliere l’opportunità commerciale delle imprese è essenziale, poiché gli operatori del settore continuano a lottare contro una significativa crisi dei costi determinata dal segmento dei consumatori. La creazione di set di dati, l’implementazione dell’infrastruttura, l’addestramento e l’esecuzione di modelli linguistici di grandi dimensioni come Claude, LLaMa, Titan o GPT-3.5 comportano un notevole carico di costi che sarà difficile ridurre”, spiega Reece Hayden, analista senior di ABI Research.

“Applicazioni pubbliche popolari come ChatGPT costano almeno 500.000 dollari al giorno per funzionare. Questo costo è destinato a crescere con l’aumento dell’utilizzo. Finora gli operatori del settore si sono affidati a finanziamenti esterni per sostenere l’accesso gratuito attraverso investimenti in capitale di rischio o sovvenzioni interne. Questo non può continuare per sempre e gli operatori devono individuare strategie per iniziare a generare entrate nei segmenti consumer e enterprise”.

intelligenza artificiale

Dato l’elevato costo di acquisizione dei clienti, gli operatori del settore sono principalmente bloccati in “modelli di guadagno freemium che sono in gran parte insostenibili nel segmento consumer. Questi modelli non sono adatti allo scopo nemmeno nel mercato aziendale”, continua Hayden. “Anche se abbandonare questo modello sarà impegnativo, la cosa positiva è che molte opportunità di monetizzazione sono applicabili a tutta la catena di fornitura”.

Le parti interessate possono cercare di implementare modelli pubblicitari come quelli utilizzati dai motori di ricerca, modelli di revenue share che si sono dimostrati vincenti in aree adiacenti come i marketplace cloud o addirittura cercare di produrre LLM open-sourced con funzioni aziendali closed-source. Ma è fondamentale che gli stakeholder allineino attentamente le proprie capacità con un modello di guadagno, poiché alcune potrebbero non essere adatte allo scopo.

Le strategie di generazione di ricavi di maggior successo nel prossimo futuro cercheranno di sostenere direttamente l’adozione da parte delle aziende. La maggior parte delle aziende non dispone di competenze/strumenti di machine learning, competenze operative e quadri giuridici/governativi strategici per supportare efficacemente lo sviluppo e l’implementazione dell’IA generativa. Per questo motivo, Hayden raccomanda: “Gli stakeholder della supply chain dovrebbero cercare di fornire servizi di consulenza o costruire piattaforme low/no-code che supportino lo sviluppo, l’implementazione, la messa a punto, l’ottimizzazione, la gestione dei cambiamenti operativi e le operazioni dell’IA generativa”.

In questo mercato sono in gioco altri fattori, in particolare la crescente attenzione alla privacy dei dati, che scatenerà un interesse sempre maggiore nei confronti dei fornitori di servizi di dati. L’applicazione delle norme sul copyright per i dati di formazione e la domanda di perfezionamento da parte delle imprese creeranno un interesse sostenuto per le aziende in grado di curare i dataset aziendali o di generare database sintetici. “I recenti round di raccolta fondi indicano un interesse più significativo per le aziende di dati ML. Ad esempio, Mostly AI, un generatore di dati sintetici, ha appena raccolto 25 milioni di dollari, mentre Snorkel AI ha recentemente raccolto 85 milioni di dollari con una valutazione di 1 miliardo di dollari”, afferma Hayden.

Condividi: