Ocse: AI nella Sanità, enormi potenziali ed enormi rischi
L’era dell’intelligenza artificiale è iniziata ed è qui per rimanere.
Inizia così l’analisi dell’Ocse, l’Organizzazione per la cooperazione e lo sviluppo economico, dal titolo Ai in health huge potential huge risk, che aveva già definito policy complete per lo sviluppo e l’utilizzo affidabile dell’intelligenza artificiale nel 2019.
Il report Ocse si aggiunge a una serie di eventi e rapporti della fine del 2023 volti a promuovere un’implementazione sicura dell’Ia. Dall’Ordine esecutivo della Casa Bianca sullo sviluppo e l’uso sicuro e affidabile dell’Ia, al Codice di condotta del G7, al vertice sulla sicurezza dell’Ia a Bletchley Park fino all’accordo provvisorio sull’AI Act dell’Unione Europea.
Dando per scontato che l’Ia possiede un potenziale significativo per salvare vite umane, migliorare il lavoro degli operatori sanitari e rendere i sistemi sanitari più incentrati sulle persone, che sono alcune delle sfide più importanti per la salute, non bisogna però sottovalutare la forza di uno strumento molto potente mitigandone i rischi. “La supervisione e una solida governance saranno necessarie per rispondere rapidamente ai problemi e alle opportunità emergenti, mentre l’incapacità di tradurre i principi in azione comporta rischi significativi”, spiega l’Ocse.
I rischi di aumento delle disuguaglianze
Questi rischi includono l’esacerbazione delle disuguaglianze digitali e sanitarie, l’aumento del rischio per la privacy, il rallentamento del progresso scientifico e l’indebolimento della fiducia del pubblico. Attualmente, l’Ia viene progettata, sviluppata e implementata nelle strutture sanitarie di tutto il mondo, sfruttando i set di dati locali per l’addestramento e rendendo disponibili i risultati.
“Applicazioni di Ia su misura senza la capacità o l’intenzione di scalare (ad esempio, a causa dell’incompatibilità dei sistemi o della mancanza di risorse tecniche), rischiano di creare un insieme frammentato di innovazioni dell’Ia costruite e mantenute da organizzazioni sanitarie facoltose e disponibili solo a disposizione solo di segmenti benestanti del pubblico”.
Sono necessarie basi politiche, dati e tecniche solide e coordinate, sia all’interno che all’esterno dei confini per liberare l’ampio ed equo valore umano che è possibile ottenere dall’Ia. L’intelligenza artificiale sta già salvando vite umane e può salvarne altre. L’evidenza empirica suggerisce che solo nel 2023 circa 163.000 persone potrebbero essere morte in Europa a causa di errori medici. Il 30% degli errori medici è dovuto a errori di comunicazione, un campo dove l’Ia potrebbe essere molto utile.
L’Ia quindi può aiutare gli operatori sanitari a dedicare più tempo alle cure, aiutare gli operatori sanitari a praticare la loro professione e investire il loro tempo nel contatto con i pazienti, anziché dedicarsi alla trascrizione di appunti e al lavoro amministrativo. Il 36% delle attività di assistenza sanitaria e sociale potrebbe essere automatizzato utilizzando l’Ia e questi aumenti di produttività ridurrebbero il deficit previsto di 3,5 milioni di professionisti della sanità entro il 2030 in tutta l’Ocse.
Suggerimenti per la politica
L’elenco delle potenzialità è lungo, ma l’Ocse nel report che dovrebbe essere letto soprattutto dai decisori politici, si sofferma anche sui rischi.
“I rischi legati all’Ia includono i cattivi risultati degli algoritmi (a causa di distorsioni, dati di bassa qualità, mancanza di trasparenza o utilizzo in contesti inappropriati); fughe di dati personali (a causa di violazioni della privacy e della sicurezza nella raccolta dei dati o nell’esecuzione degli algoritmi), soluzioni imposte alla forza lavoro sanitaria, che mette a dura prova i lavoratori, e responsabilità non chiare per la gestione dell’Ia e per ogni possibile risultato sfavorevole che impedisce un impatto collettivo ed equo”.
Allo stesso modo, la sua mancata abilitazione comporta rischi, come l’aumento del divario digitale, quando le soluzioni di Ia sono limitate a sottoinsiemi limitati di pubblico; il continuo esaurimento degli operatori sanitari a causa l’aumento del carico amministrativo, l’incapacità di generare e diffondere i benefici derivanti dai progressi scientifici per migliorare i risultati sanitari. Un’implementazione e una supervisione efficaci dell’Ia, prosegue l’Ocse, dovrebbero utilizzare e sfruttare in modo ottimale i dati e le risorse tecnologiche, imparando continuamente e adattando i piani quando necessario.
In questo senso, avere principi politici chiari è utile per orientare le politiche e le azioni. I principi dell’Ia dell’Ocse sono stati adottati da tutti i Paesi membri e si riflettono nei principi del G20. “Questi principi guidano l’implementazione dell’Ia in modo da mettere gli esseri umani al centro della progettazione e articolano i requisiti chiave per l’implementazione di soluzioni di Ia per promuovere la fiducia e l’impatto”. I principi però sono solo un punto di partenza e devono essere resi operativi attraverso strumenti, processi, politiche e meccanismi di applicazione.
È necessario rendere operativi i principi per un’Ia responsabile nella salute. Ad esempio, il principio dei valori incentrati sull’uomo e sull’equità guiderebbe le azioni che includono sia gli operatori sanitari sia il pubblico nello sviluppo di soluzioni e garantire che tali soluzioni vengano adottate, utilizzate e riutilizzate da altri, a seconda dei casi. Ciò contribuirebbe a mitigare il rischio di soluzioni di Ia su misura che non sono state progettate per “adattarsi” alla pratica clinica.
L’adozione, l’uso e l’evoluzione dell’intelligenza artificiale dovrebbero essere regolati in modo efficace con un’appropriata applicazione delle norme e con una rendicontazione trasparente, consiglia l’Ocse perché senza una supervisione dell’implementazione e dell’evoluzione delle soluzioni esiste il rischio che l’Ia sia progettata, sviluppata o implementata in modo tale da causare danni ai pazienti e ai sistemi sanitari e possibile anche senza ripercussioni per coloro che causano il danno. Inoltre, con l’evoluzione delle capacità sono necessari meccanismi di supervisione, applicazione e riparazione per prevenire i danni e trarre vantaggio dalle opportunità che offre.
Alcuni Paesi stanno istituendo organismi e meccanismi di supervisione ma sono relativamente pochi quelli che hanno un approccio mirato al suo utilizzo in ambito sanitario. Di conseguenza, non è chiaro quanto sia adottata nei sistemi sanitari, quali siano le principali barriere che ne ostacolano l’adozione, quali siano i benefici sul personale sanitario e sui risultati di salute, nonché la frequenza e la quantità di incidenti negativi. La trasparenza è un fattore fondamentale.