OMS: i 6 principi etici per l’utilizzo dell’intelligenza artificiale
L’Organizzazione mondiale della sanità (OMS) affronta le questioni relative allo sviluppo dell’intelligenza artificiale nella sanità. E lo fa con un lungo rapporto, frutto di due anni di lavoro, nel quale spiega che si tratta di una tecnologia “molto promettente per la pratica della salute pubblica e della medicina”.
L’Oms si muove con i piedi di piombo
Lo sviluppo dell’IA necessita però anche di “uno sforzo collettivo per progettare e implementare leggi e politiche eticamente difendibili e tecnologie di IA progettate in modo etico. Ci sono anche potenziali gravi conseguenze negative se i principi etici e gli obblighi dei diritti umani non sono prioritari per coloro che finanziano, progettano, regolano o utilizzano le tecnologie di IA per la salute. Le opportunità e le sfide dell’IA sono quindi inestricabilmente legate”.
La cautela deve essere massima perché la nuova tecnologia “può aumentare la capacità dei fornitori di assistenza sanitaria di migliorare la cura dei pazienti, fornire diagnosi accurate, ottimizzare i piani di trattamento, sostenere la preparazione e la risposta alle pandemie, informare le decisioni dei responsabili delle politiche sanitarie o allocare le risorse all’interno sistemi sanitari”.
E ancora l’intelligenza artificiale può permettere ai pazienti e alle comunità di assumere il controllo della propria assistenza sanitaria e comprendere meglio le loro esigenze in evoluzione. Per raggiungere questo obiettivo i diritti e gli interessi degli utenti non devono però essere subordinati ai “potenti interessi commerciali delle aziende tecnologiche o agli interessi dei governi nella sorveglianza e nel controllo sociale”.
Secondo l’Oms il potenziale dell’IA “per rilevare i rischi per la salute del paziente o della comunità deve essere incorporato nei sistemi sanitari in un modo che promuova l’autonomia e la dignità umana e non sposti l’uomo dal centro del processo decisionale sulla salute”.
L’Oms si muove dunque con i piedi di piombo e una lunga lista di raccomandazioni che comprendono una accurata progettazione di questo tipo di soluzioni che devono riflettere la diversità dei contesti socioeconomici e sanitari ed essere accompagnati dalla formazione delle competenze digitali, coinvolgimento della comunità e sensibilizzazione. “I sistemi basati principalmente su dati di individui in paesi ad alto reddito potrebbe non funzionare bene per gli individui in ambienti a basso e medio reddito”.
Sei principi etici per utilizzo appropriato dell’IA
Tutte queste considerazioni sono state tradotte in una serie di principi etici che l’Organizzazione spera siano utilizzati come base da governi, sviluppatori di tecnologie, aziende, società civile e organizzazioni intergovernative per adottare approcci etici con l’obiettivo di un utilizzo appropriato dell’intelligenza artificiale.
1. Proteggere l’autonomia umana
Il primo riguarda la protezione dell’autonomia umana. Nel contesto dell’assistenza sanitaria, questo significa che gli esseri umani dovrebbero rimanere in controllo dei sistemi sanitari e delle decisioni mediche; la privacy e la riservatezza dovrebbero essere protette, e i pazienti devono dare un valido consenso informato attraverso adeguati quadri giuridici per la protezione dei dati.
2. Promuovere benessere e sicurezza umana e l’interesse pubblico
I progettisti di tecnologie IA dovrebbero soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia per casi d’uso o indicazioni ben definiti. Devono essere disponibili misure di controllo della qualità nella pratica e di miglioramento della qualità nell’uso dell’intelligenza artificiale.
3. Garantire la trasparenza, la spiegabilità e l’intelligibilità
La trasparenza richiede che siano pubblicate o documentate informazioni sufficienti prima della progettazione o dello spiegamento di una tecnologia di IA. Tali informazioni devono essere facilmente accessibili e facilitare una significativa consultazione pubblica e un dibattito su come la tecnologia è progettata e su come dovrebbe o non dovrebbe essere usata.
4. Promuovere responsabilità e affidabilità
Anche se le tecnologie di IA svolgono compiti specifici, è responsabilità delle parti interessate assicurare che siano usate in condizioni appropriate e da persone adeguatamente formate. Dovrebbero essere disponibili meccanismi efficaci per la messa in discussione e per il ricorso per gli individui e i gruppi che sono influenzati negativamente da decisioni basate su algoritmi.
5. Garantire l’inclusività e l’equità
L’inclusività richiede che l’IA per la salute sia progettata per incoraggiare l’uso e l’accesso più equo possibile, indipendentemente da età, sesso, genere, reddito, razza, etnia, orientamento sessuale, abilità o altre caratteristiche protette dai codici dei diritti umani.
6. Promuovere un’IA reattiva e sostenibile
Progettisti, sviluppatori e utenti dovrebbero valutare continuamente e in modo trasparente le applicazioni di intelligenza artificiale durante l’uso effettivo per determinare se rispondono in modo adeguato e appropriato alle aspettative e ai requisiti. I sistemi di IA dovrebbero anche essere progettati per minimizzare le loro conseguenze ambientali e aumentare l’efficienza energetica. I governi e le aziende dovrebbero affrontare le interruzioni previste sul posto di lavoro, compresa la formazione degli operatori sanitari per adattarsi all’uso dei sistemi di IA, e le potenziali perdite di posti di lavoro dovute all’uso di sistemi automatizzati.