Quando si parla di rischi dell’intelligenza artificiale legati ai diritti umani in molti pensano a scenari da fantascienza distopica, in cui IA malvagie come quella di Matrix o la Skynet di Terminator soggiogano l’intera umanità con l’inganno o con la forza.

La realtà dei fatti è che – in modi meno eclatanti – già oggi modelli di intelligenza artificiale possono influire in modo sostanziale sulla vita di singole persone o gruppi sociali, provocando gravi effetti per la salute, lo stato occupazionale, la libertà e la sopravvivenza.

L’omicidio a New York di Brian Thompson, CEO di UnitedHealthcare, ha riportato di attualità il caso giudiziario dell’azienda, accusata lo scorso anno di utilizzare per la valutazione dei rimborsi sanitari dei propri clienti un modello IA che respingeva – erroneamente – più del novanta percento delle richieste. L’accusa sostiene che i vertici aziendali erano ben consci del tasso di errore, ma hanno mantenuto in funzione il modello per gli enormi risparmi economici che garantiva (e ti credo).

Il punto però è un altro: anche se l’azienda fosse stata inconsapevole degli errori, quel modello IA ha negato a dei malati l’accesso alle cure, provocando loro sofferenze, invalidità e in qualche caso la morte. Non è improbabile che l’assassino – non ancora individuato mentre scrivo – sia proprio una vittima delle scelte del modello IA, o un suo parente.

Problemi simili si possono avere con i modelli coinvolti nella valutazione per la concessione dell’ingresso in un paese o l’accesso a procedure di asilo, la concessione della libertà vigilata, o la valutazione di curriculum o prestazioni lavorative che possono portare o meno a un’assunzione o un licenziamento.

Con l’AI Act, l’Unione Europea si è dotata di una legge che regole le intelligenze artificiali, che impone procedure e controlli variabili in funzione del livello di rischio a cui un modello può esporre i cittadini. Per introdurre un criterio quantitativo di valutazione del rischio IA sugli individui e sulla società, il Comitato sull’Intelligenza Artificiale (CAI) del Consiglio d’Europa ha introdotto la Metodologia HUDERIA (HUman Rights DEmocracy and Rule of law for IA).

Una valutazione completa dei rischi dell’IA

La metodologia HUDERIA rappresenta il primo approccio strutturato per condurre valutazioni di rischio approfondite sui sistemi di intelligenza artificiale. Sviluppata a supporto della prima Convenzione quadro internazionale giuridicamente vincolante in materia di IA, lo strumento è destinato sia ad attori pubblici che privati.

Caratteristica distintiva di HUDERIA è l’analisi olistica che contestualizza i sistemi di intelligenza artificiale all’interno delle strutture sociali. L’obiettivo principale è identificare e mitigare potenziali rischi per i diritti umani durante l’intero ciclo di vita delle tecnologie di IA.

Meccanismi di mitigazione e revisione continua

La metodologia prevede la creazione di piani di mitigazione specifici per minimizzare i rischi identificati. Un esempio concreto riguarda i sistemi di selezione del personale: qualora si rilevassero bias algoritmici contro determinati gruppi demografici, il piano potrebbe prevedere:

  • Aggiustamenti dell’algoritmo
  • Implementazione di supervisione umana
  • Applicazione di misure di governance appropriate

Un aspetto cruciale è la valutazione periodica, che garantisce la compatibilità continua del sistema con gli standard sui diritti umani, adattandosi all’evoluzione tecnologica e sociale.

Adottata durante la 12esima riunione plenaria a Strasburgo, la metodologia HUDERIA sarà integrata nel 2025 dal Framework HUDERIA, che includerà una libreria di risorse e raccomandazioni flessibili.

La Convenzione quadro, firmata da 11 paesi tra cui Stati Uniti, Regno Unito ed Unione Europea, mira a garantire che lo sviluppo dell’intelligenza artificiale avvenga nel pieno rispetto dei diritti umani, favorendo al contempo l’innovazione tecnologica.

L’iniziativa del Consiglio d’Europa si colloca all’avanguardia nell’approccio regolatorio all’intelligenza artificiale, offrendo agli sviluppatori e alle organizzazioni uno strumento concreto per una progettazione etica e responsabile dei sistemi di IA.