Misurare e bilanciare l’equità nei modelli di intelligenza artificiale
Il pregiudizio nello sviluppo dell’intelligenza artificiale è una preoccupazione crescente man mano che il suo utilizzo aumenta in tutto il mondo. Ma, nonostante gli sforzi per creare standard di intelligenza artificiale, secondo un nuovo rapporto di Forrester Research spetta in definitiva alle organizzazioni e ai leader IT adottare le migliori pratiche e garantire l’equità durante tutto il ciclo di vita dell’IA per evitare qualsiasi impatto negativo su normative, reputazione ed entrate.
Sebbene sia impossibile eliminare al 100% i pregiudizi nell’IA, i CIO devono determinare quando e dove utilizzare l’IA e quali potrebbero essere le ramificazioni del suo utilizzo, ha affermato Brandon Purcell, vicepresidente di Forrester.
Il pregiudizio è diventato così intrinseco nei modelli di intelligenza artificiale che le aziende stanno cercando di assumere un nuovo dirigente di livello C chiamato Chief Ethic Officer incaricato di gestire le complesse implicazioni etiche dell’IA. Salesforce, Airbnb e Fidelity hanno già responsabili dell’etica e ci si aspetta che altre grandi società seguano l’esempio.
Garantire l’equità dell’IA
I CIO possono adottare diverse misure non solo per misurare ma anche per bilanciare l’equità dei modelli di intelligenza artificiale, anche se mancano linee guida normative che dettino le specifiche dell’equità. Il primo passo, secondo Purcell, è assicurarsi che il modello stesso sia giusto. Per questo raccomanda di utilizzare un criterio di equità basato sull’accuratezza e ottimizzato per l’uguaglianza, un criterio di equità basato sulla rappresentazione e ottimizzato per l’equità e un criterio di equità basato sull’individuo. Le aziende dovrebbero unire insieme più criteri di equità per verificare l’impatto sulle previsioni del modello.
Mentre il criterio di equità basato sull’accuratezza garantisce che nessun gruppo nel set di dati riceva un trattamento preferenziale, il criterio di equità basato sull’equità garantisce che il modello offra risultati equi sulla base dei set di dati. “La parità demografica, ad esempio, mira a garantire che proporzioni uguali di gruppi diversi siano selezionate da un algoritmo. Un algoritmo di assunzione ottimizzato per la parità demografica assumerebbe una percentuale di candidati maschili e femminili rappresentativa della popolazione complessiva (probabilmente 50:50 in questo caso), indipendentemente dalle potenziali differenze nelle qualifiche”, ha affermato Purcell.
Un esempio di pregiudizio nell’IA è stato il modello di intelligenza artificiale di Apple Card che assegnava più credito agli uomini, come è stato rivelato alla fine del 2019. Il problema è emerso quando il modello ha offerto al cofondatore di Apple Steve Wozniak un limite di credito 10 volte superiore a quello di sua moglie anche se i due condividono gli stessi beni.
Bilanciare l’equità nell’IA
Bilanciare l’equità dell’IA durante il suo ciclo di vita è importante per garantire che la previsione di un modello sia quasi priva di pregiudizi. A tal fine, le aziende dovrebbero cercare di sollecitare il feedback delle parti interessate per definire i requisiti aziendali, cercare dati di formazione più rappresentativi durante la comprensione dei dati, utilizzare etichette più inclusive durante la preparazione dei dati, sperimentare l’inferenza causale e l’IA contraddittoria nella fase di modellazione e, infine, tenere conto dell’intersezionalità nella fase di valutazione. L’intersezionalità è il modo in cui vari elementi dell’identità di una persona si combinano per comporre gli impatti di pregiudizi o privilegi.
“Le correlazioni spurie rappresentano i pregiudizi più dannosi”, continua Purcell. “Per superare questo problema, alcune aziende stanno iniziando ad applicare tecniche di inferenza causale, che identificano le relazioni di causa ed effetto tra le variabili e quindi eliminano le correlazioni discriminatorie”. Altre aziende stanno sperimentando l’apprendimento in ambienti ostili (adversarial learning), una tecnica utilizzata per consentire un uso efficace e sicuro di tecniche di machine learning in ambienti ostili come il filtraggio delle email di spam, la sicurezza informatica e il riconoscimento biometrico.
“Durante il training della sua piattaforma VisualAI per il pagamento al dettaglio, il fornitore di visione artificiale Everseen ha utilizzato l’adversarial learning sia per ottimizzare il rilevamento dei furti, sia per scoraggiare il modello dal fare previsioni basate su attributi sensibili come razza e sesso. Nel valutare l’equità dei sistemi di intelligenza artificiale, concentrarsi esclusivamente su una classificazione come il genere può portare a trascurare i pregiudizi che si verificano a un livello più granulare per le persone che appartengono a due o più popolazioni storicamente private dei diritti civili, come le donne non bianche”.
Purcell ha fornito l’esempio del fondamentale documento di Joy Buolamwini e Timnit Gebru sul pregiudizio algoritmico nel riconoscimento facciale che ha rilevato che il tasso di errore per il sistema di classificazione di genere di Face++ era dello 0,7% per gli uomini e del 21,3% per le donne in tutte le razze e che il tasso di errore è balzato a 34,5% per le donne di carnagione scura.
Altri modi per regolare l’equità nell’IA
Ci sono altri metodi che le aziende potrebbero impiegare per garantire l’equità nell’IA, che includono l’implementazione di modelli diversi per gruppi diversi nella fase di implementazione e il crowdsourcing con ricompense (in cui gli utenti che rilevano i pregiudizi vengono premiati) nella fase di monitoraggio.
“A volte è impossibile acquisire dati di allenamento sufficienti sui gruppi sottorappresentati. Qualunque cosa accada, il modello sarà dominato dalla “tirannia” della maggioranza. Altre volte, il pregiudizio sistemico è così radicato nei dati che nessuna bacchetta magica lo sradicherà. In questi casi, potrebbe essere necessario separare i gruppi in diversi set di dati e creare modelli separati per ciascun gruppo”, conclude Purcell.