Come l’intelligenza artificiale può favorire diversità, equità e inclusione
Man mano che l’intelligenza artificiale (IA) si fa strada nelle aziende, gli utenti che hanno riscontrato il maggior successo con questa tecnologia stanno adottando un approccio olistico all’IA, secondo l’AI Business Survey 2022 di PwC. Costituiti dal 36% degli intervistati, questi “leader dell’IA”, come li definisce PwC, utilizzano l’intelligenza artificiale per indirizzare simultaneamente la trasformazione del business, il processo decisionale migliorato e la modernizzazione dei sistemi piuttosto che affrontare un’area alla volta.
Queste e altre organizzazioni stanno iniziando a utilizzare l’IA anche per risolvere decisioni aziendali più complesse in merito a diversità, equità e inclusione (DEI). In effetti, il 46% dei leader IA utilizza l’intelligenza artificiale per prendere decisioni sulla forza lavoro che includono la DEI, rispetto al 24% di altre aziende. “Le aziende utilizzano l’intelligenza artificiale per il reclutamento e l’assunzione, nonché per la fidelizzazione e il coinvolgimento” ha affermato Bret Greenstein, partner di PwC per l’analisi dei dati e l’intelligenza artificiale e coautore del report.
Il passato dannoso dell’IA nelle assunzioni
Sebbene molte aziende stiano sperimentando l’IA come strumento per valutare la DEI in queste aree, ha osservato Greenstein, non stanno delegando completamente tali processi all’IA, ma piuttosto li stanno potenziando con l’IA. Parte del motivo della loro cautela è che spesso in passato l’IA ha fatto più male che bene in termini di DEI sul posto di lavoro, poiché algoritmi “distorti” finivano con il discriminare le donne e i candidati non bianchi.
Ad esempio, nel 2018, Amazon è stata costretta a eliminare il suo strumento segreto di reclutamento dell’IA dopo essersi resa conto che l’algoritmo alla base di questo tool era prevenuto nei confronti delle donne. E uno studio del 2019 condotto dall’Harvard Business Review ha concluso che gli algoritmi di reclutamento abilitati dall’intelligenza artificiale hanno introdotto pregiudizi anti-neri.
Il bias dell’IA è causato, spesso inconsciamente, dalle persone che progettano modelli di IA e interpretano i risultati. Se un’intelligenza artificiale viene addestrata su dati distorti, a sua volta prenderà decisioni distorte. Ad esempio, se un’azienda ha assunto in passato come ingegneri informatici per lo più uomini bianchi con lauree in determinate università, un algoritmo di reclutamento potrebbe favorire candidati con profili simili per posizioni di ingegneria aperte.
Man mano che gli sviluppatori di intelligenza artificiale diventano più consapevoli del potenziale pregiudizio incorporato nel software di reclutamento, possono lavorare per proteggersi da esso. In effetti, il 45% delle organizzazioni che PwC identifica come leader dell’IA ha affermato di avere in programma di affrontare le questioni di equità nei propri sistemi di intelligenza artificiale nel 2022.
“Penso che l’utilizzo dell’IA in chiave DEI passerà dalla fase sperimentale a quella di produzione per il reclutamento e l’assunzione man mano che le persone miglioreranno nella comprensione e nell’identificazione dei pregiudizi e nel capire come valutare meglio le prestazioni future”, ha affermato Greenstein.
Usare l’IA per evidenziare i pregiudizi
Secondo Gartner, il 62% dei leader delle risorse umane dichiara di utilizzare i dati DEI come input per processi come il reclutamento e la gestione delle prestazioni. Tuttavia, pochi lo usano per influenzare efficacemente le decisioni dei leader sui lavoratori. Per creare una forza lavoro diversificata, equa e inclusiva, i leader delle risorse umane devono integrare meglio le strategie dei dati della DEI nelle pratiche quotidiane dell’esperienza dei dipendenti, ha affermato Emily Strother, preside senior, ricerca presso Gartner.
Le organizzazioni stanno incorporando sempre più la tecnologia IA nei loro processi di acquisizione e gestione dei talenti per evidenziare potenziali pregiudizi. “In particolare, lo vediamo nel modo in cui gestiscono il reclutamento e come lavorano con la gestione delle prestazioni. Questo è uno dei punti per cui le organizzazioni sono più preoccupate a livello di pregiudizi, ma l’IA può aiutare”.
L’IA può anche aiutare le organizzazioni a garantire che i loro annunci di lavoro siano il più possibile privi di pregiudizi. “Vediamo organizzazioni che utilizzano l’intelligenza artificiale per rivedere alcuni siti di lavoro, come LinkedIn o Indeed, per garantire che il linguaggio che utilizzano quando pubblicano annunci per posizioni aperte sia accurato o in linea con le competenze necessarie per il lavoro rispetto a tutto ciò che potrebbe indicare pregiudizi”, continua la Strother.
Kay Formanek, fondatore e CEO della società di educazione alla diversità KAY Diversity and Performance e autore di Beyond D&I: Leading Diversity with Purpose and Inclusiveness, propone un esempio interessante. “Se un’azienda sta cercando un leader motivato, ambizioso e in grado di produrre risultati, questo viene considerato una sorta di lavoro maschile e la ricerca ha dimostrato che le donne tenderanno a rinunciare pur essendo ben qualificate per il lavoro”.
Secondo Formanek, le donne sono alla ricerca di un linguaggio più femminile, come ad esempio: “Stiamo cercando un leader che, insieme al team, supporti l’agenda di crescita dell’azienda. Cerchiamo qualcuno che sia in grado di creare un team”. Secondo Strother, l’intelligenza artificiale può aiutare le aziende a rimuovere qualsiasi linguaggio distorto dai loro annunci di lavoro e avvisare quando un certo linguaggio potrebbe essere distorto in termini di genere o allineato a specifiche competenze che potrebbero escludere candidati qualificati da background più diversi o sottorappresentati.
Utilizzo dell’IA per identificare i dipendenti disimpegnati
Greenstein di PwC vede un grande potenziale per l’IA nella fidelizzazione dei lavoratori. Il mantenimento dei dipendenti è la chiave del successo di un’azienda e i fattori che spingono le persone a lasciare un’attività hanno molto a che fare con i lavoratori che si sentono emarginati, disconnessi e non coinvolti.
Le aziende possono utilizzare l’IA per identificare dipartimenti o ruoli ad alto rischio di logoramento, lavoratori insoddisfatti o non coinvolti e persino persone che si sentono isolate perché lavorano in remoto, ha affermato Greenstein. “In generale, il lavoro da remoto ha avuto un impatto maggiore sui diversi dipendenti, perché in questi casi emergono livelli di isolamento più elevati. Una minore connessione può essere più dannosa nella maggior parte dei casi”.
Gli strumenti di intelligenza artificiale possono aiutare i manager a capire se alcuni dipendenti sono più a rischio di altri. “I manager possono utilizzare l’IA per cercare indicatori su come le persone interagiscono per identificare il grado di isolamento che provano, nonché per cercare fattori scatenanti con lo scopo di determinare quando le persone sembrano essere più disconnesse dal loro lavoro”.
Sebbene non ci siano ancora strumenti standard per questo scopo, secondo PwC alcune aziende stanno iniziando a identificare dati ritenuti importanti (viaggi, calendario, prestazioni, compensi, carico di lavoro, ecc.) per capire l’impatto che l’isolamento ha avuto sul coinvolgimento e alla fine logoramento dei loro dipendenti. Integrando i dati potenzialmente rilevanti in data lake o data warehouse nel cloud, le aziende utilizzano principalmente strumenti di analisi cloud-native su misura per cercare correlazioni e causalità, creare modelli predittivi e determinare le azioni migliori da compiere.
Una volta che le aziende identificano i dipendenti che si sentono disconnessi o emarginati, devono agire per farli sentire rispettati e inclusi. Ma già sapere chi si sente escluso è un primo passo importante.
Le dinamiche di acquisizione di talenti sono cambiate drasticamente negli ultimi due anni e continuano ad evolversi; di conseguenza, le aziende che hanno una gestione dei propri dati e il personale con le capacità di analisi per interpretarli hanno un vantaggio. “Penso che questi strumenti possano aiutarci a essere migliori come manager e come partner nei confronti dei nostri dipendenti”, conclude Greenstein.