Bias razziali (al contrario) nell’algoritmo di Gemini: Google sospende la generazione di immagini di persone
Google ha sospeso momentaneamente la generazione di immagini di persone del suo modello di intelligenza artificiale multimodale Gemini, dopo che questo non è riuscito a rappresentare accuratamente europei e americani bianchi in specifici contesti storici.
Ciò è risultato evidente quando un utente ha chiesto a Gemini di creare immagini di un soldato tedesco del 1943, con il risultato di quattro diversi ritratti (tra cui un soldato nero e una soldatessa asiatica) che non rappresentavano accuratamente la composizione della Wehrmacht all’epoca.
Altri utenti hanno anche evidenziato l’incapacità del modello di rappresentare accuratamente i Padri fondatori dell’America, un altro gruppo omogeneo di bianchi, mentre alla richiesta di creare senatori degli Stati Uniti del 1800, il risultato è stato quello di volti di donne nere e native americane, quando la prima senatrice donna, ovviamente bianca, fu eletta soltanto nel 1922.
“Siamo consapevoli che Gemini presenta delle imprecisioni in alcune rappresentazioni storiche nella funzione di generazione di immagini”, ha ammesso Google questa settimana. “Stiamo lavorando per migliorare immediatamente questo tipo di rappresentazioni”.
This is not good. #googlegemini pic.twitter.com/LFjKbSSaG2
— LINK IN BIO (@__Link_In_Bio__) February 20, 2024
Molti utenti e osservatori sostengono che questi insoliti risultati del text-to-image di Gemini derivino da una cultura dell’inclusività a tutti i costi insita nel materiale alla base dell’addestramento del modello, in quella che, estremizzando un po’ il concetto, alcuni hanno visto come una chiara dimostrazione di una filosofia “woke” applicata all’IA generativa di Google.
Su questo versante John Carmack, fondatore di ID Software (la software house di Doom e Quake), ha scritto su X che le barriere comportamentali dell’intelligenza artificiale create con l’ingegneria e il filtraggio dovrebbero essere pubbliche. “I creatori dovrebbero sostenere con orgoglio la loro visione di ciò che è meglio per la società e il modo in cui l’hanno cristallizzata in comandi e codice, ma sospetto che molti di essi si vergognino”.
La cosa comunque evidente è che il modello text-to-image di Gemini è stato reso disponibile senza che Google lo abbia adeguatamente testato e questo è un male per tutti (anche per Google stessa), perché influisce negativamente sulla fiducia nell’attendibilità dell’IA. Incidenti come questo alimentano inoltre i complottisti e i razzisti in cerca di prove di un orientamento politico dell’intelligenza artificiale.