C’è un database degli incidenti dell’IA generativa per tenere traccia degli errori
AI Incident Database è un sito web che tiene traccia di tutti gli incidenti, gli errori e i modi in cui l’intelligenza artificiale e l’IA generativa creano problemi e malfunzionamenti (principalmente deepfake, ma non solo). Inizialmente lanciato come progetto sotto l’egida della Partnership On AI, un’organizzazione che mira a garantire che l’IA sia utile per la società, l’AI Incident Database, che ad oggi ha catalogato oltre 600 incidenti unici legati all’automazione e all’intelligenza artificiale, è ora diventata un’organizzazione no-profit indipendente finanziata da Underwriters Laboratories, il più grande laboratorio di test di prodotti indipendente degli Stati Uniti.
L’obiettivo principale del database è aumentare la trasparenza e condividere informazioni sui rischi e i danni reali causati dall’IA, che spesso non sono noti al grande pubblico dei consumatori. Questo perché esiste un’enorme asimmetria informativa tra i produttori di sistemi di IA e gli utenti finali. Il sito si ispira ad altri database simili che registrano incidenti in settori come l’aviazione, i trasporti e la cybersicurezza.
AI Incident Database è attualmente gestito da una decina di persone, oltre a una manciata di volontari e collaboratori che esaminano e pubblicano online gli incidenti legati all’intelligenza artificiale segnalati. Monitorando gli incidenti con l’IA nel tempo, emergono alcune tendenze interessanti. Circa la metà degli incidenti nel database riguarda l’IA generativa e si va da casi banali come descrizioni di prodotti scritte male dagli LLM a casi più gravi come incidenti con veicoli a guida autonoma.
Secondo Patrick Hall della George Washington University, che fa parte del consiglio di amministrazione dell’AI Incident Database, “l’IA è per lo più un selvaggio west in questo momento” e non solo è necessaria una maggiore regolamentazione, ma bisogna anche fornire informazioni su come l’IA viene utilizzata in modo improprio e sulle sue conseguenze indesiderate, nella speranza che gli sviluppatori e i responsabili politici possano essere meglio informati e migliorare i loro modelli o regolamentare i rischi più pressanti.
Heather Frase, direttrice dell’organizzazione, è particolarmente preoccupata per i modi in cui l’IA potrebbe erodere i diritti umani e le libertà civili ed è convinta che la raccolta di incidenti ed errori possa mostrare se le politiche rendono effettivamente l’IA più sicura nel tempo. L’organizzazione non è contraria all’IA di per sé, ma vuole contribuire a renderla più sicura e affidabile analizzando gli incidenti reali.