4 aree critiche da affrontare per la regolamentazione dell’IA
Con la proposta da parte di diversi legislatori in tutto il mondo di regolamenti e linee guida sugli strumenti di modelli linguistici di grandi dimensioni (LLM) come ChatGPT e Google Bard, Gartner ha identificato quattro aree critiche da affrontare per i general counsel (GC) e i leader legali. “I responsabili legali possono esaminare i punti in cui le varie proposte si sovrappongono per aiutare i dirigenti e il consiglio di amministrazione a prepararsi ai cambiamenti normativi durante lo sviluppo della strategia aziendale sull’IA” ha dichiarato Laura Cohn, senior principal research di Gartner. “Anche se in molte giurisdizioni le leggi non entreranno in vigore prima del 2025, i responsabili legali possono iniziare a lavorare già oggi nell’attesa che la regolamentazione definitiva prenda forma”.
Gli esperti di Gartner hanno identificato quattro azioni per i leader legali per creare una supervisione dell’IA che permetta alle loro organizzazioni di andare avanti in attesa di indicazioni definitive.
Incorporare la trasparenza nell’uso dell’IA
“La trasparenza sull’uso dell’IA sta emergendo come elemento critico delle proposte di legge in tutto il mondo”, ha affermato Cohn. “I responsabili legali devono pensare a come le loro organizzazioni renderanno chiaro a tutti gli esseri umani quando interagiscono con l’IA”.
Ad esempio, con l’utilizzo dell’IA nei contenuti di marketing e nel processo di assunzione, i responsabili legali possono contribuire aggiornando le note sulla privacy e i termini delle condizioni sui siti web aziendali per l’utilizzo dell’IA. Tuttavia, è meglio creare una sezione separata nel Trust Center online dell’organizzazione. Oppure, l’organizzazione potrebbe pubblicare un avviso puntuale al momento della raccolta dei dati che illustri specificamente le modalità di utilizzo dell’IA da parte dell’organizzazione. I responsabili legali potrebbero anche prendere in considerazione l’aggiornamento del codice di condotta dei fornitori con l’obbligo di notifica se un fornitore intende utilizzare l’IA.
Assicurarsi che la gestione del rischio sia continua
“I responsabili GC e legali dovrebbero partecipare a uno sforzo interfunzionale per mettere in atto controlli di gestione del rischio che abbraccino il ciclo di vita di qualsiasi strumento di IA ad alto rischio”, ha affermato Cohn. “Un approccio a questo proposito può essere una valutazione dell’impatto algoritmico (AIA) che documenti il processo decisionale, dimostri la dovuta diligenza e riduca il rischio normativo presente e futuro e altre responsabilità”.
Oltre all’ufficio legale, il GC dovrebbe coinvolgere la sicurezza delle informazioni, la gestione dei dati, la scienza dei dati, la privacy, la conformità e le unità aziendali interessate per avere un quadro più completo dei rischi. Dal momento che i responsabili legali non sono in genere i proprietari dei processi aziendali per i quali creano i controlli, la consultazione delle unità aziendali interessate è fondamentale.
Creare una governance che includa la supervisione e la responsabilità umana
“Un rischio molto evidente nell’utilizzo degli strumenti di LLM è che possono sbagliare molto pur sembrando superficialmente plausibili”, continua Cohn. “Per questo motivo le autorità di regolamentazione richiedono una supervisione umana che dovrebbe fornire controlli interni sui risultati degli strumenti di IA”.
Le aziende potrebbero voler designare un responsabile dell’IA per aiutare i team tecnici a progettare e implementare i controlli umani. A seconda del dipartimento che ospita l’iniziativa sull’IA, questa persona potrebbe essere un membro del team con una profonda conoscenza funzionale, un membro del team di sicurezza o di privacy o, in caso di integrazioni con la ricerca aziendale, il responsabile dell’ambiente di lavoro digitale. Il GC potrebbe inoltre istituire un comitato consultivo sull’etica digitale composto da esperti legali, operativi, informatici, di marketing ed esterni per aiutare i team di progetto a gestire le questioni etiche e assicurarsi che il consiglio di amministrazione sia al corrente di eventuali risultati.
Proteggersi dai rischi legati alla privacy dei dati
“È chiaro che le autorità di regolamentazione vogliono proteggere la privacy degli individui quando si tratta di utilizzare l’IA”, conclude Cohn. “Per i responsabili legali sarà fondamentale tenere sotto controllo le nuove pratiche vietate, come il monitoraggio biometrico negli spazi pubblici”.
I responsabili legali e della compliance dovrebbero gestire i rischi legati alla privacy applicando i principi della privacy-by-design alle iniziative di IA. Ad esempio, richiedere una valutazione dell’impatto sulla privacy fin dalle prime fasi del progetto o assegnare ai membri del team privacy la valutazione dei rischi per la privacy.
Con le versioni pubbliche degli strumenti di LLM, le organizzazioni devono avvisare i dipendenti che tutte le informazioni inserite possono entrare a far parte del set di dati di formazione. Ciò significa che le informazioni sensibili o proprietarie utilizzate nei prompt potrebbero finire nelle risposte degli utenti esterni all’azienda. Per questo motivo è fondamentale stabilire delle linee guida, informare il personale dei rischi connessi e fornire indicazioni su come utilizzare in sicurezza questi strumenti.