I rischi legati a ChatGPT che i responsabili legali e della compliance devono valutare
Indice dell'articolo
Secondo Gartner i responsabili legali e della compliance dovrebbero valutare l’esposizione delle loro organizzazioni a sei rischi specifici di ChatGPT e quali linee guida stabilire per garantire un uso responsabile degli strumenti di IA generativa da parte delle aziende.
“L’output generato da ChatGPT e da altri strumenti di modelli linguistici di grandi dimensioni (LLM) è soggetto a diversi rischi” ha dichiarato Ron Friedmann, analista senior della Legal & Compliance Practice di Gartner. “I responsabili legali e della compliance dovrebbero valutare se questi problemi rappresentano un rischio concreto per la loro azienda e quali controlli sono necessari, sia all’interno dell’azienda che nell’azienda allargata a terzi e a terzi. In caso contrario, le aziende potrebbero essere esposte a serie conseguenze legali, reputazionali e finanziarie”.
Di seguito riportiamo i sei rischi di ChatGPT che i responsabili legali e della conformità dovrebbero valutare.
Risposte false e inaccurate
Forse il problema più comune di ChatGPT e di altri strumenti di LLM è la tendenza a fornire informazioni errate, anche se superficialmente plausibili.
“ChatGPT è anche incline alle allucinazioni, tra cui risposte inventate e sbagliate e citazioni legali o scientifiche inesistenti”, ha dichiarato Friedmann. “I responsabili legali e della compliance dovrebbero emanare delle linee guida che richiedano ai dipendenti di verificare l’accuratezza, l’adeguatezza e l’effettiva utilità di qualsiasi risultato generato da ChatGPT prima di accettarlo”.
Privacy e riservatezza dei dati
I responsabili legali e della compliance devono essere consapevoli del fatto che tutte le informazioni inserite in ChatGPT, se la cronologia delle chat non è disabilitata, possono entrare a far parte del set di dati della formazione.
“Le informazioni sensibili, proprietarie o riservate utilizzate nei messaggi possono essere incorporate nelle risposte per gli utenti esterni all’azienda”, ha dichiarato Friedmann. “L’ufficio legale deve stabilire un quadro di conformità per l’uso di ChatGPT e proibire chiaramente l’inserimento di dati sensibili dell’organizzazione o personali in strumenti LLM pubblici”.
Pregiudizio del modello e dell’output
Nonostante gli sforzi di OpenAI per ridurre al minimo i pregiudizi e le discriminazioni in ChatGPT, si sono già verificati casi noti di questi problemi ed è probabile che persistano nonostante gli sforzi continui e attivi di OpenAI e di altri per ridurre al minimo questi rischi.
“L’eliminazione completa dei pregiudizi è probabilmente impossibile, ma gli uffici legali e la compliance devono rimanere aggiornati sulle leggi che regolano i pregiudizi dell’IA e assicurarsi che le loro indicazioni siano conformi”, continua Friedmann. “Questo può comportare la collaborazione con gli esperti in materia per garantire che l’output sia affidabile e con le funzioni di audit e tecnologia per stabilire controlli sulla qualità dei dati”.
Rischi legati alla proprietà intellettuale e al copyright
ChatGPT, in particolare, si basa su una grande quantità di dati internet che probabilmente includono materiale protetto da copyright. Pertanto, i suoi output possono potenzialmente violare le protezioni del copyright o della proprietà intellettuale.
“ChatGPT non offre riferimenti alle fonti o spiegazioni su come vengono generati i suoi risultati. I responsabili legali e della conformità dovrebbero tenere d’occhio qualsiasi modifica alla legge sul copyright che si applichi all’output di ChatGPT e richiedere agli utenti di controllare qualsiasi output generato per assicurarsi che non violi il copyright o i diritti di proprietà intellettuale”.
Rischi di frode informatica
I malintenzionati stanno già utilizzando ChatGPT in modo improprio per generare informazioni false su larga scala (ad esempio, recensioni false). Inoltre, le applicazioni che utilizzano modelli LLM, tra cui ChatGPT, sono anche suscettibili di prompt injection, una tecnica di hacking che prevede l’utilizzo di prompt avversariali malevoli per indurre il modello a svolgere attività non previste, come la scrittura di codici malware o lo sviluppo di siti di phishing che assomigliano a siti legittimi.
“I responsabili legali dovrebbero valutare se e quando emettere dei promemoria al personale della sicurezza informatica dell’azienda su questo tema. Dovrebbero inoltre condurre un audit delle fonti di due diligence per verificare la qualità delle loro informazioni”.
Rischi per la protezione dei consumatori
Le aziende che non rivelano ai consumatori l’utilizzo di ChatGPT (ad esempio, sotto forma di chatbot per l’assistenza clienti) rischiano di perdere la fiducia dei clienti e di essere accusate di pratiche sleali in base a diverse leggi. Ad esempio, la legge sui chatbot della California prevede che in determinate interazioni con i consumatori, le organizzazioni debbano comunicare in modo chiaro e visibile che il consumatore sta comunicando con un bot.
“I responsabili legali e della compliance devono assicurarsi che l’uso di ChatGPT da parte delle loro organizzazioni sia conforme a tutte le normative e le leggi pertinenti e che siano state fatte le opportune comunicazioni ai clienti”, conclude Friedmann.