Deep fakes ed errori dell’IA generativa saranno inevitabili, ma controllabili
Mentre gli sviluppatori di strumenti di IA generativa come ChatGPT, Dall-E2 e AlphaCode procedono a ritmo serrato, impedire del tutto che questa tecnologia abbia allucinazioni e produca risposte errate o offensive è quasi impossibile. E visto che gli strumenti di IA migliorano di giorno in giorno nell’imitare il linguaggio naturale, presto sarà impossibile distinguere i risultati falsi da quelli reali, il che spinge le aziende a creare dei “guardrail” contro i risultati peggiori, che siano accidentali o intenzionali da parte di malintenzionati.
Gli esperti del settore dell’IA intervenuti questa settimana alla conferenza EmTech Digital del MIT Technology Review hanno spiegato come le aziende che si occupano di IA generativa stiano affrontando una serie di ostacoli etici e pratici mentre si spingono a sviluppare la prossima generazione della tecnologia. “Questo è un problema generale di qualsiasi tecnologia”, ha dichiarato Margaret Mitchell, responsabile dell’etica presso il fornitore di app di machine learning Hugging Face. “Può essere sviluppata per usi davvero positivi e poi essere utilizzata anche per usi negativi, problematici o dannosi; questo si chiama doppio uso. Non so se esista un modo per garantire che qualsiasi tecnologia messa in commercio non abbia un doppio uso. Ma credo che sia importante cercare di ridurlo il più possibile”.
L’IA generativa si basa su modelli linguistici di grandi dimensioni (LLM), un tipo di tecnologia di machine learning che utilizza algoritmi per generare risposte a richieste o domande degli utenti. Gli LLM accedono a enormi quantità di informazioni nei database o direttamente da Internet e sono controllati da milioni o addirittura centinaia di miliardi di parametri che stabiliscono il modo con cui le informazioni possono fornire risposte. La chiave per garantire una ricerca responsabile è una solida documentazione degli LLM e dello sviluppo dei loro set di dati, dei motivi per cui sono stati creati e dei watermark che identificano i contenuti creati da un modello informatico. Anche in questo caso, è probabile che emergano dei problemi.
“Per molti versi, non possiamo garantire che questi modelli non producano discorsi tossici e che in alcuni casi rafforzino i pregiudizi nei dati con cui sono stati addestrati” ha dichiarato Joelle Pineau, vicepresidente della ricerca sull’intelligenza artificiale di Meta AI. “Crediamo che siano necessarie ulteriori ricerche… per questi modelli”.
Secondo Pineau, per gli sviluppatori di IA generativa c’è un compromesso tra le legittime preoccupazioni di sicurezza e la trasparenza dello sviluppo in crowdsourcing. Meta AI, il braccio di ricerca di Meta Platforms (ex Facebook), non rilascerà alcuni dei LLM che crea per uso commerciale perché non può garantire che non ci siano pregiudizi, discorsi tossici o altri contenuti errati. Tuttavia, ne consentirebbe l’uso a fini di ricerca per creare fiducia, permetterebbe ad altri ricercatori e sviluppatori di applicazioni di sapere “cosa c’è sotto il cofano” e contribuirebbe ad accelerare l’innovazione.
È stato dimostrato che l’IA generativa ha “pregiudizi incorporati”, ovvero che quando viene utilizzata per la ricerca, lo screening, i colloqui e l’assunzione di candidati, può favorire le persone in base alla razza o al sesso. Di conseguenza, persino alcune nazioni stanno studiando restrizioni sull’uso di bot basati sull’IA per trovare, intervistare e assumere candidati al lavoro. Meta si trova ad affrontare gli stessi problemi degli sviluppatori di IA: mantenere la riservatezza dei dati sensibili, determinare se un LLM può essere usato in modo improprio e cercare di garantire che la tecnologia sia imparziale.
“A volte iniziamo un progetto e alla fine intendiamo renderlo open source; usiamo un particolare set di dati e alla fine del processo scopriamo che non è un set di dati che dovremmo usare”, ha detto Pineau. Gli LLM possono essere perfezionati con set di dati specifici e istruiti a fornire risposte più personalizzate per usi aziendali specifici, come i chatbot di assistenza clienti o la ricerca medica, inserendo descrizioni del compito o sollecitando lo strumento di intelligenza artificiale con domande e risposte migliori.
Ad esempio, includendo in un LLM informazioni sulle cartelle cliniche elettroniche e sugli studi clinici sui farmaci, i medici possono chiedere a un chatbot come ChatGPT di fornire raccomandazioni basate sulle evidenze per la cura dei pazienti. Tuttavia, la qualità di un modello di intelligenza artificiale generativa è pari a quella del software e dei dati che ne sono alla base e gli strumenti possono essere utilizzati per produrre immagini e video deep fake, ovvero per manipolare foto e immagini reali con lo scopo di produrre falsi realistici.
La mossa di Microsoft con Copilot
A marzo Microsoft ha rilasciato Copilot, un chatbot basato su ChatGPT che viene integrato come assistente nelle applicazioni aziendali di Office 365. Il nome Copilot è stato scelto perché non si tratta di un chatbot concepito per svolgere un lavoro incustodito o non controllato, secondo Jared Spataro, vicepresidente aziendale per le applicazioni aziendali di Microsoft.
“Soprattutto su dati specifici come i numeri, quando Copilot dice ‘Siete cresciuti del 77% rispetto all’anno precedente in questa categoria’, vi darà un riferimento: si tratta di un report”, ha detto Spataro. “Se non vedete un riferimento preciso, sarete sicuri che si sta inventando qualcosa. Quello che stiamo cercando di insegnare alle persone è che questa tecnologia è estremamente utile, ma visto che le persone commettono errori dovreste pensare subito a Copilot come a un dipendente junior di grande talento di cui però non vi fidate ciecamente e che conviene sempre controllare”.
Watermark in soccorso?
Un modo per combattere le notizie, le immagini e i video falsi è quello di includere nei metadati quelli che sono essenzialmente dei watermark con lo scopo di indicare la fonte dei dati. Bill Marino, product manager principale della start-up di IA generativa Stability AI, ha dichiarato che la sua azienda integrerà presto la tecnologia della Coalition for Content Provenance and Authenticity (C2PA) nei suoi modelli di IA generativa. C2PA è un’associazione fondata nel febbraio 2021 da Adobe con la missione di fornire metadati identificativi nei contenuti dell’IA generativa.
Il mese scorso StabilityAI ha rilasciato StableLM, un’alternativa open-source a ChatGPT. Lo standard di metadati C2PA sarà contenuto in ogni immagine che uscirà dalle API di Stability, “e i dati di provenienza nei metadati aiuteranno il pubblico online a capire se si può fidare o meno di un contenuto che incontra online”, ha detto Marino. “Se vi imbattete nella famosa foto del Papa con il piumino bianco, sarebbe fantastico se fosse corredata di metadati che vi dicano che è stata generata dall’IA”, continua Marino.
Stability AI addestra gli LLM per vari casi d’uso e li fornisce gratuitamente come software open-source (in futuro potrebbe monetizzare le proprie API). Gli LLM possono poi essere perfezionate attraverso l’ingegnerizzazione immediata per scopi più specifici. Marino ha dichiarato che il rischio associato ai falsi, al malware e ai contenuti dannosi è assolutamente inaccettabile. “Mi sono unito a Stabilty, in parte, per stroncare questi fenomeni. Credo che spetti a noi farlo, soprattutto quando spostiamo la nostra attenzione verso i clienti aziendali: molti di questi rischi non hanno futuro”.
Come altri partecipanti alla conferenza del MIT, Marino ritiene che il futuro dell’IA generativa sia rappresentato da LLM relativamente piccoli che possono essere più agili, più veloci nelle risposte e personalizzati per usi aziendali o industriali specifici. Il tempo degli LLM massicci con centinaia di miliardi di parametri non durerà. Stability AI è solo una delle centinaia di start-up di IA generativa che utilizzano gli LLM per creare chatbot specifici per il settore e altre tecnologie per assistere una miriade di attività. L’IA generativa viene già utilizzata per produrre materiali di marketing e campagne pubblicitarie in modo più efficiente, gestendo compiti manuali o ripetitivi come la selezione di e-mail o la sintesi di riunioni di chat online o di documenti di grandi dimensioni.
Come ogni tecnologia potente, l’IA generativa può creare software per una miriade di scopi, sia positivi che negativi. Ad esempio, può trasformare persone non tecnologiche in sviluppatori di applicazioni o essere addestrata per testare le difese di rete di un’organizzazione e quindi ottenere l’accesso a informazioni sensibili. Oppure può essere utilizzata per attacchi orientati al carico di lavoro, per sfruttare le vulnerabilità delle API o per caricare malware nei sistemi.
Mitchell di Hugging Face ha riconosciuto a Meta il merito di aver limitato l’utilizzo di LLaMA (Large Language Model Meta AI) a chi compilava un modulo online con credenziali verificabili (LLaMA è un enorme LLM con 65 miliardi di parametri). “Questa decisione ha portato alla ribalta un elemento importante come la responsabilità e incentivato un comportamento corretto, perché se non si è anonimi è più probabile che non si usi uno strumento simile per scopi dannosi”. Anche Hugging Face sta lavorando su questo aspetto.“La creazione di alcuni guardrail o meccanismi che limitino in qualche modo l’uso della tecnologia e le persone che possono usarla è una direzione importante da seguire”.
La democratizzazione dei modelli di IA generativa può anche evitare che solo una o due aziende, come Microsoft e Google, abbiano una concentrazione di potere in cui le priorità delle persone sono incorporate nel software. “Se questi modelli sono diffusi in tutto il mondo, un singolo errore o pregiudizio diventa un errore globale”, conclude Mitchell. “La diversità assicura che i punti deboli di un sistema non siano quelli che tutti sperimentano. Ci sono debolezze e punti di forza diversi in diversi tipi di sistemi”.