OpenAI rassicura il Garante: migliorerà la protezione dei dati
Si è svolto in videoconferenza il tanto atteso incontro tra il Garante Privacy e OpenAI. Oltre al Collegio del Garante (Pasquale Stanzione, Ginevra Cerrina Feroni, Agostino Ghiglia, Guido Scorza), erano presenti Che Chang, Deputy General Counsel di OpenAI, Anna Makanju, responsabile Public Policy e Ashley Pantuliano, Associate General Counsel. In apertura ha preso parte anche Sam Altman, CEO dell’azienda statunitense.
Massima collaborazione da parte di OpenAI
OpenAI ha anzitutto puntualizzato di essere convinta di rispettare già in modo adeguato le norme in tema di protezione dei dati personali. Nonostante ciò, ha espresso la volontà di fornire la massima collaborazione con l’Autorità italiana con l’obiettivo di arrivare a una positiva soluzione delle criticità rilevate dal Garante riguardo a ChatGPT.
In tal senso, OpenAI si è impegnata a rafforzare la trasparenza nell’uso dei dati personali degli interessati, i meccanismi esistenti per l’esercizio dei diritti e le garanzie per i minori e a inviare al Garante in brevissimo tempo un documento che indichi le misure che rispondano alle richieste dell’Autorità.
Il Garante vuole certezze
Da parte sua, il Garante ha tenuto a evidenziare come non abbia alcuna intenzione di porre un freno allo sviluppo dell’AI e dell’innovazione tecnologica, ha però ribadito l’importanza del rispetto delle norme poste a tutela dei dai personali dei cittadini italiani ed europei. Si è inoltre riservato di valutare le misure proposte dalla società, anche riguardo al provvedimento adottato nei confronti di OpenAI.
Ricordiamo infatti che lo scorso 30 marzo, ritenendo fosse necessario avere maggiore chiarezza nella gestione delle informazioni da parte di ChatGTP, il garante aveva imposto la limitazione provvisoria del trattamento dei dati personali dei cittadini italiani da parte di OpenAI, lasciando 20 giorni di tempo all’azienda per soddisfare le richieste. In risposta alle istanze del garante, ChatGPT stessa aveva fatto seguire un blocco dell’accesso al sistema a chiunque tentasse di collegarsi dall’Italia.
Tutta la sicurezza di ChatGTP in un post
Tuttavia, OpenAI si è detta fin da subito disponibile a risolvere le criticità indicate dal Garante. E l’incontro avuto ne è una dimostrazione. Non solo. Una seconda dimostrazione potrebbe essere rappresentata dal fatto che, mentre avveniva l’incontro stesso, OpenAI pubblicava sul suo blog un approfondito post inerente a come viene gestita la sicurezza dell’intelligenza artificiale.
Tale post, intitolato proprio “Il nostro approccio alla sicurezza dell’AI”, potrebbe essere, infatti, un primo passo nel comunicare le misure intraprese in termini di sicurezza secondo quanto richiesto dal Garante.
All’interno del suo post, OpenAI precisa di essere cosciente di quanti vantaggi i suoi strumenti di intelligenza artificiale possano offrire alle persone. A detta dell’azienda, sono gli stessi utenti in tutto il mondo a confermare come ChatGTP sia di aiuto nell’incrementare la produttività e a migliorare la creatività. Un ulteriore beneficio enfatizzato dagli utenti sarebbero le esperienze di apprendimento su misura che permette ChatGPT. OpenAI riconosce però che, come qualsiasi tipo di tecnologia, anche ChatGTP comporta rischi reali. Proprio per questo motivo, l’azienda sottolinea di essere al lavoro per garantire che la sicurezza sia integrata all’interno del sistema a tutti i livelli.
A riguardo precisa che, oltre a migliorare la sicurezza in generale, si sta in particolare focalizzandosi sull’apprendimento dal mondo reale, sul rispetto della privacy e sulla protezione dei bambini e dei minori di 18 anni.
Si estende la richiesta di certezze sulla sicurezza
D’altra parte, la pubblicazione del post sulla sicurezza di ChatGTP potrebbe essere anche una mossa attuata da OpenAI per calmare Paesi come Canada, Francia, Germania e Irlanda, che sembrano intenzionati a seguire le orme del Garante per vederci un po’ più chiaro sul trattamento delle informazioni da parte di ChatGTP. Inoltre, in Australia il sindaco di una cittadina nei pressi di Melbourne si era detto propenso a intentare a OpenAI una causa per diffamazione se l’azienda non avesse posto rimedio al fatto che ChatGPT lo aveva falsamente indicato come colpevole di uno scandalo di corruzione che aveva coinvolto una filiale della Reserve Bank of Australia nei primi anni 2000.
Il Presidente USA non esclude che l’AI possa essere pericolosa
Maggiore chiarezza e certezza sulla sicurezza dei sistemi di AI è stata chiesta anche dal Presidente degli Stati Uniti Joe Biden, che, incontrando i giornalisti prima di un meeting con il President’s Council of Advisors on Science and Technology, ha affermato: “Lo scorso ottobre abbiamo proposto una legge sui diritti per garantire che importanti protezioni siano integrate nei sistemi di Ai fin dall’inizio, senza dover tornare indietro. A mio avviso, le aziende tecnologiche hanno la responsabilità di assicurarsi che i loro prodotti siano sicuri prima di renderli pubblici. Il Congresso deve approvare una legislazione bipartisan sulla privacy che imponga limiti severi ai dati personali che le aziende tecnologiche raccolgono su tutti noi”.
Alla precisa domanda di un giornalista “Signor Presidente, pensa che l’intelligenza artificiale sia pericolosa?”, Biden ha risposto: “Vedremo. Potrebbe esserlo”.
Una risposta in linea con quanto pensano i firmatari della lettera pubblica presentata dall’organizzazione non-profit Future of Life Institute, in cui un gruppo di esperti di intelligenza artificiale e anche nomi illustri (come Elon Musk o Steve Wozniak) chiedono ai laboratori di IA di sospendere l’addestramento dei sistemi di intelligenza artificiale generativa per scongiurare potenziali rischi per la società e l’umanità.