La Casa Bianca annuncia regole sull’IA generativa per affrontare sicurezza e privacy
L’amministrazione Biden ha annunciato un nuovo piano per affrontare i rischi legati all’intelligenza artificiale generativa. Il Vicepresidente USA Kamala Harris e altri funzionari dell’amministrazione si sono incontrati con gli amministratori delegati di Google, Microsoft, OpenAI (il creatore del popolare chatbot ChatGPT) e con la startup Anthropic. I funzionari dell’amministrazione intendono discutere della “responsabilità fondamentale” che queste aziende hanno nel garantire che i loro prodotti di IA generativa siano sicuri e proteggano la privacy dei cittadini statunitensi, dal momento che questa tecnologia diventa sempre più potente e capace di prendere decisioni indipendenti.
“L’IA è una delle tecnologie più potenti del nostro tempo, ma per cogliere le opportunità che presenta dobbiamo prima mitigarne i rischi”, ha dichiarato la Casa Bianca in un comunicato. “Il Presidente Biden è stato chiaro: quando si parla di IA, dobbiamo mettere al centro le persone e le comunità, sostenendo un’innovazione responsabile che serva al bene pubblico, proteggendo al contempo la nostra società, la nostra sicurezza e la nostra economia.”
Questo nuovo piano della Casa Bianca si basa sui precedenti tentativi dell’amministrazione Biden di promuovere una qualche forma di innovazione responsabile, ma ad oggi il Congresso non ha ancora presentato alcuna legge che possa regolamentare l’IA. A ottobre, l’amministrazione ha presentato un progetto per la cosiddetta AI Bill of Rights e un quadro generale per la gestione dei rischi dell’IA, mentre più recentemente ha spinto per la creazione di una risorsa nazionale per la ricerca sull’IA. Secondo Avivah Litan, vicepresidente e analista di spicco di Gartner Research, queste misure non hanno alcun valore legale; si tratta infatti solo di ulteriori linee guida, studi e ricerche “e non sono ciò di cui abbiamo bisogno ora”.
“Abbiamo bisogno di linee guida chiare sullo sviluppo di un’IA sicura, equa e responsabile da parte delle autorità di regolamentazione statunitensi”, ha dichiarato Litan. “Abbiamo bisogno di norme significative, come quelle che stiamo vedendo svilupparsi nell’UE con l’AI Act. Anche se non stanno riuscendo a perfezionare tutto in una volta, almeno si stanno muovendo e sono disposti a iterare. Le autorità di regolamentazione statunitensi devono accelerare il passo”. A marzo, il leader della maggioranza del Senato Chuck Schumer ha annunciato l’introduzione di regole sull’IA generativa, in seguito all’aumento di popolarità del ChatGPT. Schumer ha chiesto una maggiore trasparenza e responsabilità per queste tecnologie.
Il recentissimo AI Act dell’Unione Europea è una proposta di norme che, tra le altre cose, richiederebbe ai produttori di strumenti di IA generativa di rendere pubblico qualsiasi materiale protetto da copyright utilizzato dalle piattaforme per creare contenuti. La Cina ha già lanciato diverse iniziative per la governance dell’IA, anche se la maggior parte di queste riguarda la privacy dei cittadini e non necessariamente la sicurezza. Tra le iniziative della Casa Bianca c’è un piano per la National Science Foundation che prevede di spendere 140 milioni di dollari per creare sette nuovi centri di ricerca dedicati all’IA.
L’amministrazione Biden ha inoltre dichiarato di aver ricevuto un “impegno indipendente da parte dei principali sviluppatori di IA”, tra cui Anthropic, Google, Hugging Face, Microsoft, NVIDIA, OpenAI e Stability AI a partecipare a una valutazione pubblica dei sistemi di IA, in linea con i principi di divulgazione responsabile. “Ciò consentirà a questi modelli di essere valutati in modo approfondito da migliaia di partner della comunità ed esperti di IA per esplorare come i modelli si allineano con i principi e le pratiche delineate nel Blueprint for an AI Bill of Rights and AI Risk Management Framework dell’amministrazione Biden-Harris”, ha dichiarato la Casa Bianca.
Tom Siebel, CEO di C3 AI, fornitore di applicazioni IA per le imprese e fondatore del fornitore di software CRM Siebel Systems, ha affermato che i fornitori di IA potrebbero regolamentare i propri prodotti, ma è improbabile che in un sistema capitalistico e competitivo siano disposti a limitare la tecnologia. “Mi piacerebbe credere che l’autoregolamentazione funzionerebbe, ma il potere corrompe e il potere assoluto corrompe in modo assoluto”. L’annuncio della Casa Bianca arriva dopo che decine di migliaia di tecnologi, scienziati, educatori e altri hanno firmato una petizione che chiede a OpenAI di sospendere per sei mesi lo sviluppo di ChatGPT, che attualmente funziona con l’algoritmo GPT-4 large language model (LLM).
I tecnologi sono allarmati dalla rapida ascesa dell’IA, che è passata dal migliorare compiti come le ricerche online alla capacità di creare prosa realistica e di codificare software a partire da semplici istruzioni, nonché di creare video e foto, tutti quasi indistinguibili dalle immagini reali. Nei giorni scorsi, Geoffrey Hinton, noto come “il padrino dell’IA” per il suo lavoro in questo settore negli ultimi 50 anni circa, ha annunciato le sue dimissioni da Google come ricercatore di ingegneria. In concomitanza con le sue dimissioni, ha inviato una lettera al New York Times sulle minacce esistenziali poste dall’IA.
Hinton ha parlato recentemente alla conferenza EmTech e ha spiegato quanto siano terribili le conseguenze e quanto poco si possa fare visto che le industrie e i governi sono già in competizione per vincere la guerra dell’IA. L’intelligenza artificiale può essere auto-apprendente e diventa esponenzialmente più intelligente nel tempo. Alla fine, invece di aver bisogno di un suggerimento umano, inizierà a pensare da sola. Una volta che questo accadrà, ci sarà poco da fare per fermare ciò che Hinton ritiene inevitabile: l’estinzione degli esseri umani.
“Se queste IA diventeranno molto più intelligenti di noi, saranno molto brave a manipolarci”. Hinton ha anche dichiarato che la sua unica speranza è che i governi in competizione tra loro, come gli Stati Uniti e la Cina, riescano a concordare sul fatto che permettere all’IA di avere un potere illimitato è negativo per tutti. “Siamo tutti sulla stessa barca per quanto riguarda la minaccia esistenziale, quindi dovremmo essere tutti in grado di cooperare per cercare di fermarla”, ha detto Hinton. Altri partecipanti all’evento del MIT sono stati d’accordo. Siebel ha descritto l’intelligenza artificiale come più potente e pericolosa dell’invenzione della macchina a vapore, che ha portato alla rivoluzione industriale.
L’IA, ha detto Siebel, sarà presto in grado di imitare, senza essere rilevata, qualsiasi tipo di contenuto già creato dagli esseri umani e quando ciò accadrà, non ci sarà modo di determinare facilmente cosa è reale e cosa è falso. “Le conseguenze deleterie di tutto ciò sono terrificanti e fanno sembrare un futuro orwelliano come il giardino dell’Eden rispetto a ciò che potrebbe accadere a breve”, ha detto Siebel. “Potrebbe essere molto difficile portare avanti una società democratica libera e aperta. È necessario discuterne sia a livello accademico, sia a livello governativo”.
Margaret Mitchell, responsabile dell’etica presso il fornitore di app per il machine learning Hugging Face, ha affermato che le applicazioni di IA generativa, come ChatGPT, possono essere sviluppate per usi positivi, ma qualsiasi tecnologia potente può essere utilizzata anche per scopi malevoli. “Si chiama “doppio uso”, ha detto. “Non so se esiste un modo per avere una sorta di garanzia che qualsiasi tecnologia messa in commercio non abbia un doppio uso”.
Regina Sam Penti, partner dello studio legale internazionale Ropes & Gray LLP, sostiene che le aziende che creano IA generativa e le organizzazioni che acquistano e utilizzano i prodotti hanno responsabilità legali. Ma la maggior parte delle cause finora ha preso di mira gli sviluppatori di modelli linguistici di grandi dimensioni (LLM). Secondo Penti, con l’IA generativa la maggior parte dei problemi si concentra sull’uso dei dati, perché gli LLM consumano enormi quantità di dati e informazioni “raccolti in ogni angolo del mondo”. “Quindi, se state creando questi sistemi, è probabile che dobbiate affrontare delle responsabilità”, conclude Penti. “Soprattutto se state utilizzando grandi quantità di dati. E non importa se state usando i dati voi stessi o se li state ottenendo da un fornitore”.