Senato USA: l’IA può essere pericolosa se non viene controllata
Indice dell'articolo
L’intelligenza artificiale (IA) ha un interesse nazionale vitale per la semplificazione dei servizi pubblici e l’automazione di compiti banali svolti dai dipendenti pubblici. Ma il governo USA è carente sia di talenti informatici, sia di sistemi per supportare questi sforzi. “Il governo federale nel suo complesso continua a incontrare ostacoli nell’assunzione, nella gestione e nel mantenimento di personale con competenze tecniche avanzate (le stesse competenze necessarie per progettare, sviluppare, implementare e monitorare i sistemi di IA)” ha dichiarato Taka Ariga, Chief Data Scientist dell’US Government Accountability Office.
Daniel Ho, direttore associato dell’Institute for Human-Centered Artificial Intelligence (HAI) dell’Università di Stanford, si è detto d’accordo, affermando che il governo federale dovrebbe assumere circa 40.000 lavoratori IT per affrontare i problemi di cybersicurezza posti dall’IA.
Gli strumenti di intelligenza artificiale sono stati oggetto di due audizioni separate al Senato USA. Davanti al Comitato per la Sicurezza Nazionale e gli Affari Governativi, un gruppo di cinque esperti di IA ha testimoniato che, sebbene l’adozione della tecnologia IA sia inevitabile, l’eliminazione della supervisione umana su di essa comporta enormi rischi. Contemporaneamente, in un’audizione alla sottocommissione giudiziaria del Senato sulla privacy, la tecnologia e la legge, il CEO di OpenAI Sam Altman è stato affiancato da Christina Montgomery, dirigente IBM, e da Gary Marcus, professore emerito della New York University.
Le audizioni hanno riguardato una serie di questioni e preoccupazioni relative alla rapida ascesa e all’evoluzione degli strumenti basati sull’IA. Oltre alla necessità di avere più lavoratori qualificati nel governo, i funzionari hanno sollevato preoccupazioni riguardo alle agenzie governative che si trovano ad affrontare pregiudizi basati su dati errati o corrotti provenienti da algoritmi di IA, timori per la disinformazione elettorale e la necessità di una maggiore trasparenza su come gli strumenti di IA e i sottostanti modelli linguistici di grandi dimensioni funzionano effettivamente.
Nel discorso di apertura, il presidente della commissione Homeland Security and Governmental Affairs, il sen. Gary Peters, ha affermato che gli Stati Uniti devono assumere un ruolo guida a livello mondiale nello sviluppo e nella regolamentazione dell’IA, definendo standard in grado di “affrontare i potenziali rischi e danni”. Una delle minacce più evidenti? I dati utilizzati dai chatbot di IA come ChatGPT di OpenAI per produrre risposte sono spesso inaccessibili a chiunque al di fuori della comunità del fornitore e persino gli ingegneri che progettano i sistemi di IA non sempre comprendono come i sistemi giungano alle conclusioni. In altre parole, i sistemi di IA possono essere delle scatole nere che utilizzano una tecnologia proprietaria spesso supportata da dati errati per produrre risultati sbagliati.
Dati sbagliati, risultati sbagliati?
Peters ha citato un recente studio dell’Università di Stanford che ha scoperto un algoritmo di intelligenza artificiale dell’Internal Revenue Service utilizzato per determinare chi deve essere sottoposto a controlli. Il sistema sceglieva i contribuenti di colore con una percentuale cinque volte superiore a quella delle altre razze. Peters ha anche fatto riferimento ai sistemi basati sull’intelligenza artificiale utilizzati da almeno una dozzina di Stati per determinare l’ammissibilità ai sussidi di invalidità, “che hanno portato il sistema a negare a migliaia di beneficiari questa assistenza fondamentale che li aiuta a vivere in modo indipendente”.
Dal momento che il sistema di sussidi per l’invalidità era considerato “tecnologia proprietaria” dagli Stati, i cittadini non erano in grado di conoscere il motivo per cui i sussidi erano stati negati o di appellarsi alla decisione. Le leggi sulla privacy che tengono nascosti i dati e i processi non sono state concepite per gestire le applicazioni e i problemi legati all’intelligenza artificiale. “Man mano che le agenzie utilizzano un maggior numero di strumenti di IA, devono assicurarsi di proteggere e utilizzare in modo appropriato tutti i dati immessi per evitare divulgazioni accidentali o usi non voluti che danneggiano i diritti o le libertà civili degli americani“, continua Peters.
Richard Eppink, avvocato della Fondazione dell’American Civil Liberties Union of Idaho, ha avviato un’azione legale collettiva in rappresentanza di circa 4.000 abitanti dell’Idaho con disabilità intellettive e dello sviluppo a cui sono stati negati i fondi dal programma Medicaid dello Stato a causa di un sistema basato sull’intelligenza artificiale. “Non possiamo permettere che l’IA proprietaria tenga in ostaggio i diritti del giusto processo”, ha detto Eppink. Nel corso dell’altra udienza sull’IA, ad Altman è stato chiesto se i cittadini dovrebbero preoccuparsi del fatto che le elezioni possano essere truccate da grandi modelli linguistici (LLM) come GPT-4 e la sua applicazione chatbot, ChatGPT.
“È una delle mie maggiori preoccupazioni”, ha risposto il CEO di OpenAI. “La capacità più generale di questi modelli di manipolare, persuadere, fornire disinformazione interattiva uno a uno è un’area di preoccupazione significativa, soprattutto considerando che il prossimo anno ci troveremo di fronte a un’elezione e che questi modelli stanno migliorando costantemente”.
Secondo Altman, una regolamentazione sarebbe “saggia” perché le persone devono sapere se stanno parlando con un sistema di intelligenza artificiale o se stanno guardando un contenuto (immagini, video o documenti) generato da un chatbot. “Penso che avremo anche bisogno di regole e linee guida su cosa ci si aspetta in termini di divulgazione da parte di un’azienda che fornisce un modello che potrebbe avere questo tipo di capacità di cui stiamo parlando”. Le persone, tuttavia, si adatteranno rapidamente, ha aggiunto Altman, indicando il software Photoshop di Adobe come qualcosa che all’inizio ha ingannato molte persone fino a quando queste non si sono rese conto delle sue capacità. “Le persone hanno capito rapidamente che le immagini potevano essere state photoshoppate. Accadrà lo stesso con l’IA generativa, seppur su una scala molto più grande e significativa per le nostre vite“.
Watermark per contrassegnare i contenuti generati dall’IA
Lynne Parker, direttrice dell’AI Tennessee Initiative presso l’Università del Tennessee, ha affermato che un metodo per identificare i contenuti generati dagli strumenti di IA è quello di includere dei watermark. Questa tecnologia consentirebbe agli utenti di comprendere appieno la provenienza dei contenuti. La senatrice Maggie Hassan ha dichiarato che in futuro si terrà un’audizione proprio sul tema dei watermark nei contenuti generati dall’IA.
Altman ha suggerito al governo degli Stati Uniti di seguire un piano di supervisione dell’IA in tre punti:
- Formare un’agenzia governativa incaricata di concedere licenze per i modelli di IA di grandi dimensioni e revocare quelli che non soddisfano gli standard governativi
- Creare standard di sicurezza per gli LLM che includano la possibilità di valutare se sono pericolosi o meno. Come altri prodotti, gli LLM dovrebbero superare dei test di sicurezza, come ad esempio non essere in grado di “auto-replicarsi” e di agire da soli
- Creare un quadro di controllo dell’intelligenza artificiale indipendente e supervisionato da esperti indipendenti
Altman, tuttavia, non ha affrontato i problemi di trasparenza relativi alle modalità di formazione degli LLM, come invece suggerito dalla senatrice Marsha Blackburn e da altri membri della commissione. Anche Parker ha chiesto un’azione a livello federale, ovvero linee guida che permettano al governo degli Stati Uniti di sfruttare l’IA in modo responsabile. Ne ha elencate 10, tra cui la protezione dei diritti dei cittadini, l’uso di regole consolidate come il quadro di gestione dell’IA proposto dal NIST e la creazione di un consiglio federale per l’IA.
Parker ha affermato che non è necessaria una supervisione onerosa o pesante che ostacoli lo sviluppo e la diffusione dei sistemi di IA. Invece, le linee guida proposte, come il Blueprint for an AI Bill of Rights dell’Office of Science and Technology, affronterebbero le questioni ad alto rischio. Anche la definizione di un uso responsabile dell’IA è importante e dovrebbe essere affidata ad agenzie come l’Office of Management and Budget.
La Cina punta molto sull’intelligenza artificiale
La commissione del Senato ha anche avvertito il timore che la Cina possa essere all’avanguardia nello sviluppo e negli standard dell’IA. “Siamo finiti in trappola” ha dichiarato Jacob Siegel, redattore senior di Tablet Magazine. “C’è un interesse nazionale vitale nel promuovere il progresso dell’IA, ma al momento l’uso principale dell’IA da parte del governo sembra essere un’arma politica per censurare le informazioni che il governo stesso o i suoi partner terzi ritengono dannose”. Siegel, la cui rivista online si occupa di notizie e cultura ebraica, è stato ufficiale dei servizi segreti e veterano della guerra in Iraq e Afghanistan.
Secondo Siegel, la governance americana dell’intelligenza artificiale sta emulando il modello cinese con un controllo sociale dall’alto verso il basso e guidato dai partiti politici. “Continuare in questa direzione significherà la fine della nostra tradizione di autogoverno e dello stile di vita americano”. Siegel ha detto che la sua esperienza nella guerra al terrorismo gli ha fornito un “assaggio della rivoluzione dell’IA”, aggiungendo che questa la tecnologia sta già “modificando il sistema politico e la cultura americana in modi che si sono già dimostrati incompatibili con il nostro sistema di democrazia e autogoverno e che potrebbero presto diventare irreversibili”.
Preoccupazioni per la censura
Il senatore Rand Paul ha dipinto uno scenario particolarmente inquietante, simile a quello orwelliano, in cui l’IA come ChatGPT non solo agisce attraverso dati errati che le vengono forniti, ma può anche produrre consapevolmente disinformazione e censurare la libertà di parola in base a ciò che il governo stabilisce per il bene comune. Paul ha spiegato come durante la pandemia COVID-19 una partnership pubblico-privata abbia lavorato di concerto con aziende private, come Twitter, per utilizzare l’intelligenza artificiale al fine di scoprire automaticamente e cancellare i post controversi sull’origine dei vaccini e sui trattamenti non approvati.
“Lo scopo, secondo quanto dichiarato, era quello di combattere l’influenza negativa straniera, ma in realtà il governo non stava reprimendo la disinformazione straniera. Stava lavorando per censurare il dibattito interno degli americani. George Orwell ne sarebbe orgoglioso”. Paul ha infine affermato che dal 2020 il governo federale ha assegnato più di 500 contratti per sistemi di intelligenza artificiale proprietari ad aziende la cui tecnologia viene utilizzata per “analizzare Internet, identificare conversazioni indicative di narrazioni dannose, tracciare queste minacce e sviluppare contromisure prima che i messaggi diventino virali”.