La via di Biden all’intelligenza artificiale: sicurezza, privacy e formazione
Anticipando Europa, Cina, UK e altri paesi che stanno lavorando da tempo sul tema, il 30 ottobre il Presidente USA Joe Biden ha firmato un ordine esecutivo (Executive Order o EO) sull’intelligenza artificiale (IA) con l’obiettivo di promuovere lo sviluppo e l’uso sicuro, protetto e affidabile di questa tecnologia emergente.
L’EO rappresenta un contributo significativo al tema della responsabilità nelle modalità di sviluppo e utilizzo dell’IA nelle aziende e, considerata l’ampiezza delle raccomandazioni e delle azioni previste, è probabile che avrà un effetto importante sulle organizzazioni di tutti i settori dell’economia, da quelle più mature in ambito IA fino agli early adopter. Anche la definizione di sistemi di IA fornita dall’ordine esecutivo è decisamente ampia, visto che non si limita all’IA generativa o ai sistemi che sfruttano le reti neurali, ma comprende anche i sistemi costruiti negli ultimi anni.
Per determinare in che misura l’EO influirà su un’organizzazione, sarà necessario valutare attentamente non solo l’utilizzo dell’IA da parte dell’organizzazione stessa, ma anche la misura in cui i suoi prodotti e servizi incorporano o dipendono dalle capacità abilitate dall’IA di fornitori terzi.
È anche importante notare che il National Institute of Standards and Technology (NIST) sarà fondamentale per lo sviluppo di linee guida e best practice per lo “sviluppo e l’implementazione di sistemi di IA sicuri, protetti e degni di fiducia”. Inoltre, le aziende possono prendere in considerazione la possibilità di valutare i loro framework di gestione del rischio dell’IA esistenti basandosi sul NIST AI Risk Management Framework, con lo scopo di sviluppare una base di riferimento e prepararsi a ricevere ulteriori linee guida da parte delle agenzie e degli enti normativi competenti.
L’ordine esecutivo è guidato da otto principi fondamentali e prioritari:
- L’IA deve essere sicura e protetta, richiedendo valutazioni solide, affidabili, ripetibili e standardizzate dei sistemi di IA, nonché politiche, istituzioni e, se del caso, meccanismi per testare, comprendere e mitigare i rischi di questi sistemi prima che vengano utilizzati
- Gli Stati Uniti dovrebbero promuovere l’innovazione, la concorrenza e la collaborazione responsabili attraverso investimenti in istruzione, formazione, R&S e capacità, affrontando al contempo le questioni relative ai diritti di proprietà intellettuale e ponendo fine a collusioni e monopoli illegali su beni e tecnologie chiave
- Lo sviluppo e l’utilizzo responsabile dell’IA richiedono l’impegno a sostenere i lavoratori americani attraverso l’istruzione e la formazione professionale e a comprendere l’impatto dell’IA sulla forza lavoro e sui diritti dei lavoratori
- Le politiche sull’IA devono essere coerenti con il progresso dell’equità e dei diritti civili
- Gli interessi degli americani che sempre più spesso utilizzano, interagiscono o acquistano l’IA e i prodotti abilitati all’IA nella loro vita quotidiana devono essere tutelati
- La privacy e le libertà civili degli americani devono essere tutelate garantendo che la raccolta, l’uso e la conservazione dei dati siano leciti, sicuri e promuovano la privacy
- È importante gestire i rischi derivanti dall’uso dell’IA da parte del governo federale e aumentare la sua capacità interna di regolamentare, governare e sostenere un uso responsabile dell’IA per ottenere risultati migliori per gli americani
- Il governo federale dovrebbe aprire la strada al progresso sociale, economico e tecnologico globale, anche impegnandosi con i partner internazionali per sviluppare un quadro di riferimento per gestire i rischi dell’IA, sbloccare il potenziale dell’IA per il bene e promuovere un approccio comune alle sfide condivise.
In particolare, l’EO utilizza la definizione di “intelligenza artificiale” o “IA” contenuta nel 15 U.S.C. 9401(3): “un sistema basato su una macchina in grado, per un determinato insieme di obiettivi definiti dall’uomo, di fare previsioni, raccomandazioni o decisioni che influenzano ambienti reali o virtuali”. Pertanto, l’ambito di applicazione dell’EO non è limitato all’IA generativa, ma qualsiasi sistema basato su macchine che faccia previsioni, raccomandazioni o decisioni è interessato dall’ordine esecutivo.
Va sottolineato che questo EO, come tutti gli ordini esecutivi negli USA, non può creare nuove leggi o regolamenti da solo, ma può innescare l’inizio di tali processi.
Diverse le reazioni all’ordine esecutivo sull’IA dell’amministrazione Biden.
Secondo Graham Brookie, vicepresidente e direttore senior del Digital Forensic Research Lab dell’Atlantic Council, l’ordine esecutivo è un passo avanti semplice e pragmatico verso una politica tecnologica coerente e connettiva. “Questo ordine esecutivo è un’apertura che non vuole essere esaustiva o definitiva, ma stabilisce un’agenda politica significativa in attesa che altri organismi (tra cui il Congresso e i partner internazionali allineati) prendano in considerazione i prossimi passi. Ciò che risalta maggiormente non sono necessariamente le regole stabilite per l’industria o per la società in generale, ma piuttosto le regole per il modo in cui il governo stesso inizierà a considerare l’impiego dell’IA, con la sicurezza al centro”.
Frances G. Burwell, distinguished fellow dell’Atlantic Council’s Europe Center e senior director di McLarty Associates, fa invece un paragone con l’AI Act europeo, che è ancora in fase di approvazione. “Il nuovo ordine esecutivo della Casa Bianca è un notevole passo avanti verso la protezione degli americani dai maggiori rischi dell’IA avanzata. L’Unione Europea sta per concludere i negoziati sulla propria legge sull’IA e la somiglianza di ambizioni tra le due iniziative è notevole. Entrambe richiedono test e documentazione, maggiore sicurezza contro i cyberattacchi, garanzie contro la discriminazione e l’inganno e trasparenza per i consumatori, oltre ad altre misure. Ma l’AI Act dell’UE è una normativa che prevede l’applicazione di sanzioni significative, mentre l’ordine esecutivo di Biden dipende dall’influenza del governo federale sul mercato”.
Infine, secondo Steven Tiell (senior fellow del GeoTech Center dell’Atlantic Council, questo ordine esecutivo ha una portata molto ampia e affronta diversi problemi molto difficili nell’ambito dell’IA responsabile, ma al tempo stesso è l’equivalente del vaporware nel software: qualcosa che sembra bello ma che non esiste e probabilmente non esisterà mai (almeno nella forma in cui è stato presentato). “Nell’ottobre del 2022, l’Ufficio della politica scientifica e tecnologica della Casa Bianca ha pubblicato un progetto per una Carta dei diritti dell’intelligenza artificiale. Il progetto suggeriva che gli Stati Uniti si sarebbero orientati verso un approccio alla regolamentazione dell’IA basato sui diritti. Il nuovo ordine esecutivo, tuttavia, si discosta da questa filosofia e si concentra su un approccio ibrido alla regolamentazione basato su politiche e rischi, non facendo alcun riferimento a elementi come preavviso, consenso, opt-in, opt-out, ricorso, riparazione, trasparenza o spiegabilità, che costituiscono invece due dei cinque pilastri della Carta dei Diritti dell’IA dello scorso anno”.