Gli USA verso l’obbligo di rendicontazione per la sicurezza dei modelli IA e CSP
Dopo aver inasprito nei giorni scorsi i controlli sulle esportazioni di semiconduttori verso Cina, Iran e Russia, il Dipartimento del Commercio degli Stati Uniti ha proposto un nuovo set di requisiti di segnalazione per gli sviluppatori di modelli di IA all’avanguardia e per coloro che affittano l’infrastruttura necessaria per addestrarli, ovvero i CSP (Cloud Service Provider). I requisiti, che dimostrano tra l’altro come la regolamentazione del settore non sia una preoccupazione solo europea, sono una risposta all’ordine esecutivo dell’amministrazione Biden emanato lo scorso autunno (Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence), che ha stabilito tra le varie cose anche precisi requisiti di segnalazione per chi sviluppa grandi cluster di calcolo per l’IA.
Le regole aggiornate impongono la segnalazione di modelli che richiedono più di 1026 operazioni in virgola mobile o intera per l’addestramento. Le entità che sviluppano tali progetti saranno inoltre tenute a divulgare le capacità dei loro modelli, le loro protezioni per la sicurezza delle informazioni e i risultati degli sforzi di red-teaming per garantire che le tecnologie di IA “soddisfino rigorosi standard di sicurezza e affidabilità, possano resistere agli attacchi informatici e abbiano un rischio limitato di uso improprio da parte di avversari stranieri o attori non statali”.
La principale preoccupazione del dipartimento USA è che modelli sufficientemente avanzati potrebbero essere utilizzati per facilitare la criminalità informatica o abbassare la barriera allo sviluppo di armi biologiche, chimiche, nucleari e bombe sporche, se non vengono prese misure per testare, identificare e mitigare queste minacce.
Le regole richiedono inoltre agli operatori di infrastrutture di segnalare se i loro cluster di calcolo superano una capacità di rete di 300 Gbit/sec e se hanno una prestazione teorica di picco superiore a 1020 operazioni in virgola mobile o intera al secondo per l’addestramento dell’IA, o 100 exaFLOPS. Chi opera cluster che superano già questa soglia, sarà tenuto a segnalare la portata delle sue operazioni su base trimestrale.
Le applicazioni dell’IA con potenziali casi d’uso pacifici e pacifici (il cosiddetto “duplice uso” o dual use) sono da tempo sotto il radar degli Stati Uniti, tanto che a inizio anno il Dipartimento del Commercio aveva proposto regole per richiedere a determinati fornitori di infrastrutture come servizio di denunciare qualsiasi persona straniera che utilizzasse i loro servizi per addestrare grandi modelli di IA potenzialmente in grado di applicazioni a duplice uso.