Politica, regole e rischi: la sfida all’IA è ormai globale
Nelle ultime settimane, come abbiamo riportato in diverse notizie (questa la più recente), si sono moltiplicati gli appelli a intervenire a livello politico sullo sviluppo dell’intelligenza artificiale e le autorità di regolamentazione europee, americane e cinesi (ma non solo) stanno cercando di intensificare questi interventi.
Centinaia di tecnologi e ricercatori hanno messo in guardia dai pericoli dell’IA in diverse lettere e Geoffrey Hinton, spesso definito il “padrino dell’IA”, si è dimesso dal suo ruolo in Google, convinto che lo sviluppo incontrollato dell’intelligenza artificiale possa portare a conseguenze nefaste per il genere umano. Hinton si è anche augurato che vengano approvate quanto prima una regolamentazione e una collaborazione a livello globale per tenere sotto controllo questa tecnologia, che nel peggiore dei casi potrebbe superare l’intelligenza umana man mano che i sistemi di IA diventano più avanzati.
Stabilire un quadro normativo universale per la tecnologia è sempre stato difficile, ma è diventato più impegnativo con il progredire della tecnologia stessa. La negoziazione di regole su tantissimi aspetti della tecnologia è però diversa da quella che ci si aspetta per l’intelligenza artificiale, che con il suo immenso potenziale di trasformazione delle economie e delle società (non necessariamente in meglio) rappresenta una sfida senza precedenti.
Ma come si stanno muovendo i governi del mondo? Come spesso accade con le nuove tecnologie, l’Europa è in prima linea nella regolamentazione. L’AI Act della Commissione Europea, i cui primi vagiti risalgono a circa due anni fa, dovrebbe essere approvato entro fine anno (il condizionale è d’obbligo su questioni così delicate). Questo impianto legislativo europeo designa le applicazioni “ad alto rischio” dell’intelligenza artificiale e impone test di conformità più severi per le aziende che realizzano e distribuiscono tali applicazioni.
Il problema è che una simile legge rischia di essere approvata quando l’IA generativa potrebbe aver raggiunto ulteriori livelli di sofisticazione e capacità “cognitive”. È per questo che secondo Gerard de Graaf, inviato digitale senior dell’UE negli Stati Uniti, non ci sarà un’altra negoziazione dopo l’AI Act e che quindi questo provvedimento deve superare la prova del tempo e non rischiare di essere già vecchio e superato quando entrerà in vigore.
Passando agli USA, la regolamentazione dell’IA è più indietro rispetto all’Europa ed è anche affrontata in modo diverso, più volontario e meno vincolante, nonostante siano ormai moltissimi gli esperti e i CEO di aziende tech che chiedono un approccio forte e risoluto sulla materia.
Il Blueprint for an AI Bill of Rights redatto lo scorso anno dall’amministrazione Biden stabilisce cinque principi per prevenire la discriminazione e proteggere la privacy e la sicurezza degli utenti, mentre il National Institute of Standards and Technology ha pubblicato a gennaio un framework di riferimento per la gestione del rischio dell’IA. Anche il Congresso sta iniziando a mobilitarsi, con il senatore democratico Chuck Schumer che il mese scorso ha lanciato un forte appello per elaborare una legislazione completa sull’IA.
Inoltre, secondo l’amministratore delegato dell’AI Now Institute ed ex consulente senior sull’IA della Federal Trade Commission, Sarah Myers West, una regolamentazione morbida è assolutamente insufficiente per regolamentare questo settore così complesso e in continuo mutamento e servono assolutamente leggi applicabili.
La stessa Cina non si è tirata indietro nel parlare di rischi ai quali occorre rispondere con misure di sicurezza efficaci e preventive, con il presidente Xi Jinping che avrebbe esplicitamente chiesto di studiare attentamente questa tecnologia per mettere a punto misure di salvaguardia in grado di regolarne lo sviluppo. In un incontro con i vertici degli apparati statali di Pechino, Xi ha poi ribadito che “va data assoluta priorità alla sicurezza nazionale, soprattutto a fronte del rischio estinzione degli esseri umani che l’intelligenza potrebbe rappresentare”.
Un altro Paese che si è mosso in questa direzione è l’Australia, dove, in seguito a una riunione di alti dirigenti dell’IA tenutasi nei giorni scorsi, è risultata chiare l’intenzione di regolamentare l’intelligenza artificiale, incluso un potenziale divieto sui deep fake e sui contenuti realistici ma falsi, in seguito alle preoccupazioni che la tecnologia possa essere utilizzata in modo improprio. Un recente rapporto del Consiglio nazionale australiano per la scienza e la tecnologia ha inoltre dimostrato che i contenuti generati dall’IA potrebbero essere utilizzati in modo improprio durante le consultazioni parlamentari, creando una marea di contributi per fuorviare l’opinione pubblica.
L’Australia è stata tra i primi Paesi a regolamentare l’IA, presentando un framework etico volontario nel 2018, ma di fatto ci sono ancora tante lacune nelle leggi che coprono il diritto d’autore, la privacy e la protezione dei consumatori. Anche per questo il governo australiano vuole assicurarsi che i suoi quadri giuridici siano adatti allo scopo visto il rapido sviluppo del settore dell’IA.
Non a caso il ministro dell’Industria e della Scienza, Ed Husic, ha dichiarato nei giorni scorsi che l’Australia prenderà in considerazione la possibilità di vietare gli elementi ad alto rischio dell’IA se ci sarà una forte richiesta in tal senso durante le consultazioni pubbliche per la definizione delle nuove leggi.