AI Act, la legge europea sull’intelligenza artificiale: obblighi, tempi e sanzioni
Indice dell'articolo
Il Parlamento europeo ha siglato un passaggio epocale nell’ambito tecnologico con l’approvazione definitiva del tanto atteso AI Act. Il documento rappresenta una pietra miliare nel panorama normativo, poiché introduce nell’Unione Europea la prima regolamentazione uniforme sulle tecnologie legate all’intelligenza artificiale.
Il percorso per la costruzione della legge è stato lungo e travagliato. Con la prepotente comparsa dei modelli di IA generativa, portarti al grande pubblico da Open AI a fine 2022, è stato necessario rimettere mano al testo, che inizialmente non prevedeva disposizioni specifiche per questo tipo di modelli “general purpose”. Altre negoziazioni con il Consiglio hanno invece riguardato gli usi ammissibili della IA da parte delle forze dell’ordine con finalità di prevenzione e repressione del crimini, e singoli stati membri hanno sollevato perplessità sulla possibilità che la legge europea potesse rallentare lo sviluppo dell’intelligenza artificiale in Europa.
L’accordo è stato infine trovato e l’AI Act è finalmente legge.
L’AI Act adotta un approccio simile al GDPR nel determinare l’ambito di applicazione. Infatti, non si estende solo ai fornitori di sistemi AI che operano all’interno dell’UE, ma anche a quelli al di fuori dell’Unione, se i risultati delle elaborazioni dei loro sistemi sono utilizzati nell’UE. Inoltre, il regolamento si applica a una vasta gamma di soggetti, inclusi utenti, importatori, distributori e chiunque sia coinvolto nell’uso di sistemi di AI.
Quattro livelli di rischio dell’AI Act
Il Quadro Normativo introdotto dall’Unione Europea definisce quattro livelli di rischio per i sistemi di intelligenza artificiale: inaccettabile, alto, limitato o minimo. Questa categorizzazione consente di identificare e regolamentare in modo mirato gli utilizzi dell’IA che potrebbero comportare rischi significativi per la sicurezza, la salute e i diritti dei cittadini.
AI con rischio inaccettabile
Sarà completamente vietata una serie molto limitata di usi particolarmente dannosi dell’IA che contravvengono ai valori dell’UE perché violano i diritti fondamentali. Tra questi, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.
In linea di principio le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. L’identificazione in tempo reale potrà essere utilizzata solo se saranno rispettate garanzie rigorose, per esempio se l’uso è limitato nel tempo e nello spazio e previa autorizzazione giudiziaria o amministrativa. Gli usi ammessi includono, per esempio, la ricerca di una persona scomparsa o la prevenzione di un attacco terroristico. L’utilizzo di questi sistemi a posteriori è considerato ad alto rischio. Per questo, per potervi fare ricorso, l’autorizzazione giudiziaria dovrà essere collegata a un reato.
AI ad alto rischio
I sistemi AI considerati ad alto rischio sono quelli utilizzati in settori cruciali come che potrebbero arrecare danni significativi alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto). Rientrano in questa categoria:
- Tecnologia AI impiegata nelle infrastrutture critiche, come il settore dei trasporti, potenzialmente mettendo a rischio la vita e la salute dei cittadini.
- Strumenti utilizzati nell’istruzione o nella formazione professionale, determinando l’accesso all’istruzione e alle opportunità professionali, come la valutazione degli esami.
- Componenti di sicurezza dei prodotti, come l’applicazione di AI nella chirurgia assistita da robot.
- Sistemi impiegati nell’impiego, nella gestione dei lavoratori e nell’accesso all’autoimpiego, come il software di screening dei curriculum per le procedure di selezione.
- Servizi essenziali sia privati sia pubblici, per esempio, l’uso dell’AI nella valutazione del credito che potrebbe negare ai cittadini l’opportunità di ottenere prestiti.
- Applicazioni nel campo dell’applicazione della legge, che potrebbero interferire con i diritti fondamentali delle persone, come la valutazione dell’affidabilità delle prove.
- Gestione delle migrazioni, asilo e controllo delle frontiere, ad esempio, l’esame automatizzato delle domande di visto.
- Amministrazione della giustizia e processi democratici, come le soluzioni AI per la ricerca di sentenze giudiziarie.
Tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e sono soggetti a rigorosi requisiti. L’uso di tali sistemi in spazi pubblici a fini di applicazione della legge è generalmente vietato, tranne in casi eccezionali come la ricerca di un bambino disperso o la prevenzione di minacce terroristiche specifiche.
Prima di essere messi sul mercato, tali sistemi sono soggetti a rigorosi obblighi, tra cui valutazioni approfondite del rischio, qualità elevata dei dati utilizzati, registrazione delle attività per garantire la tracciabilità dei risultati e sorveglianza umana appropriata.
AI a rischio limitato
Il rischio limitato si riferisce alla mancanza di trasparenza nell’uso dell’IA. L’AI Act introduce obblighi di trasparenza per garantire che gli esseri umani siano informati quando necessario. Per esempio, nell’interazione con chatbot, gli utenti devono essere consapevoli di interagire con una macchina. I contenuti generati dall’IA devono essere identificabili. Inoltre, i testi generati dall’IA pubblicati con lo scopo di informare il pubblico su questioni di interesse pubblico devono essere etichettati come generati artificialmente. Questo si applica anche ai contenuti audio e video che costituiscono deep fake.
AI a rischio minimo
Il Regolamento sull’IA consente l’uso libero di IA a rischio minimo. Questo include applicazioni come videogiochi abilitati dall’IA o filtri antispam. La stragrande maggioranza dei sistemi di intelligenza artificiale attualmente utilizzati nell’UE rientra in questa categoria.
Per i sistemi AI a rischio limitato, il focus è sulla trasparenza e sull’informazione degli utenti sull’interazione con l’IA, mentre per quelli a rischio minimo (o nullo) si promuove un utilizzo libero e responsabile dell’IA.
Come cono regolamentati i modelli di IA general purpose
I modelli di IA general purpose (GPAI), compresi i modelli di IA generativi di grandi dimensioni, possono essere utilizzati per una varietà di compiti. I singoli modelli possono essere integrati in un gran numero di sistemi di IA. È importante che un fornitore che desideri sviluppare a partire da un modello di IA generica disponga di tutte le informazioni necessarie per garantire che il suo sistema sia sicuro e conforme alla legge sull’IA.
Per questo motivo, l’AI Act obbliga i fornitori di tali modelli a divulgare determinate informazioni ai fornitori di sistemi a valle. Tale trasparenza consente una migliore comprensione di questi modelli.
I fornitori di modelli devono inoltre adottare politiche per garantire il rispetto della legge sul copyright durante la formazione dei loro modelli. Inoltre, alcuni di questi modelli potrebbero comportare rischi sistemici, in quanto molto capaci o ampiamente utilizzati.
Per ora, i modelli di IA generici che sono stati addestrati utilizzando una potenza di calcolo totale superiore a 1025 FLOP sono considerati portatori di rischi sistemici, dato che i modelli addestrati con calcoli più grandi tendono a essere più potenti. Questa soglia comprende i modelli GPAI attualmente più avanzati, ossia GPT-4 di OpenAI e probabilmente Gemini di Google DeepMind. Secondo l’AI Act, le capacità dei modelli al di sopra di questa soglia non sono ancora sufficientemente comprese. Potrebbero comportare rischi sistemici e quindi è ragionevole sottoporre i loro fornitori a una serie di obblighi aggiuntivi.
L’AI Office (istituito presso la Commissione) può aggiornare questa soglia alla luce dei progressi tecnologici e, in casi specifici, può designare altri modelli come tali in base ad altri criteri (per esempio il numero di utenti o il grado di autonomia del modello).
I fornitori di modelli con rischi sistemici sono quindi tenuti a valutare e mitigare i rischi, a segnalare gli incidenti gravi, a condurre test all’avanguardia e valutazioni dei modelli stessi, garantendo la sicurezza informatica e fornendo informazioni sul consumo energetico.
A tal fine, viene chiesto di impegnarsi con l’European AI Office per redigere codici di condotta come strumento centrale volto a dettagliare le regole in collaborazione con altri esperti. Un gruppo di esperti scientifici svolgerà un ruolo centrale nella supervisione dei modelli di IA di uso generale.
Misure a sostegno delle PMI
I paesi dell’UE dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali (le cosiddette sandbox), in modo che PMI e start-up possano sviluppare sistemi di IA innovativi e addestrarli prima di immetterli sul mercato.
Le sanzioni per chi non rispetta l’AI Act
Il processo di implementazione del Quadro Normativo prevede una serie di fasi, tra cui la vigilanza di mercato da parte delle autorità competenti, la sorveglianza umana da parte degli utilizzatori e dei fornitori, nonché il monitoraggio post-market dei sistemi AI. Inoltre, sono previste misure per garantire la conformità anticipata agli obblighi attraverso il Patto sull’IA, un’iniziativa volontaria volta a sostenere gli sviluppatori di IA nell’adeguamento alle normative.
L’AI Act prevede sanzioni significative per le imprese che violano le norme stabilite. Più in dettaglio, si dovranno pagare fino a 35 milioni di euro o al 7% del fatturato totale annuo a livello mondiale dell’esercizio finanziario precedente (a seconda di quale sia il valore più alto) per le violazioni relative alle pratiche vietate o alla non conformità ai requisiti sui dati.
È prevista una sanzione fino a 15 milioni di euro o al 3% del fatturato totale annuo a livello mondiale dell’esercizio finanziario precedente per la mancata osservanza di uno qualsiasi degli altri requisiti o obblighi del regolamento, compresa la violazione delle norme sui modelli di IA per uso generale. Mentre si devono pagare fino a 7,5 milioni di euro o all’1,5% del fatturato mondiale annuo totale dell’esercizio precedente nel caso si forniscano informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle autorità nazionali competenti in risposta a una richiesta.
Per ogni categoria di infrazione, la soglia sarebbe il minore dei due importi per le PMI (comprese le start-up) e il maggiore per le altre imprese.
I tempi per mettersi in regola e come
Nonostante l’approvazione del testo, il percorso verso l’entrata in vigore non è ancora completo. l’AI Act deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura. Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.
Entrerà in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale dell’UE. Tuttavia, la maggior parte delle disposizioni non sarà applicabile prima di 24 mesi, in linea con quanto già sperimentato con il GDPR. Attraverso questo intervallo di tempo si intende consentire alle imprese e agli interessati di adattarsi in modo adeguato ai nuovi obblighi normativi. Fanno però eccezione i divieti relativi a pratiche vietate, che si applicheranno 6 mesi dopo l’entrata in vigore; i codici di buone pratiche (9 mesi dopo); le norme sui sistemi di IA per finalità generali, compresa la governance (12 mesi) e gli obblighi per i sistemi ad alto rischio (36 mesi).
In questo periodo di tempo, le aziende potranno effettuare un’analisi dei sistemi usati per verificare se includono tecniche di AI e, qualora ci fossero, all’interno di quali categorie potrebbero rientrare così da stabilire se è necessario intraprendere delle azioni per risultare in linea con quanto disposto dall’AI Act.
Nel caso di rischio limitato, è concesso avviare un’attività di autoregolamentazione in modo da adottare i criteri che si ritengono più idonei ad aderire ai codici di condotta. Diverso è il discorso nel caso di alto rischio perché sarà necessario che i sistemi superino una valutazione di conformità che comprovi l’aderenza ai requisiti stabiliti dal regolamento al fine di assicurare un’AI affidabile. In tal senso, si dovrà effettuare una valutazione della qualità dei dati, della documentazione, dell’accuratezza e della tracciabilità. Ma anche della trasparenza, della sicurezza informatica e della robustezza del sistema.