Intelligenza artificiale: dopo un lungo negoziato, l’UE trova l’accordo preliminare sull’AI Act
Dopo un lungo e difficile negoziato, il Parlamento e il Consiglio europei hanno raggiunto un accordo provvisorio sull’AI Act, la “tormentata” normativa incentrata sulla regolazione dell’utilizzo dei sistemi di intelligenza artificiale. L’AI Act mira a garantire che i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale siano protetti dall’IA, stimolando al contempo l’innovazione e rendendo l’Europa leader nel settore. Le regole stabiliscono gli obblighi per l’IA in base ai suoi rischi potenziali e al livello di impatto.
Riconoscendo la potenziale minaccia ai diritti dei cittadini e alla democrazia rappresentata da alcune applicazioni dell’IA, i colegislatori hanno deciso di vietare:
- I sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio, convinzioni politiche, religiose, filosofiche, orientamento sessuale, razza)
- Lo scraping non mirato di immagini facciali da internet o da filmati CCTV per creare database di riconoscimento facciale
- Il riconoscimento delle emozioni sul posto di lavoro e nelle istituzioni educative
- Il social scoring basato sul comportamento sociale o sulle caratteristiche personali
- I sistemi di IA che manipolano il comportamento umano per eludere il loro libero arbitrio
- L’IA utilizzata per sfruttare le vulnerabilità delle persone a causa della loro età, disabilità, situazione sociale o economica
Esenzioni per le forze dell’ordine
I negoziatori hanno inoltre concordato una serie di salvaguardie ed eccezioni ristrette per l’uso di sistemi di identificazione biometrica (RBI) in spazi accessibili al pubblico per scopi di applicazione della legge (previa autorizzazione giudiziaria) e per elenchi di reati rigorosamente definiti.
In tal caso l’RBI “post-remoto” verrebbe utilizzato rigorosamente nella ricerca mirata di una persona condannata o sospettata di aver commesso un reato grave. L’RBI “in tempo reale” sarebbe conforme a condizioni rigorose e il suo utilizzo sarebbe limitato nel tempo e nel luogo, ai fini di:
- Ricerche mirate di vittime (rapimento, traffico, sfruttamento sessuale)
- Prevenzione di una minaccia terroristica specifica e attuale
- Localizzazione o identificazione di una persona sospettata di aver commesso uno dei reati specifici menzionati nel regolamento (ad esempio, terrorismo, traffico, sfruttamento sessuale, omicidio, rapimento, stupro, rapina a mano armata, partecipazione a un’organizzazione criminale, reato ambientale)
Obblighi per i sistemi ad alto rischio
Per i sistemi di IA classificati come ad alto rischio (a causa del loro potenziale danno significativo alla salute, alla sicurezza, ai diritti fondamentali, all’ambiente, alla democrazia e allo Stato di diritto), sono stati concordati obblighi chiari. Gli eurodeputati sono riusciti a includere una valutazione obbligatoria dell’impatto sui diritti fondamentali, tra gli altri requisiti, applicabile anche ai settori assicurativo e bancario. Anche i sistemi di intelligenza artificiale utilizzati per influenzare l’esito delle elezioni e il comportamento degli elettori sono classificati come ad alto rischio. I cittadini avranno il diritto di presentare reclami sui sistemi di intelligenza artificiale e di ricevere spiegazioni sulle decisioni basate su sistemi di intelligenza artificiale ad alto rischio che hanno un impatto sui loro diritti.
Guida per i sistemi di intelligenza artificiale generali
Per tenere conto dell’ampia gamma di compiti che i sistemi di IA possono svolgere e della rapida espansione delle sue capacità, è stato concordato che i sistemi di IA per scopi generali (GPAI) e i modelli GPAI su cui si basano dovranno aderire ai requisiti di trasparenza proposti inizialmente dal Parlamento. Questi includono la stesura di una documentazione tecnica, il rispetto della legge sul copyright dell’UE e la diffusione di riepiloghi dettagliati sui contenuti utilizzati per la formazione.
Per i modelli GPAI ad alto impatto con rischio sistemico, l’Ai Act garantisce obblighi più severi. Se questi modelli soddisfano determinati criteri, dovranno condurre valutazioni del modello, valutare e mitigare i rischi sistemici, condurre test avversari, riferire alla Commissione sugli incidenti gravi, garantire la sicurezza informatica e riferire sulla loro efficienza energetica. I deputati hanno anche insistito sul fatto che, fino alla pubblicazione di standard armonizzati dell’UE, le GPAI con rischio sistemico possono affidarsi a codici di pratica per conformarsi al regolamento.
Misure a sostegno dell’innovazione e delle PMI
I deputati volevano garantire che le aziende, soprattutto le PMI, potessero sviluppare soluzioni di IA senza pressioni indebite da parte dei giganti dell’industria che controllano la catena del valore. A tal fine, l’Ai Act promuove le cosiddette sandbox regolamentari e i test sul mondo reale, istituiti dalle autorità nazionali per sviluppare e addestrare le IA innovative prima di immetterle sul mercato.
La non conformità alle regole può portare a multe che vanno da 35 milioni di euro o il 7% del fatturato globale a 7,5 milioni o l’1,5% del fatturato, a seconda della violazione e delle dimensioni dell’azienda. Il testo concordato dovrà ora essere formalmente adottato dal Parlamento e dal Consiglio per diventare legge dell’UE. Le commissioni del Parlamento per il Mercato Interno e le Libertà Civili voteranno sull’accordo in una prossima riunione.
Dopo l’accordo, il correlatore Brando Benifei ha dichiarato: “È stato un lavoro lungo e intenso, ma ne è valsa la pena. Grazie alla resilienza del Parlamento europeo, la prima legislazione orizzontale al mondo sull’intelligenza artificiale manterrà la promessa europea, garantendo che i diritti e le libertà siano al centro dello sviluppo di questa tecnologia rivoluzionaria. La corretta attuazione sarà fondamentale: il Parlamento continuerà a tenere alta l’attenzione, per garantire il sostegno alle nuove idee imprenditoriali con sandbox e regole efficaci per i modelli più potenti”.
Il co-relatore Dragos Tudorache ha dichiarato: “L’UE è la prima al mondo a stabilire una solida regolamentazione sull’IA, guidando il suo sviluppo e la sua evoluzione in una direzione incentrata sull’uomo. L’AI Act stabilisce regole per i modelli di IA grandi e potenti, garantendo che non presentino rischi sistemici per l’Unione e offre forti garanzie per i nostri cittadini e le nostre democrazie contro qualsiasi abuso della tecnologia da parte delle autorità pubbliche. Protegge le nostre PMI, rafforza la nostra capacità di innovare e di essere leader nel campo dell’IA e protegge i settori vulnerabili della nostra economia. L’AI Act è contributo europeo che avrà un impatto significativo sul nostro futuro digitale”.
Infine, per il ministro delle Imprese, Adolfo Urso, e il sottosegretario all’Innovazione, Alessio Butti, l’accordo politico preliminare sull’AI Act “rappresenta un passo significativo per lo sviluppo dell’intelligenza artificiale nella UE ed in Italia e dovrà ora essere sottoposto all’esame dei governi europei che ne valuteranno i dettagli in vista dell’approvazione finale da parte del Consiglio. L’Italia ribadirà la necessità di un quadro normativo semplice e chiaro, che rispecchi un equilibrio tra progresso tecnologico e salvaguardia dei principi etici costituzionalmente orientati e dei diritti dei cittadini, in grado di supportare adeguatamente lo sviluppo del mercato e della tecnologia, in perenne evoluzione”.