I principali partiti presenti nel Parlamento europeo hanno raggiunto un accordo per introdurre nella legge sull’Intelligenza Artificiale nuovi articoli riguardanti le IA generative, come ChatGPT, Bing Chat, Dall-E o Midjourney.

La legge europea che mira a regolamentare l’intelligenza artificiale, evitando abusi ai danni dei cittadini o delle imprese, era già in una fase avanzata di lavorazione e stava infatti affrontando il cosiddetto “trilogo”, il dialogo a tre tra Commissione, Parlamento e Consiglio dell’Unione. Ma aveva un problema: essendo un’iniziativa nata nel 2021, non poteva contemplare gli sconvolgimenti che ChatGPT ha portato al settore, né le preoccupazioni che sta sollevando.

Principale obiettivo della stesura originaria dell’AI Act era quello di identificare alcuni utilizzi vietati per l’intelligenza artificiale, altri utilizzi ritenuti critici o rischiosi e che dovevano sottostare a determinati requisiti o autorizzazioni, e utilizzi innocui per i quali garantire a priori la legittimità, operando in un framework normativo già definito.

Il problema sollevato dai grandi modelli linguistici e le IA generative è che si prestano a una gamma di utilizzi estremamente ampia, essendo determinata dall’interazione con gli utenti, e non è possibile incasellarle a priori nell’una o nell’altra categoria. La nuova generazione di modelli sta inoltre facendo sorgere perplessità sulla enorme quantità di dati con cui sono state addestrate: qual è la provenienza e la base giuridica per il loro libero utilizzo? Quale impatto hanno questi dati sull’orientamento delle risposte del modello, in termini di pregiudizio o discriminazione? Quali prerogative hanno gli autori o editori dei contenuti utilizzati?

Queste e altre domande erano anche contenute in una lettera aperta firmata da 50 esperti di IA e promossa dall’AI Now Institute.

I nuovi limiti per le IA generaliste

In un’intervista a Repubblica, l’eurodeputato Brando Benifei impegnato nelle negoziazioni relative all’AI Act, ha specificato alcuni dei punti su cui è stato trovato l’accordo in questi giorni.

Innanzi tutto, sarà necessario dichiarare in modo traparente i contenuti prodotti da modelli IA che generano testo, immagini o video.

Le aziende di IA dovranno dichiarare quali contenuti hanno usato per addestrare i loro modelli, una forma di tutela per autori e detentori di diritti.

I produttori di modelli generalisti dovranno anche collaborare con le imprese che li utilizzano per sviluppare soluzioni che possono essere classificate come rischiose, in modo da favorire il processo di certificazione.

Cresce il numero di utilizzi vietati della IA

La revisione dell’AI Act espanderà gli utilizzi totalmente vietati dell’intelligenza artificiale. Per esempio, il social scoring (un sistema per classificare gli individui in base alle loro interazioni social, utilizzato per esempio in Cina) è ora vietato non solo agli stati, ma anche alle imprese.

Gli algoritmi di sentiment analisis non potranno essere applicati nelle scuole, nei luoghi di lavoro e ambiti che riguardano l’immigazione. Vengono anche vietate pratiche di “giustizia predittiva”, applicazioni che cercano di prevedere la propensione al crimine di una persona.

In una direzione simile va il divieto di identificazione biometrica generalizzata in tempo reale o da filmati. Rimarrà possibile utilizzare applicazioni simili in caso di reati e dietro autorizzazione di un giudice.

L’Europa, un modello per i diritti digitali

Stretta tra lo strapotere delle grandi aziende hi-tech americane da un lato, con il loro approccio poco rispettoso dei diritti e dei mercati da un lato, e da quello delle aziende controllate da governi autoritari dall’altro, l’Europa sta cercando di proporre una propria visione dello sviluppo delle tecnologie digitali, che sia rispettoso dei diritti dei cittadini e della concorrenza.

Dopo l’essere riuscita a imprimere una svolta alle politiche di trattamento dei dati personali in tutto il mondo con il Gdpr, l’Europa sta varando numerose iniziative legislative nel settore. Oltre all’AI Act, che la Commissione vorrebbe approvare entro la fine dell’anno, hanno già visto la luce nell’ultimo periodo il Digital Services Act, che tutela gli utenti delle piattaforme e dei servizi digitali, il Digital Markets Act che limita lo il potere delle piattaforme di ecommerce e servizi nei confronti delle aziende sue utenti.

Stanno ancora attraversando l’iter legislativo il Cyber Resilience Act, che impone misure minime di sicurezza nei prodotti elettronici e servizi digitali e il Data Act, che vuole invece creare un framework in base a cui le organizzazioni possono e devono scambiare dati tra di loro in modo fluido ma sicuro per i cittadini.