Con la nuova proposta di legge sull’intelligenza artificiale, l’Unione Europea definisce linee guida per lo sviluppo e le applicazioni di tecnologie IA. Il quadro normativo è molto ampio e si tratta ancora di una bozza. Dal documento emergono tuttavia alcune criticità di cui abbiamo parlato con due esperti del settore: Salvatore Palange, CEO di Fluel e fondatore della più ampia community italiana che si confronta sul tema dell’IA, e Piero Poccianti, presidente dell’Associazione Italiana per l’Intelligenza Artificiale (AIxIA).

L’uomo al centro

Il tratto distintivo della proposta europea è la volontà di sviluppare tecnologie di cui gli utenti-cittadini europei si fidano, differenziandosi dall’approccio di Cina e Stati Uniti. Questo obiettivo si basa sulla centralità dell’uomo: un presupposto promettente, ma da cui nascono le prime perplessità.

In questo momento l’Europa si trova schiacciata in una morsa tra gli Stati Uniti e la Cina, che stanno mettendo in gioco investimenti privati e pubblici di enorme entità”, afferma Piero Poccianti. “Per cercare un ruolo di leadership l’Europa ha reagito dicendo che nello sviluppo dell’IA non bisogna mettere al centro il mercato, ma l’uomo e il benessere dell’umanità. È sicuramente un passo avanti ed è interessante la direzione che la UE vuole intraprendere, ma agisce solo con regole e strumenti normativi”.

La proposta europea è stata formulata sulla scia delle paure degli ultimi anni, come la manipolazione delle elezioni statunitensi attraverso i social o il controllo di massa che avviene nei Paesi orientali”, sottolinea Salvatore Palange. “Su questi argomenti, oggettivamente contrari ai principi di libertà che fanno parte della nostra cultura, è auspicabile una disciplina più ferrea per prevenire gli abusi della tecnologia, soprattutto da parte dei big player”. Una normativa troppo rigida, tuttavia, rischia di soffocare piccole e medie imprese e startup, che rappresentano la maggioranza del mercato italiano.

Bias e biodiversità

Piero Poccianti, presidente AIxIA

Piero Poccianti, presidente AIxIA

Secondo Poccianti, l’idea stessa di mettere l’umanità al centro della strategia di sviluppo dell’IA può essere un problema. “Copernico ci ha spiegato che l’uomo non è al centro dell’universo. La perdita di biodiversità che stiamo vivendo in questo momento, e di cui siamo responsabili, deve indicarci la strada: per fare del bene all’umanità prima di tutto dobbiamo evitare di distruggere il pianeta che ci ospita. Il benessere umano conta, ma all’interno di uno scenario in cui contano anche le altre specie”.

C’è poi un problema più grande, che riguarda la definizione stessa di intelligenza artificiale. “Cos’è l’IA? È qualcosa di molto lontano dalle immagini suggerite dalla fantascienza, perché la macchina non ha autocoscienza”, prosegue Poccianti. “Nei sistemi di intelligenza artificiale noi descriviamo il contesto, l’obiettivo, i vincoli e gli strumenti. Poi è la macchina che inventa l’algoritmo. Questo significa che se noi sbagliamo la descrizione iniziale, l’esito dell’algoritmo può produrre effetti distopici”.

È noto che gli algoritmi portano con sé i bias di chi li “crea” e possono riprodurre effetti quali disuguaglianze di genere, discriminazione, perdita di democrazia tipici di un determinato contesto. “Ma siamo noi che sbagliamo”, sottolinea il presidente di AIxIA. “Il nostro cervello, la nostra intelligenza si sono formati nell’arco di millenni e hanno ancora il retaggio di epoche in cui incontrare una persona con tratti somatici diversi dai nostri era considerato pericoloso. Questo retaggio ci è rimasto e adesso, che siamo più di 7 miliardi di persone, non possiamo prevedere i danni che potremmo fare, e che stiamo facendo, perché siamo abituati a ragionare in termini molto locali e in periodi molto brevi. La nostra intelligenza non è adeguata al modo in cui l’ambiente si sta trasformando”. Poiché l’intelligenza artificiale può amplificare delle tendenze, noi dobbiamo lavorare sulla radice di queste tendenze.

La soluzione non è fare una lista di divieti, così come non si educa un bambino a valori etici o morali dicendogli solo quello che non può fare”, aggiunge Poccianti. “Leggi e regolamenti sono importanti, ma se non lavoriamo alla radice dei nostri bias culturali non servono a niente. L’intenzione della UE è buona, però lo strumento che sta usando per risolvere il problema di un uso improprio dell’intelligenza artificiale non è efficace”.

Dati, startup e creatività

Secondo Salvatore Palange, la nuova proposta della Commissione Europea si adatta meglio a grandi aziende e multinazionali, “che hanno risorse per recepire e rispondere a norme più stringenti”. Per il mercato italiano dell’IA, composto soprattutto da micro e piccole imprese e startup, “la classificazione delle applicazioni IA in base al rischio può inibire o limitare molto sia la creatività che la sperimentazione”.

Salvatore Palange, CEO Fluel

Salvatore Palange, CEO Fluel

Nelle applicazioni ad alto rischio c’è non solo la biometria, ma anche la predittività sui meriti, per esempio il merito creditizio o bancario, e in generale qualsiasi attività classificazione automatica. “Pensiamo per esempio a un’azienda di recruiting che vuole fare una clusterizzazione dei curricula sulla base di certe caratteristiche. Secondo lo scenario descritto dalla proposta, un algoritmo sviluppato a questo scopo sarebbe ad alto rischio e l’azienda dovrebbe richiedere la conformità”, spiega Palange. “Anche se l’algoritmo è privato e ad uso interno, è necessario interpellare enti pubblici?”.

L’articolo 55 del documento cita le misure per piccoli provider di IA, che vengono demandate ai singoli Stati”, aggiunge Palange. “Ma non viene definito chi è il garante, quali enti hanno la responsabilità della certificazione, la compatibilità della nuova disciplina con norme ISO e direttive precedenti, quali il GDPR”.

Se per i big player questo tipo di controllo ha senso ed è necessario per prevenire usi della tecnologia che consentono manipolazioni del voto o creazione di fake news, rischia di bloccare lo sviluppo di idee di business dal basso. “Con questo approccio di controllo, tre quarti dei progetti che ho visto nascere oggi non sarebbero possibili”, conferma il CEO di Fluel, che offre consulenza e sviluppo software AI a imprese e startup.

Il problema riguarda anche i dati di partenza per lo sviluppo di algoritmi. “Spesso le aziende italiane soffrono della mancanza di sufficienti dati strutturati. Scelgono quindi il livello di accuratezza e completezza dei dati sufficiente per partire con un progetto di intelligenza artificiale, e nel tempo si mettono in piedi percorsi virtuosi per mettere a punto i dati”, spiega Palange. “Se anche il modo in cui vengono raccolti dati all’ingresso è rigidamente disciplinato, il legislatore in un certo senso si sostituisce all’azienda perché un algoritmo che non ha buoni dati alla base non funziona bene e crea risposte non congrue”.

Secondo Palange non è necessario introdurre vincoli e norme troppo stringenti in questo ambito, perché “in una dinamica di mercato queste cose emergono comunque”. È giusto evitare i malfunzionamenti, ma si fa già oggi, applicando il concetto di “human in the loop”, che mette la componente umana dentro al processo.

Il vero vantaggio immediato di questa proposta è la protezione da usi non corretti che dall’estero possono applicati in Italia, come la possibilità di ascolto indiscriminato di conversazioni o suggerimenti non controllati per manipolare gli interessi. Ma senza fare la caccia alle streghe perché qualcuno ha usato male la tecnologia”, conclude Palange. “Adesso serve chiarezza per capire come la proposta verrà tradotta in pratica”.