Secondo Siemens e SAP il Data Act europeo mette a rischio i segreti commerciali

data act
SAP e Siemens si sono uniti ai giganti tecnologici statunitensi per criticare le bozze del Data Act europeo sull'uso dei dati generati dai gadget intelligenti e da altri beni di consumo.

SAP e Siemens si sono uniti ai giganti tecnologici statunitensi per criticare le bozze di legge dell’UE sull’uso dei dati (Data Act europeo) generati dai gadget intelligenti e da altri beni di consumo. Al momento i paesi e i legislatori dell’UE stanno lavorando sui dettagli della legge sui dati, proposta dalla Commissione Europea lo scorso anno, prima che possa essere adottata come legge. Il progetto di legge, che riguarda i dati dei consumatori e delle aziende dell’UE, fa parte di una serie di norme volte a limitare il potere dei giganti tecnologici statunitensi e ad aiutare l’UE a raggiungere i suoi obiettivi digitali ed ecologici.

Tra le critiche mosse dagli Stati Uniti c’è quella che la legge proposta sia troppo restrittiva, mentre le due aziende tedesche sostengono che una disposizione che obbliga le aziende a condividere i dati con terze parti per fornire servizi di post-vendita o altri servizi basati sui dati potrebbe mettere in pericolo i segreti commerciali. “Questo progetto di legge rischia di compromettere la competitività europea imponendo la condivisione dei dati, compresi quelli relativi al know-how e alla progettazione, non solo all’utente ma anche a terzi” hanno scritto SAP, Siemens e altre aziende in una lettera congiunta alla Presidente della Commissione Ursula von der Leyen, al capo dell’antitrust dell’UE Margrethe Vestager e al capo dell’industria dell’UE Thierry Breton.

privacy dei dati

“Ciò potrebbe significare che le aziende dell’UE saranno costrette a rivelare i dati ai concorrenti di paesi terzi, in particolare a quelli che non operano in Europa e contro i quali le protezioni del Data Act sarebbero inefficaci”, si legge ancora nella lettera. Tra i firmatari della lettera, datata 4 maggio, ci sono gli amministratori delegati delle due aziende, Siemens Healthineers, l’azienda tedesca di tecnologia medica Brainlab, l’azienda tedesca di software DATEV e il gruppo DIGITALEUROPE.

Nella lettera si chiedono anche garanzie che consentano alle aziende di rifiutare le richieste di condivisione dei dati nel caso in cui fossero a rischio i segreti commerciali e la sicurezza informatica e si chiede di non estendere l’ambito dei dispositivi coperti dalla legislazione. Per quanto riguarda la clausola che consente ai clienti di passare da un fornitore di cloud all’altro, le aziende hanno affermato che la legislazione dovrebbe preservare la libertà contrattuale, consentendo ai clienti e ai fornitori di concordare i contratti più adatti a ciascun caso aziendale.

Aziende:
SAPSiemens
Condividi:
 

L’AI Act europeo includerà anche la IA generativa. Più restrizioni per la sorveglianza sociale

ue temu
I partiti europei si accordano per introdurre nell'AI Act più trasparenza sui contenuti generati dalle IA e sui dati usati nel training delle IA generaliste. Misure più restrittive per gli utilizzi della IA a scopo di sorveglianza e classificazione sociale.

I principali partiti presenti nel Parlamento europeo hanno raggiunto un accordo per introdurre nella legge sull’Intelligenza Artificiale nuovi articoli riguardanti le IA generative, come ChatGPT, Bing Chat, Dall-E o Midjourney.

La legge europea che mira a regolamentare l’intelligenza artificiale, evitando abusi ai danni dei cittadini o delle imprese, era già in una fase avanzata di lavorazione e stava infatti affrontando il cosiddetto “trilogo”, il dialogo a tre tra Commissione, Parlamento e Consiglio dell’Unione. Ma aveva un problema: essendo un’iniziativa nata nel 2021, non poteva contemplare gli sconvolgimenti che ChatGPT ha portato al settore, né le preoccupazioni che sta sollevando.

Principale obiettivo della stesura originaria dell’AI Act era quello di identificare alcuni utilizzi vietati per l’intelligenza artificiale, altri utilizzi ritenuti critici o rischiosi e che dovevano sottostare a determinati requisiti o autorizzazioni, e utilizzi innocui per i quali garantire a priori la legittimità, operando in un framework normativo già definito.

Il problema sollevato dai grandi modelli linguistici e le IA generative è che si prestano a una gamma di utilizzi estremamente ampia, essendo determinata dall’interazione con gli utenti, e non è possibile incasellarle a priori nell’una o nell’altra categoria. La nuova generazione di modelli sta inoltre facendo sorgere perplessità sulla enorme quantità di dati con cui sono state addestrate: qual è la provenienza e la base giuridica per il loro libero utilizzo? Quale impatto hanno questi dati sull’orientamento delle risposte del modello, in termini di pregiudizio o discriminazione? Quali prerogative hanno gli autori o editori dei contenuti utilizzati?

Queste e altre domande erano anche contenute in una lettera aperta firmata da 50 esperti di IA e promossa dall’AI Now Institute.

I nuovi limiti per le IA generaliste

In un’intervista a Repubblica, l’eurodeputato Brando Benifei impegnato nelle negoziazioni relative all’AI Act, ha specificato alcuni dei punti su cui è stato trovato l’accordo in questi giorni.

Innanzi tutto, sarà necessario dichiarare in modo traparente i contenuti prodotti da modelli IA che generano testo, immagini o video.

Le aziende di IA dovranno dichiarare quali contenuti hanno usato per addestrare i loro modelli, una forma di tutela per autori e detentori di diritti.

I produttori di modelli generalisti dovranno anche collaborare con le imprese che li utilizzano per sviluppare soluzioni che possono essere classificate come rischiose, in modo da favorire il processo di certificazione.

Cresce il numero di utilizzi vietati della IA

La revisione dell’AI Act espanderà gli utilizzi totalmente vietati dell’intelligenza artificiale. Per esempio, il social scoring (un sistema per classificare gli individui in base alle loro interazioni social, utilizzato per esempio in Cina) è ora vietato non solo agli stati, ma anche alle imprese.

Gli algoritmi di sentiment analisis non potranno essere applicati nelle scuole, nei luoghi di lavoro e ambiti che riguardano l’immigazione. Vengono anche vietate pratiche di “giustizia predittiva”, applicazioni che cercano di prevedere la propensione al crimine di una persona.

In una direzione simile va il divieto di identificazione biometrica generalizzata in tempo reale o da filmati. Rimarrà possibile utilizzare applicazioni simili in caso di reati e dietro autorizzazione di un giudice.

L’Europa, un modello per i diritti digitali

Stretta tra lo strapotere delle grandi aziende hi-tech americane da un lato, con il loro approccio poco rispettoso dei diritti e dei mercati da un lato, e da quello delle aziende controllate da governi autoritari dall’altro, l’Europa sta cercando di proporre una propria visione dello sviluppo delle tecnologie digitali, che sia rispettoso dei diritti dei cittadini e della concorrenza.

Dopo l’essere riuscita a imprimere una svolta alle politiche di trattamento dei dati personali in tutto il mondo con il Gdpr, l’Europa sta varando numerose iniziative legislative nel settore. Oltre all’AI Act, che la Commissione vorrebbe approvare entro la fine dell’anno, hanno già visto la luce nell’ultimo periodo il Digital Services Act, che tutela gli utenti delle piattaforme e dei servizi digitali, il Digital Markets Act che limita lo il potere delle piattaforme di ecommerce e servizi nei confronti delle aziende sue utenti.

Stanno ancora attraversando l’iter legislativo il Cyber Resilience Act, che impone misure minime di sicurezza nei prodotti elettronici e servizi digitali e il Data Act, che vuole invece creare un framework in base a cui le organizzazioni possono e devono scambiare dati tra di loro in modo fluido ma sicuro per i cittadini.

Condividi: