Stati Uniti, Gran Bretagna, Germania, Italia, Repubblica Ceca, Estonia, Polonia, Australia, Cile, Israele, Nigeria e Singapore sono tra i 18 Paesi che hanno presentato ieri quello che un alto funzionario statunitense ha descritto come il primo accordo internazionale dettagliato su come mantenere in sicurezza l’intelligenza artificiale, spingendo le aziende a creare sistemi di IA che siano “secure by design”.

Secondo un documento concordato dai 18 Paesi, le aziende che progettano e utilizzano l’intelligenza artificiale devono svilupparla e distribuirla in modo da tenere i clienti e il pubblico in generale al sicuro da un uso improprio. L’accordo non è vincolante e contiene per lo più raccomandazioni generali, come il monitoraggio dei sistemi di IA per individuare eventuali abusi, la protezione dei dati da manomissioni e la verifica dei fornitori di software. nonostante ciò, la direttrice dell’Agenzia statunitense per la sicurezza informatica e delle infrastrutture, Jen Easterly, ha voluto sottolineare l’importanza del fatto che così tanti paesi abbiano aderito all’idea che i sistemi di IA debbano mettere la sicurezza al primo posto.

L’accordo è l’ultima di una serie di iniziative, poche delle quali efficaci, intraprese dai governi di tutto il mondo per dare forma allo sviluppo dell’IA, il cui peso si fa sempre più sentire nell’industria e nella società in generale. Il quadro normativo affronta la questione di come evitare che la tecnologia dell’intelligenza artificiale venga dirottata dagli hacker e include raccomandazioni come quella di rilasciare i modelli solo dopo aver effettuato i dovuti test di sicurezza. Non affronta invece le spinose questioni relative agli usi appropriati dell’IA o alle modalità di raccolta dei dati che alimentano questi modelli.

openai superintelligenza

Le Linee guida per lo sviluppo sicuro dei sistemi di intelligenza artificiale sono state sviluppate dal National Cyber Security Centre (NCSC) del Regno Unito e dalla Cybersecurity and Infrastructure Security Agency (CISA) degli Stati Uniti, in collaborazione con esperti del settore e con altre 21 agenzie e ministeri internazionali di tutto il mondo, tra cui quelli di tutti i membri del gruppo di nazioni G7 e del Global South.

L’Europa è in anticipo rispetto agli Stati Uniti per quanto riguarda le normative sull’IA, con i legislatori che stanno elaborando delle regole sull’IA. Francia, Germania e Italia hanno recentemente raggiunto un accordo sulle modalità di regolamentazione dell’intelligenza artificiale che sostiene “l’autoregolamentazione obbligatoria attraverso codici di condotta” per i cosiddetti modelli di base dell’IA, progettati per produrre un’ampia gamma di risultati.

L’amministrazione Biden ha esercitato pressioni sui legislatori per una regolamentazione dell’IA, ma il Congresso degli Stati Uniti, che si è polarizzato, ha fatto pochi passi avanti nell’approvazione di una normativa efficace, nonostante la Casa Bianca abbia cercato di ridurre i rischi dell’IA per i consumatori, i lavoratori e le minoranze, rafforzando al contempo la sicurezza nazionale con un nuovo ordine esecutivo in ottobre.