Intelligenza Artificiale, le Big Tech sottoporranno i loro prodotti al controllo dei governi
Otto tra le principali Big Tech che lavorano sull’intelligenza artificiale – Amazon Web Services, Anthropic, Google DeepMind, Inflection AI, Meta, Microsoft, Mistral AI e OpenAI – hanno accettato di sottoporre le proprie soluzioni al controllo dei governi nazionali. Inoltre la UE e 27 governi in rappresentanza di altrettanti paesi, tra cui USA, UK, Australia, e anche la Cina, hanno firmato la prima dichiarazione internazionale (“The Bletchley Declaration”) di collaborazione sulla gestione dei rischi della IA.
“Esistono rischi potenziali pericoli di danni seri o anche catastrofici, sia volontari che involontari, che possono scaturire dalle capacità più avanzate dei modelli di IA”, si legge tra l’altro nella dichiarazione. “In particolare siamo preoccupati dai rischi in campi come la cybersecurity e le biotecnologie, e in quelli dove i sistemi IA più avanzati possono amplificare alcuni rischi come quelli della disinformazione”.
Sono i due principali risultati dell’AI Safety Summit, evento organizzato dal governo britannico e presieduto dal primo ministro Rishi Sunak, che diversi osservatori hanno definito “storico” sia per la dichiarazione, sia per i partecipanti, in particolare la Cina, la cui presenza non era per niente scontata.
In dettaglio, al summit di Bletchley Park hanno partecipato tra gli altri la presidente della Commissione Europea Ursula von der Leyen, la vicepresidente degli USA Kamala Harris, la premier italiana Giorgia Meloni, ed esponenti dei governi di altri 25 paesi, tra cui la Cina – presente con il vice ministro per la scienza e tecnologia Wu Zhaohui – nonché scienziati e top manager di varie Big Tech, tra cui Elon Musk e il CEO di OpenAI Sam Altman.
Bletchley Park Declaration, i due principali impegni
Mentre gli sforzi di regolamentazione finora nella UE si sono concentrati sui rischi per privacy e sorveglianza, il summit britannico – che si è tenuto a Bletchley Park (nella foto), il centro di ricerca dove il team di Alan Turing decifrò i codici di comunicazione nazisti criptati – si è concentrato soprattutto sui cosiddetti “existential risks” che i LLM più avanzati (“frontier AI”) potenzialmente creano per la stessa sopravvivenza del genere umano.
Molti rischi collegati all’IA sono strutturalmente di portata internazionale, e quindi vanno affrontati da una cooperazione internazionale, riconoscono i firmatari, che specificano tra l’altro due elementi di particolare impegno.
Uno è l’individuazione e definizione dei rischi di sicurezza dell’AI e la costruzione e diffusione di un corpo di conoscenze su tali rischi. L’altro è la definizione di politiche condivise di gestione di tali rischi basate su un aumento di trasparenza sugli sviluppi degli operatori privati, metriche appropriate, strumenti di testing, sviluppo di capacità di gestione pubblica e ricerca scientifica.
Per dare continuità a questi impegni, altri due summit internazionali sull’AI Safety si terranno in Corea del Sud tra sei mesi, e in Francia tra un anno.
Controlli dei prodotti, l’adesione è volontaria
Come anticipato, otto dei principali colossi del settore hanno accettato di sottoporre i propri prodotti IA ai test di sicurezza degli organismi di controllo dei vari governi prima di lanciarli sul mercato, e anche dopo averli lanciati.
Non sono stati specificati per ora i dettagli tecnici su come si svolgeranno questi processi di controllo. Sunak ha però sottolineato che l’adesione da parte delle Big Tech è volontaria, specificando che almeno per quanto riguarda il Regno Unito non ci saranno leggi per rendere obbligatori i test, anche se alla fine probabilmente si renderà necessario definire dei “requisiti vincolanti” per gli operatori di IA.
L’annuncio segue di pochi giorni quello dell’Executive Order del Presidente degli USA Joe Biden (ne abbiamo parlato qui) sullo stesso tema, con richiesta alle Big Tech di sottoporre i loro modelli IA ai controlli di appositi organismi governativi prima di renderli disponibili sul mercato.
Tornando all’accordo di Bletchley Park, i test del LLM saranno condotti in collaborazione tra i vari governi rispetto a diversi potenziali pericoli tra cui sicurezza nazionale, sicurezza delle persone, e rischi sociali. L’accordo sui test è stato sottoscritto dalla UE e da 10 paesi tra cui UK e Giappone.
UK e USA hanno già annunciato i loro enti di controllo
Per questo riguarda il Regno Unito, ha detto Sunak, i test saranno condotti dal nuovo AI Safety Institute, erede dell’attuale Frontier AI Taskforce, che si proporrà come un “global hub” per iniziative multinazionali, a cui però la CIna ha già dichiarato che non aderirà. Anche gli USA hanno annunciato a Bletchley Park la costituzione di un proprio istituto di AI Safety a Washington.
Il primo ministro britannico ha anche prospettato la costituzione di un comitato internazionale incaricato di monitorare l’evoluzione della IA e pubblicare un report “State of AI science”. “L’idea è di costituirlo come l’Intergovernamental Panel on Climate Change, chiedendo a ogni Paese di proporre degli esperti, per raggiungere un consenso internazionale, con il supporto del Segretario delle Nazioni Unite”.
Il comitato dovrebbe essere presieduto da Yoshua Bengio, considerato uno dei principali esperti di IA, vincitore dell’ACM Turing Award (una sorta di equivalente per l’informatica dei premi Nobel), nonché firmatario dell’appello sottoscritto a marzo da oltre 1000 esperti del settore per chiedere sei mesi di pausa negli sviluppi della IA.
“Gli stessi addetti ai lavori che stanno sviluppando queste tecnologie hanno parlato dei possibili rischi connessi all’IA”, ha detto Sunak. “È importante non essere allarmisti, ma non ci sono certezze e anche gli stessi esperti non concordano sui possibili impatti, che però in alcuni casi potrebbero raggiungere i livelli di una pandemia o una guerra nucleare. Per questo come leader politici abbiamo la responsabilità di intraprendere un percorso per proteggere le persone”.
Elon Musk: “Arriveremo a un punto in cui nessun lavoro umano sarà più necessario”
Quanto a Elon Musk, in un’intervista TV con Sunak durante l’evento ha detto “stiamo vedendo all’opera la forza più dirompente della storia: arriveremo a un punto in cui nessun lavoro umano sarà più necessario. Ciascuno potrà avere un lavoro se lo vorrà, ma l’IA sarà comunque in grado di fare tutto”.
Secondo Musk, il summit di Bletchley Park è un passo avanti importante nel cammino di sviluppo della IA. “Il solo fatto di approfondire il problema, e di spiegare le preoccupazioni al pubblico, è un ottimo risultato”.
Quanto a Giorgia Meloni, la presidente del consiglio italiana ha dichiarato: “Sosteniamo e collaboriamo con l’Unione europea verso l’approvazione dell’Artificial Intelligence Act, con il quale l’Ue si è assunta responsabilmente il compito di garantire un uso attento del bene pubblico ed evitare usi distorti a fini commerciali o, peggio, di sicurezza”.
A Roma nel 2024 una conferenza internazionale su IA e lavoro
Inoltre Meloni ha annunciato che durante la presidenza italiana del G7 il prossimo anno si terrà a Roma una Conferenza internazionale su Intelligenza Artificiale e Lavoro, “alla quale vorremmo partecipassero studiosi, manager ed esperti di tutto il mondo che avranno l’opportunità di discutere metodi, iniziative e linee guida per garantire che l’IA aiuti e non sostituisca chi lavora, migliorandone invece le condizioni e le prospettive”.
Infine sull’impegno dell’Italia sulla IA, “stiamo lavorando per completare il Piano strategico nazionale per l’IA, stiamo costituendo un Fondo specifico per sostenere le start-up italiane che operano nel settore, e abbiamo istituito comitati per studiare l’impatto nei vari settori”.