Una lettera firmata anche da Elon Musk mette in guardia contro le IA troppo potenti
Al momento di scrivere sono stati raggiunti quasi 1400 firmatari, tra i quali spiccano personalità di grande spicco come Elon Musk, Steve Wozniak e ricercatori di DeepMind. Stiamo parlando di una lettera pubblica presentata dall’organizzazione non-profit Future of Life Institute, in cui un gruppo di esperti di intelligenza artificiale chiede ai laboratori di IA di sospendere l’addestramento di sistemi più potenti di GPT-4 per scongiurare potenziali rischi per la società e l’umanità.
Secondo i firmatari, i sistemi di IA con intelligenza competitiva umana possono comportare rischi profondi per la società e l’umanità. Come affermato nei Principi di IA di Asilomar, l’IA avanzata potrebbe rappresentare un cambiamento profondo nella storia della vita sulla Terra e dovrebbe quindi essere pianificata e gestita con cura e risorse adeguate. “Purtroppo, questo livello di pianificazione e gestione non sta avvenendo e negli ultimi mesi i laboratori di IA si sono impegnati in una corsa fuori controllo allo sviluppo e all’impiego di menti digitali sempre più potenti che nessuno (nemmeno i loro creatori) è in grado di comprendere, prevedere o controllare in modo affidabile”, si legge nella lettera.
Gli autori della lettera si chiedono inoltre se dobbiamo lasciare che le macchine inondino i nostri canali di informazione con propaganda e falsità, se dovremmo automatizzare tutti i lavori, compresi quelli più soddisfacenti, o sviluppare menti non umane che alla fine potrebbero superarci di numero, essere più intelligenti, obsolete e sostituirci. “Queste decisioni non devono essere delegate a leader tecnologici non eletti. I potenti sistemi di intelligenza artificiale dovrebbero essere sviluppati solo quando saremo sicuri che i loro effetti saranno positivi e i loro rischi gestibili. Questa fiducia deve essere ben giustificata e aumentare con l’entità dei potenziali effetti di un sistema”.
La recente dichiarazione di OpenAI sull’intelligenza artificiale generale afferma che a un certo punto, potrebbe essere importante ottenere una revisione indipendente prima di iniziare ad addestrare i sistemi futuri, e per gli sforzi più avanzati concordare di limitare il tasso di crescita dei calcoli utilizzati per creare nuovi modelli. “Siamo d’accordo. Questo è il momento giusto”, scrivono gli autori della lettera.
“Pertanto, chiediamo a tutti i laboratori di IA di mettere immediatamente in pausa per almeno 6 mesi l’addestramento di sistemi di IA più potenti del GPT-4. Questa pausa deve essere pubblica e verificabile e deve coinvolgere tutti gli attori chiave. Se tale pausa non può essere attuata rapidamente, i governi dovrebbero intervenire e istituire una moratoria”.
I laboratori di IA e gli esperti indipendenti dovrebbero utilizzare questa pausa per sviluppare e implementare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti. Questi protocolli dovrebbero garantire che i sistemi che vi aderiscono siano sicuri al di là di ogni ragionevole dubbio. “Questo non significa una pausa nello sviluppo dell’IA in generale, ma solo un passo indietro rispetto alla pericolosa corsa verso modelli black-box sempre più grandi e imprevedibili con capacità emergenti”.
Secondo gli autori della lettera, gli sviluppatori di IA devono inoltre collaborare con i politici per accelerare drasticamente lo sviluppo di solidi sistemi di governance dell’IA, che dovrebbero includere:
- Nuove e capaci autorità di regolamentazione dedicate all’IA
- Supervisione e monitoraggio di sistemi di IA altamente capaci e di grandi bacini di capacità computazionale
- Sistemi di provenienza e watermarking per aiutare a distinguere i modelli reali da quelli sintetici e per tracciare le fughe di notizie
- Un robusto ecosistema di auditing e certificazione
- Responsabilità per i danni causati dall’IA
- Solidi finanziamenti pubblici per la ricerca tecnica sulla sicurezza dell’IA
- Istituzioni ben finanziate per far fronte ai drammatici sconvolgimenti economici e politici (soprattutto per la democrazia) che l’IA causerà
La lettera termina con queste parole: “L’umanità può godere di un futuro fiorente con l’IA. Essendo riusciti a creare potenti sistemi di IA, possiamo ora goderci una “estate dell’IA” in cui raccogliere i frutti, progettare questi sistemi per il chiaro beneficio di tutti e dare alla società la possibilità di adattarsi. La società ha messo in pausa altre tecnologie con effetti potenzialmente catastrofici e possiamo farlo anche in questo caso”.