L’appello dei CEO: l’IA è pericolosa quanto una pandemia o una guerra nucleare
I CEO delle principali aziende di intelligenza artificiale del mondo, insieme a centinaia di altri scienziati ed esperti di IA, hanno ribadito rischi esistenziali per l’umanità posti dalla tecnologia in una breve lettera pubblicata martedì dall’organizzazione no-profit californiana Center for AI Safety. “Mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare”, si legge nella lettera.
I CEO in questione sono Sam Altman di OpenAI, Demis Hassabis di DeepMind e Dario Amodei di Anthropic. Tra i firmatari compare anche Geoffrey Hinton, riconosciuto come il “padrino dell’IA” che il mese scorso si è dimesso dalla sua posizione in Google e ha messo in guardia dai rischi per l’umanità che l’IA comporta.
A marzo, una lettera firmata da personalità di spicco dell’industria tecnologica tra cui Elon Musk chiedeva una pausa di sei mesi sullo sviluppo dell’IA, ma non ha ottenuto il consenso di chi guida le aziende specializzate in IA e ha suscitato critiche per la presentazione di una soluzione che secondo molti non è plausibile.
La lettera di ieri è però diversa perché molti dei suoi principali firmatari occupano posizioni di rilievo all’interno delle C-suite, dei team di ricerca e di politica dei laboratori di IA e delle grandi aziende tecnologiche. Anche Kevin Scott, CTO di Microsoft (principale investitore di OpenAI) e James Manyika, vicepresidente di Google (società madre di DeepMind), hanno infatti firmato la lettera. Tra i firmatari figurano anche figure molto considerate in ambito accademico come Ilya Sutskever, scienziato capo di OpenAI, e Yoshua Bengio, vincitore del premio Turing dell’Association for Computing Machinery.
Proprio in questo periodo i governi e le organizzazioni multilaterali si stanno rendendo conto dell’urgenza di regolamentare in qualche modo l’intelligenza artificiale, soprattutto dopo il boom di ChatGPT e i suoi tantissimi “emuli”. I leader dei paesi del G7 si riuniranno questa settimana per il loro primo incontro proprio con lo scopo di discutere la definizione di standard tecnici globali per mettere dei paletti allo sviluppo dell’intelligenza artificiale.
L’AI Act dell’Unione Europea, attualmente al vaglio dei legislatori, probabilmente fisserà standard simili per la tecnologia, ma è improbabile che entri pienamente in vigore almeno fino al 2025. Altman ha chiesto pubblicamente una regolamentazione globale dell’IA, ma ha anche respinto le proposte dell’Unione Europea su come tale regolamentazione dovrebbe essere.
“Gli esperti di IA, i giornalisti, i politici e l’opinione pubblica discutono sempre più spesso di un ampio spettro di rischi importanti e urgenti legati all’IA. Tuttavia, può essere difficile esprimere le proprie preoccupazioni su alcuni dei rischi più gravi dell’IA avanzata. L’obiettivo di questa lettera è anche quello di creare una conoscenza comune del crescente numero di esperti e personaggi pubblici che prendono sul serio alcuni dei rischi più gravi dell’IA avanzata”, si legge sempre nella lettera.
Dan Hendrycks, direttore del Center for AI Safety, ha scritto su Twitter che ci sono molti rischi importanti e urgenti legati all’IA, non solo il rischio di estinzione tra cui pregiudizi sistemici, disinformazione, uso malevolo, attacchi informatici e armi. La pensa invece diversamente Yann Lecun, l’head scientist di Meta (altro colosso all’avanguardia nello sviluppo di potenti modelli linguistici di grandi dimensioni) secondo il quale l’IA non rappresenta un rischio esistenziale per l’umanità.