Meta insegna a un’intelligenza artificiale a mentire
Meta ha addestrato un agente di intelligenza artificiale a giocare a un gioco da tavolo per convincere gli altri giocatori a seguire le sue strategie per poi tradirli. Anche alla luce di questo risultato, Meta afferma che la sua intelligenza artificiale Cicero potrebbe avere applicazioni diffuse nel prossimo futuro, tra cui lo sviluppo di assistenti virtuali più intelligenti con l’uso combinato di tecnologie come l’elaborazione del linguaggio naturale (NLP) e il ragionamento strategico. Cicero ha raggiunto queste prestazioni “umane” al gioco da tavolo strategico Diplomacy in un campionato online in cui ha giocato 40 partite contro 82 giocatori in carne e ossa, classificandosi tra i primi 10% dei partecipanti che hanno giocato più di una partita.
Diplomacy, che mette sette giocatori l’uno contro l’altro per il controllo di una mappa dell’Europa, rappresentava una sfida non da poco per l’agente IA di Meta, poiché per vincere bisognava capire se gli avversari staessero bluffando. L’IA ha avuto bisogno di un certo livello di empatia durante il gioco per formare coalizioni con altri giocatori, cosa che solitamente le IA non hanno bisogno di fare quando sono utilizzate in altri giochi contro avversari umani come gli scacchi.
Ragionamento strategico
Cicero si basa su due componenti tecnologiche principali: il ragionamento strategico e l’elaborazione del linguaggio naturale. Mentre il motore di ragionamento strategico prevede le mosse di altri giocatori e utilizza tali informazioni per formare una propria strategia, il motore di elaborazione del linguaggio naturale genera messaggi e analizza le risposte nelle conversazioni con altri giocatori per negoziare e raggiungere un accordo.
Al fine di aiutare l’agente di intelligenza artificiale a generare conversazioni pertinenti, i ricercatori hanno iniziato con un modello di generazione del linguaggio naturale da 2,7 miliardi di parametri basato da testi su Internet e lo hanno perfezionato con conversazioni tra giocatori umani in oltre 40.000 giochi estratte da webDiplomacy.net.
“Abbiamo sviluppato tecniche per annotare automaticamente i messaggi nei dati di addestramento con le corrispondenti mosse pianificate nel gioco, in modo che al momento dell’inferenza possiamo controllare la generazione del dialogo per discutere le azioni specifiche desiderate per l’agente e i suoi partner di conversazione”, hanno scritto i ricercatori di Meta in un post. Meta, che ha reso open source il codice per Cicero in modo che anche altre ricercatori possano perfezionarlo, ha creato un portale al quale inviare proposte di ricerca nell’area della cooperazione uomo-IA attraverso l’NLP utilizzando la diplomazia come concetto centrale.
Piani a lungo termine
Le grandi aziende tecnologiche come Microsoft, Google e Amazon sono in gara l’una contro l’altra per sviluppare assistenti virtuali indipendenti più intelligenti per supportare una varietà di casi d’uso aziendali, che vanno dai call center agli agenti IA in grado di condurre analisi del sentiment e insegnare nuove competenze a un individuo. Si prevede che il mercato globale dell’elaborazione del linguaggio naturale, che include tali assistenti, crescerà da 26,4 miliardi di dollari nel 2022 a 161,8 miliardi di dollari entro il 2029, secondo un rapporto di Fortune Business Insights.
I ricercatori di Meta sembrano suggerire che il successo di Cicero in Diplomacy va oltre le capacità di altri assistenti virtuali disponibili oggi. “Gli attuali assistenti IA possono completare semplici compiti di domanda-risposta (come dirvi le previsioni metereologiche), ma cosa accadrebbe se potessero intrattenere una conversazione a lungo termine con l’obiettivo di insegnarvi una nuova skill?“
Questo è un chiaro riferimento a strumenti come Google Duplex, Amazon Alexa, Microsoft Xiaoice e Apple Siri, anche se al momento nemmeno lo stesso Cicero è in grado di mantenere conversazioni a lungo termine, poiché il suo ragionamento è strettamente a breve termine. Come hanno detto i ricercatori di Meta, “da una prospettiva strategica, Cicero ha ragionato sul dialogo puramente in termini di azioni dei giocatori per l’attuale turno. Non ha modellato il modo in cui il suo dialogo potrebbe influenzare il rapporto con gli altri giocatori nel corso di un gioco”.