Microsoft vuole rendere Bing Chat più credibile e meno “folle”
Microsoft sta progettando di aggiornare Bing Chat per renderlo un po’ meno “bizzarro” nelle risposte. OpenAI, nel frattempo, sta cercando di rendere ChatGPT un po’ più neutrale. Nei giorni scorsi Microsoft ha pubblicato un post per illustrare i cambiamenti in arrivo per il chatbot AI di Bing, mentre OpenAI ha pubblicato un post con maggiori dettagli su come sta mettendo a punto il suo modello.
È difficile credere che Bing Chat sia disponibile (tra l’altro solo per pochissimi utenti) solo da una settimana, ma resta il fatto che questo nuovo strumento alimentato dall’intelligenza artificiale ha fatto guadagnare a Bing una popolarità che non ha mai ha avuto prima. Nel post prima citato, Microsoft ha voluto sottolineare il “maggiore coinvolgimento” che Bing ha registrato con il debutto della ricerca aggiornata e del chatbot Bing Chat in 169 paesi, con circa il 71% degli utenti che ha dato un “pollice in su” alle risposte basate sull’intelligenza artificiale utilizzando gli strumenti forniti da Bing.
Microsoft non vede comunque il nuovo Bing Chat come un motore di ricerca, ma “piuttosto come uno strumento per comprendere meglio e dare un senso al mondo”, si legge nel post. Tuttavia, l’azienda vuole migliorare le query che richiedono informazioni aggiornate come nel caso dei risultati sportivi e rendere disponibili quattro volte i “dati di base” per risolvere questi problemi.
Allo stesso tempo, l’esperienza di Bing Chat si è dimostrata per certi versi “strana” a livello di risposte e Microsoft sta affrontando anche questa questione. Da una conversazione prolungata con un giornalista del New York Times in cui Bing si interrogava sul matrimonio del giornalista, fino a insulti razzisti e presunte minacce nei confronti degli utenti che lo stavano testando, il chatbot di Bing è andato a volte un po’ oltre quello che gli utenti si sarebbero aspettati da un chatbot “corporate”.
Forse anche per questo, OpenAI ha pubblicato nel suo post le modifiche apportate al suo modello di IA. Tra queste spiccano le frasi “le nostre linee guida stabiliscono esplicitamente che i revisori non devono favorire alcun gruppo politico e “i pregiudizi che possono comunque emergere dal processo descritto sopra sono bug, non feature”.
Tornando invece a Microsoft, si sta valutando la possibilità di aggiungere un’opzione che permetta agli utenti di controllare maggiormente il rapporto tra precisione e creatività nelle risposte fornite da Bing. Nel mondo dell’intelligenza artificiale applicata all’arte, questo aspetto viene spesso presentato come un cursore con cui gli utenti possono selezionare il livello di quanto l’output dell’algoritmo corrisponda alla richiesta di input (un livello più debole lascia all’algoritmo più spazio per la creatività, ma può anche far deviare i risultati in direzioni inaspettate). Microsoft ha dichiarato che questo fenomeno si sta manifestando in modo inaspettato in quanto gli utenti utilizzano il chatbot per “intrattenimento sociale”, riferendosi apparentemente alle lunghe e strane conversazioni che Bing Chat può produrre.
“Abbiamo riscontrato che in sessioni di chat lunghe e prolungate, con 15 o più domande, Bing può diventare ripetitivo o essere spinto a dare risposte che non sono necessariamente utili o in linea con il tono che abbiamo scelto“, ha dichiarato Microsoft, secondo la quale questo accade perché il modello si “confonde” sulle risposte da dare e può essere indotto a utilizzare “un tono in cui gli viene chiesto di fornire risposte che possono portare a uno stile che non era nelle nostre intenzioni”. In questo caso, secondo Microsoft gli utenti hanno bisogno di uno strumento che consenta loro di “aggiornare più facilmente il contesto”. Infine, Microsoft sta valutando anche nuove funzionalità come la prenotazione di voli o l’invio di e-mail. Queste saranno aggiunte in “versioni future” di Bing Chat.