IBM, una IA generativa per il business “a portata di PMI”

IBM Think Milano 2023 Rebattoni
“In Italia ha l'impatto potenziale di un nuovo PNRR”. All’IBM Think di Milano in scena 3 tipi di casi d’uso per la IA. WindTre prima referenza italiana di watsonx

“Tutti parlano di IA generativa, che è anche il tema del giorno qui oggi, ma a noi interessa parlare di IA generativa per il business, cioè di uno strumento con cui tutte le imprese – anche quelle piccole e medie – possono migliorare la loro competitività, efficienza e sostenibilità”.

Stefano Rebattoni, CEO e Chairman di IBM Italia Think 2023

Stefano Rebattoni, CEO e Chairman di IBM Italia

Così Stefano Rebattoni, CEO e Chairman di IBM Italia, ha riassunto la visione della IA generativa di IBM, in una conferenza stampa all’edizione italiana dell’IBM Think 2023, evento tenutosi pochi giorni fa a Milano alla presenza di oltre 500 partner e clienti.

Secondo IBM, l’IA può generare a livello mondiale un valore economico addizionale di 16mila miliardi di dollari entro il 2030. “Per l’Italia l’impatto potenziale è paragonabile a un nuovo PNRR, o a una legge finanziaria”, ha sottolineato Rebattoni.

“Le nostre ricerche ci dicono che in Italia il livello di adozione nelle aziende è intorno al 50%, in linea con il dato mondiale, ma come sempre è una media tra due dati molto diversi, il 60% delle grandi aziende e il 20% delle PMI”.

I tre casi d’uso della IA generativa secondo IBM

Il problema è quindi far capire alle PMI che l’IA non è una cosa inarrivabile per loro come qualche anno fa, ha detto Rebattoni, e IBM vuole farlo in modi molto concreti, proponendo la suite Watsonx e i suoi tre componenti, e poi Proof-Of-Concept, casi d’uso concreti, calcoli di ritorni, accesso a competenze specializzate e formazione.

“CI stiamo concentrando in particolare su tre tipologie di use case di IA generativa. La prima riguarda i lavori digitali, quelli che richiedono uso intensivo e gestione di dati: back office, amministrazione, HR, generazione contenuti, marketing”.

La seconda è l’area customer care, in termini sia di clienti interni (i dipendenti), sia esterni. “Qui oggi annunciamo la prima referenza italiana di watsonx: WindTre”.

La terza è l’area “IT for IT”, “cioè tutto ciò che riguarda lo sviluppo di codice, la migrazione di ambienti: l’IA può accelerare di due ordini di grandezza progetti di modernizzazione di applicazioni e piattaforme”.

Il progetto IA di WindTre per gestire le segnalazioni dei clienti

Più in dettaglio, WindTre ha sviluppato insieme a IBM Consulting una soluzione di “Intelligent Automation” basata basata su watsonx Assistant, watsonx Knowledge Studio (WKS) e Natural Language Understanding (NLU) per gestire le segnalazioni dei clienti (oltre 10mila al mese).

Tiziana Tornaghi, Managing Partner IBM Consulting Italia Think

Tiziana Tornaghi, Managing Partner IBM Consulting Italia

L’obiettivo della società telefonica, spiega una nota, era di ottimizzare il processo di gestione dei reclami per anomalie dei sistemi aperti dagli utenti, e ridurre le attività ripetitive del proprio Service Desk.

Tra i benefici ci sono l’aumento di 10 volte della velocità di risposta rispetto a prima, la riduzione degli errori umani, e la scalabilità senza precedenti grazie al fatto di poter attivare più robot in parallelo.

“Al di là dei benefici di produttività ed efficienza, il risultato più notevole è stato vedere come si sono arricchite le competenze di WindTre durante il progetto, e lo stesso si può dire per le nostre”, ha detto Tiziana Tornaghi, Managing Partner IBM Consulting Italia.

”È importante infatti che lo stesso percorso di creazione di competenze IA nei clienti si verifichi anche al nostro interno, e per questo presto apriremo una Factory di IA generativa con risorse dei nostri centri di Napoli e Bari”.

“L’IA è una trasformazione, ma non per pochi”

Alessandro Curioni, IBM Fellow, VP Europe and Africa e Director IBM Research Zurich

Alessandro Curioni, IBM Fellow, VP Europe and Africa e Director IBM Research Zurich

Sul tema della IA generativa a portata di PMI è tornato poi Alessandro Curioni, IBM Fellow, VP Europe and Africa e Director IBM Research Zurich: “Occorre demistificare l’AI: è una trasformazione, ma non per pochi. Fino a ieri occorrevano tantissimi dati e manodopera per sviluppare modelli IA specifici che risolvevano un solo task. Oggi i foundation model permettono di creare modelli grandi quasi automaticamente, con poco investimento, e poi di personalizzarli in un secondo momento con poco lavoro e dati”.

Tutto questo, continua Curioni, permette di concretizzare l’idea di IBM di una AI per il business che sia responsabile, basata su modelli che lavorano su dati di proprietà dell’azienda, o di uso autorizzato.

“Per questo watsonx ha tre componenti per il management dei dati, la facile creazione – a partire dai foundation model – di modelli piccoli e personalizzati basati solo sui dati del cliente, e la governance, al fine di monitorare la compliance di dati e modelli e aggiornarli in tempo reale in caso di novità normative, senza interruzioni nell’uso”.

Il punto sul Quantum Computing

I manager di IBM in conferenza stampa hanno toccato anche un altro dei temi principali di Think 2023 Milano: il Quantum Computing.

“Sei anni fa avevamo una visione, ora abbiamo una roadmap di hardware, software, middleware, applicazioni”, ha detto Curioni. “Dal 2016 non abbiamo mancato una singola scadenza: penso che in un periodo tra 2 e 5 anni riusciremo a dimostrare un vantaggio concreto nella scienza e nel business. Il campo in cui questo vantaggio sarà più tangibile sarà l’intersezione tra quantum e AI”.

“Il Quantum Computing è stato a lungo ristretto in un confronto research-to-research, ma oggi ne siamo usciti”, ha aggiunto Rebattoni. “Diversi governi stanno facendo partire iniziative a livello paese, tra cui Germania, Francia, Spagna. In Germania l’anno prossimo sorgerà un polo quantistico a Henningen, voluto fortemente dal governo tedesco, in cui confluiranno tecnologie, metodologie e applicazioni”.

Aziende:
IBM
Condividi:
 

Salesforce lancia Einstein Copilot, assistente di IA generativa per tutte le sue soluzioni

salesforce einstein trust layer einstein copilot
All'evento Dreamforce presentata l’evoluzione di Einstein GPT, che era limitata ad alcune funzioni e soluzioni: ha un tool di personalizzazione (Copilot Studio), e si basa sulla nuova piattaforma Einstein 1

Salesforce ha aperto ieri il suo evento Dreamforce con due annunci che segnano una tappa molto importante nella sua strategia di IA generativa: la nuova piattaforma Einstein 1 – che integra nativamente un’evoluzione del real-time data engine Data Cloud e l’architettura AI Einstein Trust Layer – ed Einstein Copilot, un nuovo assistente AI conversazionale che, rispetto al precedente Einstein GPT (annunciato sei mesi fa), non sarà limitato ad alcune funzioni e applicazioni, ma farà parte di tutte le soluzioni Salesforce.

In un comunicato, Salesforce descrive Copilot appunto come un assistente integrato nella user experience di ogni applicazione Salesforce, che riceve domande e risponde in linguaggio naturale, e supporta la produttività degli utenti nel quotidiano flusso di lavoro con risposte basate su dati aziendali sicuri e proprietari, ricavati da Salesforce Data Cloud.

L’assistente è completato da Einstein Copilot Studio, un tool di personalizzazione e configurazione a disposizione di partner e clienti interessati a customizzare Copilot con specifici prompt, skill e modelli AI.

Le differenze rispetto agli “altri Copilot”

Nel comunicato, Salesforce propone molti esempi dei possibili utilizzi di Copilot in tutte le sue soluzioni – Vendite, Servizi, Marketing, Commerce, Tableau – e nel lavoro degli sviluppatori.

Inoltre propone altri esempi di uso di Copilot per professionisti di settori verticali specifici, come analisti finanziari (analisi del comportamento dei clienti per proporre suggerimenti personalizzati), manager della sanità (riduzione automatica dei no-show dei pazienti), autofficine (calendarizzare gli interventi in funzione dell’analisi dei dati delle auto), e amministratori scolastici (mappatura automatica degli interessi degli studenti per proporre programmi di corsi personalizzati).

“Molti vendor stanno proponendo dei ‘copilot’: questa dell’assistente interno alla soluzione è una delle applicazioni più comuni dell’IA generativa che stanno emergendo”, ha commentato Patrick Stokes, EVP, product and industries marketing di Salesforce, in una conferenza stampa il giorno prima del Dreamforce.

“Salesforce Copilot però non si focalizza tanto sulla produttività come altri, quanto sui workflow fondamentali dell’interazione diretta con il cliente – vendite, servizio, commerce, marketing – che sono la nostra missione”.

Questa nuova interfaccia inoltre, ha aggiunto Clara Shih, CEO di Salesforce AI, offre diversi vantaggi rispetto all’uso di tool di AI generativa standalone: “Non è necessaria formazione, basta parlare direttamente a Copilot come si parla a un collega, e poi gli utenti non dovranno passare da una schermata all’altra e fare copia e incolla, cose che frenano l’adozione e rallentano l’operatività”.

Einstein Copilot Studio, un tool per personalizzare prompt, skill e modelli

Passando a Einstein Copilot Studio, le componenti principali sono tre: Prompt Builder, Skills Builder e Model Builder.

In sintesi, Prompt Builder permette di sviluppare prompt di IA generativa adattati al brand e allo stile di comunicazione della specifica azienda, senza necessità di conoscenze tecniche approfondite.

Skills Builder permette di definire azioni personalizzate e guidate dalla IA per ottenere obiettivi specifici, per esempio fare un’analisi competitiva del mercato di riferimento per preparare una riunione.

“Questo significa che non c’è un accesso indiscriminato di Copilot ai dati dell’azienda per rispondere alle domande, perché l’azienda potrà scegliere i workflow a cui Copilot può accedere e i workflow a cui non può accedere”, ha spiegato Shih.

Infine Model Builder permette agli utenti di scegliere il Large Language Model (LLM) preferito di Salesforce, o di integrare altri modelli predittivi o generativi.

Da Einstein GPT a Einstein Copilot

In pratica, dopo una prima fase sperimentale con Einstein GPT, Salesforce ha scelto di mettere a punto prima una piattaforma fondativa per l’IA generativa – Einstein 1 – e poi una nuova interfaccia, Einstein Copilot appunto.

“Abbiamo dieci anni di esperienza nell’IA con Einstein, in gran parte IA predittiva, e pochi mesi fa abbiamo lanciato Einstein GPT, che introduceva capacità generative in Einstein”, ha sottolineato Stokes. “È stato un primo esperimento, abbiamo connesso i LLM ai dati in Salesforce in modalità molto limitate, per esempio la possibilità di generare un’email verso un prospect in Sales Cloud, o una risposta al cliente in Service Cloud. Volevamo approfondire alcuni aspetti, per esempio capire quali tipi di dati collegare ai prompt per renderli abbastanza flessibili da produrre risultati utili”.

Ora invece, ha continuato Stokes, “ogni app di Salesforce avrà questa nuova interfaccia conversazionale nella colonna destra: non un bottone da cliccare, ma un modo di interagire direttamente in un ambiente sicuro”.

“Abbiamo impiegato molto tempo per costruire queste fondamenta, lavorando senza fretta per costruire qualcosa di sicuro e ricco di opzioni: l’uso di Copilot non è vincolato all’uso di Salesforce”.

Einstein Trust Layer: “I dati dei nostri clienti non sono il nostro prodotto”

La base di dati su cui lavora Copilot è la nuova evoluzione di Salesforce Data Cloud, il real time data engine a sua volta erede di Salesforce Genie, annunciato soltanto un anno fa (ne avevamo parlato qui). Data Cloud, spiega Salesforce, unifica e armonizza i vari tipi di dati sui clienti, strutturati e non, nelle applicazioni aziendali (Salesforce e non), creando una “vista unica sul cliente”, e che si basa a sua volta sul metadata framework di Salesforce.

L’uso di Data Cloud è possibile a costo zero per tutti i clienti con Salesforce Enterprise Edition o edizioni superiori, e ieri Salesforce ha lanciato una promozione per cui sarà possibile unificare 10mila profili a costo zero, ed esplorare i relativi dati con due licenze Tableau Creator.

Quanto alla parte di sicurezza e gestione della privacy, è noto che l’IA generativa provoca nelle aziende molte preoccupazioni, a cui Salesforce risponde con l’architettura AI Einstein Trust Layer, nativamente integrata nella piattaforma Einstein 1.

Tra le altre cose, Einstein Trust Layer permette di mantenere i dati in Salesforce mascherandoli ai LLM esterni, avverte gli utenti in caso di prompt o risposte potenzialmente critici, e definisce degli audit trail per controlli a posteriori.

“In realtà nella costruzione della piattaforma di IA generativa siamo partiti proprio dalla sicurezza, da Einstein Trust Layer”, ha detto Stokes.

“I dati dei nostri clienti non sono il nostro prodotto”, ha aggiunto Shih. “25 anni fa abbiamo creato un modello affidabile per permettere alle aziende di mettere i dati dei loro clienti nel cloud in modo sicuro e protetto. 10 anni fa lo abbiamo fatto per l’IA predittiva, e ora lo stiamo facendo anche per l’IA generativa”.

Aziende:
Salesforce
Condividi: