Hewlett Packard Enterprise (HPE) ha annunciato HPE ML Ops, una soluzione software basata su container che supporta l’intero ciclo di vita dei modelli di machine learning residenti on-premises, su cloud pubblici o in ambienti cloud ibridi. La nuova soluzione introduce un processo simile a DevOps che permette di standardizzare i workflow di machine learning e accelera i deployment AI riducendoli da mesi a giorni.

La nuova soluzione estende le capacità della piattaforma software BlueData EPIC, che fornisce ai team responsabili della data science accesso on-demand ad ambienti containerizzati per attività di analytics e AI/ML. BlueData è stata acquisita da HPE nel novembre 2018 allo scopo di arricchirne le proposte dedicate ad AI, analytics e container, affiancandosi alle soluzioni Hybrid IT di HPE e ai servizi Pointnext per i deployment AI enterprise.

L’adozione della AI nei contesti enterprise è più che raddoppiata negli ultimi quattro anni e le aziende continuano a investire significative quantità di tempo e risorse nella messa a punto di modelli di machine learning e deep learning per una vasta gamma di casi di utilizzo, come il rilevamento delle frodi, la medicina personalizzata o la customer analytics predittiva. Tuttavia, la sfida più difficile affrontata dai tecnici risiede nella operazionalizzazione del machine learning, ovvero quel che è altrimenti detto “ultimo miglio” per implementare e gestire tali modelli e ricavarne valore di business. Secondo Gartner, entro il 2021 almeno il 25% dei progetti di machine learning non risulterà completamente implementato proprio a causa della loro mancanza di operazionalizzazione.

hpe-ml-ops-machine-learning

HPE ML Ops trasforma le iniziative AI da sperimentazioni e progetti pilota in attività operative e di produzione di livello enterprise, affrontando l’intero ciclo di vita del machine learning, dalla preparazione dei dati e dalla costruzione dei modelli all’addestramento, al deployment, al monitoraggio e alla collaborazione.

“Dal retail alle banche all’industria, fino alla sanità e oltre, non c’è praticamente settore che non stia adottando o considerando progetti AI/ML per sviluppare prodotti e servizi innovativi e conquistare un vantaggio competitivo. Sebbene la maggior parte delle aziende stia procedendo spedita lungo la fase di costruzione e addestramento dei rispettivi progetti AI/ML, esse stanno tuttavia facendo fatica a operazionalizzare l’intero ciclo di vita ML, dalla prova concettuale alla fase pilota, per poi arrivare al deployment in produzione e al monitoraggio” ha affermato Ritu Jyoti, program vice president, Artificial Intelligence (AI) Strategies di IDC. “HPE sta colmando questo gap affrontando l’intero ciclo di vita ML con la sua proposta basata su container e indipendente dalla piattaforma, allo scopo di supportare una serie di requisiti operativi ML, accelerare il time-to-insights complessivo e promuovere risultati di business superiori”.

Con la soluzione HPE ML Ops, i team responsabili della data science coinvolti nella costruzione e nel deployment di modelli ML possono sfruttare la più completa soluzione per l’operazionalizzazione e la gestione del ciclo di vita delle AI enterprise:

  • Costruzione dei modelli: Ambienti sandbox self-service pre-pacchettizzati per i tool ML e i notebook per la data science
  • Addestramento dei modelli: Ambienti di training scalabili con accesso protetto ai dati
  • Deployment dei modelli: Deployment rapido e flessibile completo di riproducibilità
  • Monitoraggio dei modelli: Visibilità end-to-end sul ciclo di vita del modello ML
  • Collaborazione: Workflow CI/CD con repository per codice, modelli e progetti
  • Sicurezza e controllo: Multi-tenancy sicura integrata con meccanismi di autenticazione enterprise
  • Deployment ibrido: Supporto di ambienti on-premises, cloud pubblico e cloud ibrido

La soluzione HPE ML Ops funziona con una vasta gamma di framework open source dedicati al machine learning e al deep learning come Keras, MXNet, PyTorch e TensorFlow, oltre che con applicazioni di machine learning commerciali prodotte da software partner di ecosistema quali Dataiku e H2O.ai.