Le nuove soluzioni HPE per training, inferenza e RAG dei modelli IA aziendali
In occasione dell’evento Nvidia GTC 2024 dedicato agli sviluppatori, HPE ha annunciato l’aggiornamento del proprio portfolio AI-native per favorire l’operatività delle applicazioni di IA generativa, deep learning e machine learning. Gli aggiornamenti comprendono:
- Disponibilità di due soluzioni GenAI full-stack co-ingegnerizzate da HPE e Nvidia
- Un’anteprima di HPE Machine Learning Inference Software
- Un’architettura di riferimento per la Retrieval Augmented Generation (RAG) di livello enterprise
- Supporto per lo sviluppo di prodotti futuri basati sulla nuova piattaforma Nvidia Blackwell
Annunciata lo scorso anno, la soluzione di supercomputing di HPE per IA generativa è ora disponibile su ordinazione per le organizzazioni che cercano una soluzione full-stack preconfigurata e testata per lo sviluppo e l’addestramento di modelli IA di grandi dimensioni. Questa soluzione chiavi in mano può supportare fino a 168 superchip Nvidia GH200 ed è progettata per essere utilizzata nei centri di ricerca sull’IA e nelle grandi aziende per migliorare il time-to-value e accelerare il training di 2-3 volte.
La seconda soluzione full-stack di enterprise computing di HPE per l’IA generativa è disponibile per i clienti direttamente o tramite HPE GreenLake con un modello pay-per-use flessibile e scalabile. Co-progettata con Nvidia, questa soluzione di fine-tuning e inferenza è progettata per ridurre i tempi e i costi di ramp-up offrendo i servizi di calcolo, storage, software, networking e consulenza di cui le organizzazioni hanno bisogno per produrre applicazioni GenAI.
Basata sui server HPE ProLiant DL380a Gen11, la soluzione è preconfigurata con GPU Nvidia, la piattaforma di rete Nvidia Spectrum-X Ethernet e le DPU Nvidia BlueField-3. La soluzione è inoltre potenziata dalla piattaforma di machine learning e dal software di analisi di HPE, dal software Nvidia AI Enterprise 5.0 con il nuovo microservizio Nvidia NIM per l’inferenza ottimizzata di modelli generativi di intelligenza artificiale, da Nvidia NeMo Retriever e da altre librerie di data science e AI.
HPE Machine Learning Inference Software consentirà invece alle aziende di implementare in modo rapido e sicuro i modelli di ML su larga scala. La nuova offerta si integrerà con Nvidia NIM per fornire modelli di base ottimizzati per Nvidia utilizzando container precostituiti.
È invece già disponibile da oggi la nuova offerta di HPE per il RAG aziendale, che si basa sull’architettura a microservizi Nvidia NeMo Retriever e offre un modello per creare chatbot, generator o copilot personalizzati. L’offerta consiste in una base dati integrata da HPE Ezmeral Data Fabric Software e HPE GreenLake for File Storage.
Infine, HPE svilupperà prodotti futuri basati sulla nuova piattaforma Nvidia Blackwell annunciata ieri, che incorpora un Transformer Engine di seconda generazione per accelerare i workload di GenAI. Ulteriori dettagli e la disponibilità dei prossimi prodotti HPE con il superchip Nvidia GB200 saranno annunciati prossimamente.