HPE entra nel mercato cloud dell’IA con un’offerta per i LLM
HPE ha annunciato il suo ingresso nel mercato cloud dell’IA attraverso l’espansione del suo portafoglio HPE GreenLake per offrire modelli linguistici di grandi dimensioni (LLM) a qualsiasi azienda, dalle startup alle aziende Fortune 500, per accedere on-demand a un servizio cloud di supercomputing multi-tenant.
Con l’introduzione di HPE GreenLake per i modelli linguistici di grandi dimensioni, le aziende possono addestrare, ottimizzare e distribuire privatamente l’IA su larga scala utilizzando una piattaforma di supercomputing sostenibile. HPE GreenLake for LLMs sarà fornito in collaborazione con il primo partner di HPE, Aleph Alpha, una startup tedesca di IA, per fornire agli utenti un LLM collaudato sul campo e pronto all’uso con lo scopo di alimentare i casi d’uso che richiedono l’elaborazione e l’analisi di testi e immagini.
HPE GreenLake for LLMs è la prima di una serie di applicazioni IA specifiche per il settore e il dominio che HPE prevede di lanciare in futuro. Queste applicazioni includeranno il supporto per la modellazione climatica, la sanità e le scienze della vita, i servizi finanziari, la produzione e i trasporti.
“Abbiamo raggiunto un cambiamento generazionale nel mercato dell’IA che sarà altrettanto trasformativo del web, del mobile e del cloud” ha dichiarato Antonio Neri, Presidente e CEO di HPE. “HPE sta rendendo l’IA, un tempo dominio dei laboratori governativi ben finanziati e dei giganti del cloud globale, accessibile a tutti, offrendo una serie di applicazioni di IA, a partire da modelli linguistici di grandi dimensioni, che girano sui supercomputer collaudati e sostenibili di HPE. Ora le aziende possono abbracciare l’IA per guidare l’innovazione, sconvolgere i mercati e raggiungere risultati straordinari con un servizio cloud on-demand che addestra, sintonizza e distribuisce i modelli, su scala e in modo responsabile”.
A differenza delle offerte cloud generiche che eseguono più carichi di lavoro in parallelo, HPE GreenLake per LLM si basa su un’architettura AI-native progettata in modo esclusivo per eseguire un unico carico di lavoro di formazione e simulazione AI su larga scala e alla massima capacità di calcolo. L’offerta supporterà lavori di IA e HPC su centinaia o migliaia di CPU o GPU contemporaneamente. Questa capacità è significativamente più efficace, affidabile ed efficiente per addestrare l’IA e creare modelli più accurati, consentendo alle aziende di accelerare il loro percorso dal POC alla produzione per risolvere i problemi più velocemente.
HPE GreenLake for LLMs includerà l’accesso a Luminous, un modello linguistico pre-addestrato di Aleph Alpha, offerto in diverse lingue, tra cui inglese, francese, tedesco, italiano e spagnolo. L’LLM consente ai clienti di sfruttare i propri dati, addestrare e mettere a punto un modello personalizzato per ottenere approfondimenti in tempo reale basati sulle proprie conoscenze. Questo servizio consente alle aziende di creare e commercializzare diverse applicazioni di intelligenza artificiale per integrarle nei loro flussi di lavoro e sbloccare valore commerciale e di ricerca.
“Utilizzando i supercomputer e il software di intelligenza artificiale di HPE, abbiamo addestrato in modo efficiente e rapido Luminous, un modello linguistico di grandi dimensioni destinato ad aziende critiche come banche, ospedali e studi legali, da utilizzare come assistente digitale per accelerare il processo decisionale e risparmiare tempo e risorse” ha dichiarato Jonas Andrulis, fondatore e CEO di Aleph Alpha.
HPE GreenLake for LLMs sarà disponibile on-demand e funzionerà sui supercomputer HPE Cray XD, eliminando così la necessità per i clienti di acquistare e gestire un proprio supercomputer, che di solito è costoso, complesso e richiede competenze specifiche. L’offerta sfrutta l’HPE Cray Programming Environment, una suite software completamente integrata per ottimizzare le applicazioni HPC e IA, con un set completo di strumenti per lo sviluppo, il porting, il debug e la messa a punto del codice.
Inoltre, la piattaforma di supercomputing fornisce il supporto per il software IA/ML di HPE che include HPE Machine Learning Development Environment per addestrare rapidamente modelli su larga scala e HPE Machine Learning Data Management Software per integrare, tracciare e verificare i dati con funzionalità IA riproducibili per generare modelli affidabili e accurati. HPE GreenLake for LLMs funzionerà inoltre in strutture di colocation come QScale in Nord America, la prima regione a fornire un design appositamente costruito per supportare la scala e la capacità di supercomputing con quasi il 100% di energia rinnovabile.
HPE sta accettando ordini per HPE GreenLake per LLM e prevede una disponibilità aggiuntiva entro la fine dell’anno solare 2023, a partire dal Nord America, mentre la disponibilità in Europa è prevista per l’inizio del prossimo anno.