HPE collabora con NVIDIA per accelerare l’addestramento dell’IA
HPE ha annunciato una soluzione di supercomputing per l’IA generativa progettata per grandi imprese, istituti di ricerca e organizzazioni governative per accelerare la formazione e la messa a punto dei modelli di intelligenza artificiale utilizzando set di dati privati. Questa soluzione, disponibile a dicembre tramite HPE in più di 30 paesi, comprende sia una suite software che consente ai clienti di addestrare e mettere a punto modelli e sviluppare applicazioni IA, sia supercomputer raffreddati a liquido, elaborazione accelerata, reti, storage e servizi per aiutare le organizzazioni a sbloccare il valore dell’intelligenza artificiale più rapidamente.
Gli strumenti software per creare applicazioni di intelligenza artificiale, personalizzare modelli predefiniti e sviluppare e modificare codice sono componenti chiave di questa soluzione di supercalcolo per l’intelligenza artificiale generativa. Il software è integrato con la tecnologia di supercalcolo HPE Cray e sfrutta i superchip NVIDIA Grace Hopper GH200. Questa soluzione offre alle organizzazioni la scalabilità e le prestazioni richieste per i grandi carichi di lavoro di intelligenza artificiale, come il training degli LLM (Large Language Model) e dei DLRM (Deep Learning Recommendation Model). Utilizzando HPE Machine Learning Development Environment su questo sistema, il modello open source da 70 miliardi di parametri Llama2 è stato messo a punto in meno di 3 minuti per un immediato e più veloce time to market per i clienti.
“L’intelligenza artificiale generativa sta trasformando ogni attività industriale e scientifica” ha affermato Ian Buck, vice president Hyperscale e HPC di NVIDIA. “La collaborazione di NVIDIA con HPE su questa soluzione chiavi in mano di addestramento e simulazione di modelli di IA, basata sui superchip NVIDIA GH200 Grace Hopper, fornirà ai clienti prestazioni capaci di far fare passi da gigante alle loro iniziative di intelligenza artificiale generativa”.
Entro il 2028, si stima che la crescita dei carichi di lavoro dell’intelligenza artificiale richiederà circa 20 gigawatt di potenza all’interno dei data center. I clienti richiederanno quindi soluzioni che offrano un nuovo livello di efficienza energetica per ridurre la loro impronta di carbonio. L’efficienza energetica è un fattore centrale per HPE, che sviluppa soluzioni con funzionalità di raffreddamento a liquido in grado di garantire un miglioramento delle prestazioni fino al 20% per kilowatt rispetto alle soluzioni raffreddate ad aria e consumare il 15% in meno di energia.
Oggi è firmata HPE la maggior parte dei 10 supercomputer più efficienti al mondo, anche grazie all’utilizzo del raffreddamento diretto a liquido (DLC) presente nella soluzione di supercalcolo per l’IA generativa per raffreddare in modo efficiente i sistemi, riducendo al tempo stesso il consumo energetico per le applicazioni ad alta intensità di calcolo.