Sempre più Nvidia e intelligenza artificiale nei server di Asus
Asus ha annunciato oggi il supporto delle più recenti soluzioni IA di Nvidia con GPU Tesla V100 Tensor Core 32GB e Tesla P4 sui propri server. L’intelligenza artificiale traduce i dati in informazioni, innovazioni scientifiche e servizi significativi e la dimensione delle reti neurali che alimentano questa rivoluzione si è sviluppata in modo straordinario. Per esempio, l’attuale modello di rete neurale all’avanguardia per la traduzione linguistica, il modello Google MOE, ha 8 miliardi di parametri rispetto ai 100 milioni di parametri dei modelli di soli due anni fa.
Per gestire questi modelli di grandissime dimensioni, Nvidia Tesla V100 offre una configurazione di memoria da 32 GB, il doppio rispetto alla generazione precedente. Fornendo il doppio della memoria, permette di migliorare del 50% le prestazioni di deep learning per i modelli di IA di nuova generazione e di incrementare la produttività degli sviluppatori, consentendo ai ricercatori di fornire un maggior numero di innovazioni legate all’intelligenza artificiale in meno tempo. La maggior quantità di memoria permette inoltre alle applicazioni HPC di eseguire simulazioni più grandi in modo più efficiente che mai.
Tesla P4 è la GPU di inferenza con deep learning più veloce al mondo per server scalabili per abilitare applicazioni intelligenti ed efficienti basate su IA. Riduce la latenza delle inferenze fino a 10 volte in qualsiasi infrastruttura hyperscale e offre un’incredibile efficienza energetica, 40 volte migliore rispetto alle CPU, dando nuova vita a una nuova ondata di servizi di intelligenza artificiale precedentemente limitati dalla latenza.
I server Asus alimentati dalle più recenti GPU Nvidia Tesla V100 e P4 sono:
- Asus ESC8000 G4: ottimizzato per applicazioni HPC e AI Training, supporta fino a 8 GPU Tesla V100 32GB e fa parte della classe HGX-T1 di piattaforme NVIDIA GPU-Accelerated Server.
- Asus ESC4000 G4: progettato per HPC e carichi di lavoro inferenziali, è basato su 4 GPU Tesla V100 32GB o 8 GPU Tesla P4, in base all’applicazione. Fa parte della classe HGX-I2 di piattaforme Nvidia GPU-Accelerated Server e assicura un’esperienza reattiva in tempo reale per nuovi scenari d’uso, riducendo la latenza dell’inferenza di apprendimento profondo di 10 volte. Con 20 teraflop di prestazioni inferenziali utilizzando operazioni INT8 e un motore di transcodifica basato su hardware, ESC4000 G4 alimenta nuovi servizi video basati sull’IA. Con un design a 75-Watt di dimensioni ridotte, si adatta a qualsiasi server scalabile e offre un’efficienza delle prestazioni 40 volte superiore rispetto alle CPU.
- Asus RS720-E9: perfetto per le inferenze IA, è equipaggiato con GPU NVIDIA Tesla P4.