HP e Intel insieme per l’High Performance Computing

HP e Intel insieme per l’High Performance Computing
Gli HPC Centers of Excellence aiutano le imprese ad acquisire più velocemente le conoscenze e a massimizzare il valore di quantità crescenti di dati.

HP ha annunciato durante l’International Supercomputing Conference un accordo in ambito High Performance Computing (HPC) con Intel Corporation. Scopo della partnership è contribuire a espandere l’accessibilità di HPC per le imprese di tutte le dimensioni.

Per incrementare l’accessibilità di HPC, le due grandi società potenzieranno il Center of Excellence (CoE) di Grenoble e ne lanceranno a Houston (Texas) uno nuovo, progettato per creare una community di esperti in grado di supportare i clienti nella pianificazione, nello sviluppo, nella distribuzione e nella gestione delle soluzioni HPC.

I benefici e l’utilizzo di HPC, individuabili soprattutto nell’accelerazione del ritmo di analisi dei big data, nelle analisi avanzate e nella gestione di grandi carichi di lavoro, si stanno rapidamente espandendo oltre i governi e il mondo accademico per raggiungere le imprese di tutte le dimensioni interessate a implementare la penetrazione del business. Non è un caso che l’International Data Corporation preveda per il mercato dei server di elaborazione HPC un valore di 15,2 miliardi di dollari nel 2019.

Simile prospettive si spiegano con nuove dinamiche di mercato come le nuove fonti di big data tra mobilità, cloud computing, multimedia, collaborazione sociale e Internet of Things (IoT). Ma non è finita qui visto che intervengono anche la rapida trasformazione dei processi di business in settori chiave come l’esplorazione petrolifera, la genomica umana e il trading finanziario in tempo reale, per non parlare dei recenti progressi nella tecnologia dell’elaborazione a un prezzo simile a quello dell’IT tradizionale per usi generici.

Queste soluzioni semplificheranno notevolmente l’implementazione di HPC in settori come petrolio e gas e servizi finanziari

Tornando alla collaborazione descritta poco sopra, HP propone il proprio HPC Solutions Framework basato su server HP Apollo, specializzato per HPC e ora ottimizzato per supportare le applicazioni software specifiche di un settore proposte da un ecosistema di Independent Software Vendor (ISV) leader nel loro campo. Queste soluzioni semplificheranno notevolmente l’implementazione di HPC per i clienti in settori quali petrolio e gas, life science e servizi finanziari.

La parte di Intel è invece rappresentata dai processori Intel Xeon di ultima generazione, dalla famiglia di prodotti Intel Xeon Phi, dalla tecnologia di interconnessione Intel Omni-Path e da Intel Enterprise Edition of Lustre, soluzioni studiate per proporre sistemi ben bilanciati e perfettamente regolati per i workload e le prestazioni applicative di ciascun cliente.

“Con questa alleanza offriamo ai clienti l’accesso alle tecnologie e alle soluzioni, nonché alla proprietà intellettuale, ai servizi del portfolio e al supporto tecnico necessari per evolvere la loro infrastruttura di elaborazione e capitalizzarla in un ambiente data-driven” ha dichiarato Bill Mannel, Vice President e General Manager HPC and Big Data di HP Servers.

Gli fa eco Charles Wuischpard, Vice President Data Center Group di Intel: “Il framework di sistema scalabile HPC di Intel è un progetto flessibile per il calcolo computazionale e data-intensive che garantisce prestazioni di sistema ottimizzate a qualsiasi livello, mantenendo l’affidabilità e la facilità di programmazione attraverso standard aperti. I sistemi HP Apollo che implementano il framework saranno personalizzati per soddisfare le rigorose esigenze di calcolo, I/O, memoria e storage dei carichi di lavoro dei clienti HPC”.

Ulteriori informazioni sono disponibili a questo indirizzo.

Condividi:
 

L’intelligenza artificiale passa per le Gpu Nvidia

L’intelligenza artificiale passa per le Gpu Nvidia
Raddoppiano le prestazioni del software per reti neurali e tecniche di deep learning e c’è un nuovo kit di sviluppo OpenAcc gratuito per i ricercatori

La creazione e l’addestramento di reti neurali sempre più sofisticate è la grande sfida dell’It dei nostri giorni. Non è un caso che le migliori università si contendano gli esperti di intelligenza artificiale, che insieme ai data scientist cercano di costruire software abbastanza ‘smart’ da interpretare e sfruttare il caos dei big data. Per avere un’idea del futuro che ci attende nello sviluppo del deep learning si può leggere questo recente post sul blog di Kyunghyun Cho, ricercatore coreano che ha riassunto i principali temi discussi all’International Conference of Machine Learning (Icml) che si è da poco svolta a Lille, in Francia.

Cresce il ruolo delle Gpu

Per elaborazioni così complesse ci vuole un elevato parallelismo, e quello delle Cpu multicore, da solo, non basta. Il ruolo delle Gpu in quest’ambito è noto da tempo e chiunque si occupi di reti neurali conosce librerie capaci di sfruttare l’incredibile capacità di calcolo dei potenti acceleratori grafici, nati per maneggiare in tempo reale i miliardi di poligoni colorati della realtà virtuale ma anche utilissimi supporti ai calcoli in virgola mobile degli HPC.

Tra i più noti standard software in quest’ambito c’è OpenAcc, creato tre anni fa da Nvidia e Cray per supportare la programmazione in ambienti ibridi, con un misto di Cpu e Gpu. Consente infatti di compilare programmi in grado di girare su entrambe senza problemi, adattandosi al sistema disponibile e abilitando l’accelerazione sulle parti del codice desiderate attraverso direttive specifiche.

Nuovo software Nvidia

In questi giorni, all’Icml, Nvidia ha voluto dare una spinta in più al settore, proponendo nuove versioni dei suoi software dedicati a questo tipo di elaborazioni, capaci di far compiere un vero balzo in avanti in termini di prestazioni sfruttando molto meglio l’hardware disponibile.

Si tratta della versione 2 di Digits (Deep learning Gpu Training System) e della versione 3 di cuDNN (Cuda deep neural network library). Il primo è un tool di sviluppo interattivo per chi sviluppa reti neurali per interpretare il linguaggio naturale, tradurre o estrarre concetti utili da grandi dataset di informazioni disaggregate, riconoscere oggetti e così via.
Digits, quindi, semplifica e velocizza la creazione di una rete neurale consentendo aggiustamenti immediati ai suoi parametri operativi. La versione 2, inoltre, permette di sfruttare le maggiori prestazioni di sistemi con più Gpu, scalando automaticamente e raddoppiando così la velocità di addestramento delle reti rispetto a sistemi basati su singolo acceleratore grafico. Si tratta di un risultato che i tecnici Nvidia dichiarano di aver concretamente ottenuto addestrando un sistema all’auto-tagging di una banca dati di immagini. Se con la versione precedente ci volevano 16 giorni a completare l’addestramento, aiutandosi con una GeForce Gtx Titan X, sfruttando un sistema analogo ma con quattro Titan X e Digits 2, il training si è concluso in cinque giorni soltanto.

Anche cuDNN 3, la nuova libreria matematica per la gestione delle reti neurali, dovrebbe far fare passi da gigante alle prestazioni dell’hardware, specie quando si lavora con reti particolarmente sofisticate. Permette infatti di sfruttare lo storage di dati a 16-bit in virgola mobile nella memoria della Gpu, raddoppiando la quantità di spazio rispetto al passato e migliorando l’efficienza in sistemi multi-Gpu.

Un toolkit che apre molte strade

L’obiettivo di Nvidia è chiaro, rendere la sua piattaforma la più interessante per equipaggiare sistemi HPC pronti alle elaborazioni del futuro, imbottendoli di Gpu capaci di sopperire al sempre più modesto aumento delle prestazioni delle Cpu.

Per questo è stato annunciato da Nvidia anche il lancio di un completo toolkit OpenACC, liberamente scaricabile da ricercatori e università, mentre per l’uso commerciale è possibile attivare un periodo di prova di 90 giorni. Si tratta di una suite per workstation Linux che consente di sfruttare al massimo le Gpu, ma portando anche vantaggi alle elaborazioni con le moderne Cpu multi-core, supportando la versione 2.0 dello standard OpenAcc, Il cuore del kit è il compilatore C e Fortran, sviluppato dalla PGI (The Portland Group), società acquisita da Nvidia nel 2013. Il sistema capisce se sono disponibili Gpu e le usa in fase di compilazione, altrimenti si accontenta di lavorare con i core della Cpu.

Nvidia si è anche premurata di documentare la differenza di prestazioni tra OpenAcc su un sistema a doppia Cpu Haswell rispetto a uno con Gpu Tesla K80, che stando a quanto indicato dall’azienda di Santa Clara, in alcuni scenari riduce il tempo di elaborazione di 12 volte.

Quel che è certo è che lo sguardo di tutta l’industria dell’IT si sta rivolgendo verso questo tipo di elaborazioni e i progressi, in tempi brevi, non mancheranno.

Condividi: