Data center: un progetto di HPE per migliorare efficienza energetica e resilienza
HPE ha annunciato la collaborazione a un progetto di ricerca e sviluppo su AI Ops in collaborazione con il National Renewable Energy Laboratory (NREL) del Dipartimento di Energia statunitense (DoE), finalizzato allo sviluppo di tecnologie di intelligenza artificiale (AI) e machine learning (ML) per l’automazione e il perfezionamento dell’efficienza operativa nei data center per l’era dell’exascale.
L’iniziativa rientra nella missione del NREL per la creazione e implementazione di nuovi approcci alla riduzione dei consumi di energia e all’abbattimento dei costi operativi. La collaborazione affronterà anche il futuro dei consumi di acqua ed energia all’interno dei data center, consumi che solamente negli Stati Uniti raggiungeranno rispettivamente i 73 miliardi di kWh e 174 miliardi di galloni (circa 660 miliardi di litri d’acqua) entro il 2020. HPE e NREL si concentreranno sul monitoraggio dei consumi energetici per ottimizzare l’efficienza e la sostenibilità misurata da parametri come PUE (Power Usage Effectiveness), WUE (Water Usage Effectiveness) e CUE (Carbon Usage Effectiveness).
I primi risultati ottenuti dai modelli basati sui dati storici dimostrano quanto possa essere promettente l’impiego dell’analytics predittiva nei data center del futuro. Il progetto AI Ops è scaturito dal lavoro di ricerca e sviluppo di HPE per accelerare la roadmap tecnologica in direzione dell’exascale computing, che rappresenta il prossimo grande balzo nel campo dei supercomputer.
HPE si è resa conto della necessità di sviluppare capacità di automazione e AI per poter gestire e ottimizzare gli ambienti data center exascale. Applicare operazioni basate su AI a un supercomputer exascale, che lavorerà a velocità un migliaio di volte superiori rispetto a quelle dei sistemi attuali, permetterà di rendere le operazioni efficienti dal punto di vista energetico e migliorare le caratteristiche di resilienza e affidabilità per mezzo di capacità automatiche e smart.
Il progetto si avvarrà di software e librerie open source come TensorFlow, NumPy e Sci-kit per sviluppare algoritmi di machine learning e si concentrerà sulle seguenti aree:
- Monitoraggio: Raccolta, elaborazione e analisi di enormi volumi di dati relativi a IT e facility da fonti diverse prima dell’applicazione degli algoritmi ai dati in tempo reale
- Analytics: Tecniche di big data analytics e machine learning saranno utilizzate per analizzare i dati da diversi tool e dispositivi all’interno di tutto il data center
- Controllo: Saranno applicati algoritmi per permettere alle macchine di risolvere i problemi autonomamente, oltre che per automatizzare intelligentemente attività ripetitive ed effettuare manutenzione predittiva sia sull’IT sia nella struttura del data center
- Operazioni di data center: AI Ops evolverà per diventare un tool di convalida per le attività CI (Continuous Integration) e CD (Continuous Deployment) delle funzioni IT base presenti nella struttura di un data center moderno
HPE prevede di dimostrare ulteriori funzionalità in futuro con l’ampliamento del sistema HPE High Performance Cluster Management (HPCM) in maniera tale da poter effettuare tutte le procedure di provisioning, gestione e monitoraggio di cluster scalabili fino a 100.000 nodi a velocità superiori. Altri test previsti comprendono l’esplorazione dell’integrazione di HPE InfoSight, un tool di gestione AI-driven basato su cloud che monitora, raccoglie e analizza dati relativi all’infrastruttura IT. HPE InfoSight viene adoperato per prevedere e prevenire probabili eventi mantenendo lo stato di salute complessivo delle prestazioni di un server.