I consumi dei data center raddoppieranno nel 2028, ma in parte è colpa dei sistemisti

hpe sistemi ia
IDC stima che il consumo elettrico globale dei datacenter raddoppierà tra il 2023 e il 2028, ma per fortuna i modi per ridurre questi consumi non mancano.

I data center sono il cuore dell’economia digitale e la loro domanda è destinata ad aumentare notevolmente, rendendoli un obiettivo primario per crescita e investimenti. Tuttavia, i costi operativi stanno crescendo a causa dell’aumento dei prezzi dell’elettricità e del maggiore consumo energetico.

Un nuovo report di IDC esamina la spesa elettrica dei datacenter e le implicazioni per fornitori di tecnologia e operatori. L’elettricità rappresenta la maggiore spesa corrente, costituendo il 46% dei costi totali per i datacenter aziendali e il 60% per quelli dei fornitori di servizi. Il consumo energetico sta crescendo rapidamente con l’aumento dei carichi di lavoro, specialmente quelli ad alta intensità energetica come l’intelligenza artificiale.

IDC prevede che la domanda di workload legata all’IA porterà a un significativo aumento della capacità dei datacenter, del consumo energetico e delle emissioni di carbonio. La capacità dei datacenter IA dovrebbe crescere con un tasso annuo composto (CAGR) del 40,5% fino al 2027, mentre il consumo energetico IA aumenterà con un CAGR del 44,7%, raggiungendo 146,2 Terawattora (TWh) entro il 2027.

Complessivamente, IDC stima che il consumo elettrico globale dei datacenter raddoppierà tra il 2023 e il 2028 con un CAGR quinquennale del 19,5%, raggiungendo 857 TWh nel 2028. Per comprendere meglio l’impatto dei costi energetici crescenti, IDC ha condotto una pianificazione di scenari per un datacenter con 1 MW di carico IT nel 2023.

data center persone dwi ida borse studio

Lo studio ha esaminato tre scenari di crescita dei prezzi energetici, utilizzando dati di Stati Uniti, Germania e Giappone. In tutti gli scenari, la crescita percentuale della spesa elettrica supera un CAGR del 15%, con la maggior parte degli scenari che mostra una crescita oltre il 20%.

Lo studio evidenzia anche che un ulteriore 10% di efficienza energetica può offrire notevoli risparmi agli operatori. Esistono numerose opzioni per aumentare l’efficienza, dalle soluzioni tecnologiche come chip più efficienti e raffreddamento liquido, alla riprogettazione dei data center e dei metodi di distribuzione dell’energia.

Gli esperti sottolineano anche l’importanza di investire in fonti di energia rinnovabile come solare ed eolico, che offrono vantaggi ambientali e un minor costo dell’elettricità. Collocare le strutture vicino alle fonti di generazione rinnovabile può inoltre ridurre i costi di costruzione e le perdite energetiche, migliorando efficienza, sostenibilità e resilienza.

Questione di processori

Si sta poi facendo largo un altro modo per ridurre i consumi energetici dei data center. Secondo l‘analista Daniel Bizo dell’Uptime Institute Intelligence, abilitare i governor a livello di sistema operativo e i profili di alimentazione potrebbe portare a una riduzione del consumo energetico dal 25% al 50%. Inoltre, l’attivazione degli stati C dei processori dei server potrebbe portare a una riduzione di quasi il 20% del consumo energetico in idle.

Il problema è che queste funzionalità sono disabilitate di default sulla maggior parte delle piattaforme server attuali e la loro attivazione è spesso associata a instabilità delle prestazioni e latenza aggiuntiva. Questo perché la transizione da uno stato a basse prestazioni a uno a piena potenza richiede tempo, il che può influire negativamente sulle prestazioni osservate per alcuni carichi di lavoro.

Tuttavia, Bizo sostiene che, al di fuori di pochi carichi di lavoro sensibili alla latenza, l’abilitazione di queste funzioni avrà un impatto trascurabile sulle prestazioni, offrendo al contempo una sostanziale riduzione del consumo energetico. L’argomentazione dell’analista si basa sulla convinzione che i chip moderni siano in grado di fornire prestazioni molto superiori a quelle necessarie per mantenere una qualità del servizio accettabile. Spesso, le risposte ultraveloci alle query non portano un valore aggiunto significativo se i tempi di risposta sono già entro i limiti di tolleranza.

consumi data center

Citando dati di benchmark pubblicati da Standard Performance Evaluation Corp e The Green Grid, Bizo riporta che i server moderni raggiungono generalmente la migliore efficienza energetica quando le loro prestazioni sono limitate a uno stato come P2. Inoltre, la curva di consumo energetico dei semiconduttori diventa più ripida man mano che il chip si avvicina al limite massimo delle sue prestazioni. In altre parole, c’è spesso un punto di rendimenti decrescenti, oltre il quale si consuma più energia per guadagni minimi.

La buona notizia è che i produttori di CPU hanno sviluppato numerose tecniche per gestire potenza e prestazioni nel corso degli anni. Secondo Bizo, questi controlli possono avere un impatto significativo sul consumo energetico del sistema senza necessariamente limitare le prestazioni di picco del chip. I controlli basati su software sono considerati i più efficienti dal punto di vista energetico, con potenziali riduzioni del consumo dal 25% al 50%. Tuttavia, questi controlli possono anche causare il maggiore impatto sulla latenza, rendendoli potenzialmente poco pratici per lavori sensibili alla latenza o con carichi di lavoro intermittenti.

Le implementazioni solo hardware, progettate per impostare target di prestazioni, tendono ad essere molto più veloci nel passare da uno stato all’altro, con un impatto minore sulla latenza. Il compromesso è che i risparmi energetici non sono altrettanto impressionanti, arrivando al massimo intorno al 10%. Una combinazione di software e hardware offre un’ideale via di mezzo, consentendo al software di fornire suggerimenti all’hardware sottostante su come rispondere alle mutevoli esigenze. Bizo cita risparmi di prestazioni tra il 15% e il 20% utilizzando funzionalità di gestione delle prestazioni di questo tipo.

Se quindi ci sono ancora implicazioni sulle prestazioni associate a questi strumenti, l’impatto effettivo potrebbe non essere così negativo come si potrebbe pensare. Bizo conclude dicendo che, per la maggior parte dei casi d’uso, la preoccupazione principale dovrebbe essere il consumo energetico, non le prestazioni.

Aziende:
IDC
Condividi:
 

Perché la IA non può fare a meno del liquid cooling e come implementarlo

Perché la IA non può fare a meno del liquid cooling e come implementarlo
La crescente domanda di intelligenza artificiale sta portando a un aumento del calore generato nei data center, rendendo necessario l'utilizzo del raffreddamento a liquido per mantenere prestazioni, sostenibilità e affidabilità ottimali.

Schneider Electric ha pubblicato lo studio Navigating Liquid Cooling Architectures for Data Centers with AI Workloads, che affronta le sfide di raffreddamento nei data center moderni, in particolare quelli che gestiscono carichi di lavoro IA ad alta densità. La crescente domanda di intelligenza artificiale sta infatti portando a un aumento del calore generato nei data center, rendendo necessario l’utilizzo del raffreddamento a liquido per mantenere prestazioni, sostenibilità e affidabilità ottimali.

Gli autori dello studio Paul Lin, Robert Bunger e Victor Avelar hanno identificato due categorie principali di raffreddamento a liquido per i server IA: il raffreddamento diretto su chip e quello a immersione. Descrivono inoltre i componenti e le funzioni di un’unità di distribuzione del liquido di raffreddamento (CDU), essenziale per la gestione di temperatura, flusso, pressione e scambio di calore nel sistema.

“I carichi di lavoro dell’intelligenza artificiale presentano sfide di raffreddamento uniche che il solo raffreddamento ad aria non è in grado di affrontare ha dichiarato Bunger, Innovation Product Owner, CTO Office, Data Center Segment, Schneider Electric. “Il nostro white paper mira a “demistificare” le architetture di raffreddamento a liquido, fornendo agli operatori dei data center le conoscenze necessarie per prendere decisioni informate quando ne pianificano l’implementazione. Il nostro obiettivo è fornire ai professionisti dei data center spunti pratici per ottimizzare i loro sistemi di raffreddamento. Comprendendo i compromessi e i vantaggi di ciascuna architettura, gli operatori possono migliorare le prestazioni e l’efficienza dei loro data center”.

raffreddamento a liquido

Il white paper descrive tre elementi chiave delle architetture di raffreddamento a liquido:

  • Recupero di calore all’interno del server: utilizzo di un mezzo liquido (ad es. olio dielettrico, acqua) per assorbire il calore dai componenti IT
  • Tipo di CDU: selezione della CDU appropriata in base ai metodi di scambio termico (liquido-aria, liquido-liquido) e ai fattori di forma (montaggio su rack, montaggio a pavimento)
  • Metodo di smaltimento del calore: determinazione del modo in cui trasferire efficacemente il calore all’esterno, sia attraverso i sistemi esistenti della struttura, sia attraverso soluzioni dedicate

Vengono inoltre descritte sei architetture di raffreddamento a liquido, rese possibili combinando diversi tipi di CDU e metodi di smaltimento del calore. Il documento fornisce quindi indicazioni sulla scelta dell’opzione migliore in base a fattori come l’infrastruttura esistente, le dimensioni dell’implementazione, la velocità e l’efficienza energetica.

Il white paper, che affronta infine le principali tendenze del settore, come la necessità di una maggiore efficienza energetica, la conformità alle normative ambientali e la sostenibilità, è particolarmente rilevante alla luce della recente collaborazione tra Schneider Electric e NVIDIA per ottimizzare l’infrastruttura dei data center per le applicazioni di intelligenza artificiale. Questa partnership ha portato alla creazione dei primi reference design pubblicamente disponibili per la progettazione di data center AI, integrando le tecnologie AI avanzate di NVIDIA con l’esperienza di Schneider Electric nell’infrastruttura di data center.

Condividi: