La nuova strategia di AMD per i data center e l’intelligenza artificiale

amd epyc
AMD ha annunciato la strategia per i data center e l'intelligenza artificiale, presentando nuovi prodotti che plasmeranno il “future of compute”.

In occasione della Data Center and AI Technology Premiere, AMD ha annunciato l’aggiunta di due nuovi processori, ottimizzati per i carichi di lavoro, alla gamma di CPU EPYC di quarta generazione. Sfruttando la nuova architettura di core Zen 4c, le CPU per data center AMD EPYC 97X4 ottimizzate per il cloud estendono ulteriormente la serie di processori EPYC 9004. Inoltre, AMD ha annunciato i processori AMD EPYC di quarta generazione con tecnologia AMD 3D V-Cache, ideali per i carichi di lavoro tecnici più esigenti. “In un’era di calcolo ottimizzato per i carichi di lavoro, le nostre nuove CPU stanno spingendo i confini di ciò che è possibile fare nei data center, offrendo nuovi livelli di prestazioni, efficienza e scalabilità” ha dichiarato Forrest Norrod, vicepresidente esecutivo e direttore generale del Data Center Solutions Business Group di AMD.

I carichi di lavoro nativi del cloud sono una classe di applicazioni in rapida crescita progettate con un’architettura cloud e vengono sviluppati, distribuiti e aggiornati rapidamente. I processori AMD EPYC 97X4 con un massimo di 128 core offrono prestazioni di throughput fino a 3,7 volte superiori per i principali carichi di lavoro cloud native rispetto ad Ampere. Inoltre, i processori AMD EPYC di quarta generazione con core Zen 4c offrono ai clienti un’efficienza energetica fino a 2,7 volte superiore e supportano un numero di container per server fino a 3 volte superiore per realizzare applicazioni cloud native su larga scala.

I processori AMD EPYC di quarta generazione con tecnologia AMD 3D V-Cache ampliano ulteriormente la serie di processori AMD EPYC 9004 per offrire la migliore CPU x86 al mondo per i carichi di lavoro di calcolo tecnico, come la fluidodinamica computazionale (CFD), l’analisi agli elementi finiti (FEA), l’automazione della progettazione elettronica (EDA) e l’analisi strutturale. Con un massimo di 96 core Zen 4 e una cache L3 da oltre 1 GB, i processori AMD di quarta generazione con AMD 3D V-Cache possono accelerare in modo significativo lo sviluppo dei prodotti, fornendo fino al doppio dei lavori di progettazione al giorno in Ansys CFX.

Sul palco della Data Center and AI Technology Premiere, Microsoft ha inoltre annunciato la disponibilità generale delle istanze Azure HBv4 e HX alimentate da processori AMD EPYC di quarta generazione con AMD 3D V-Cache. Ottimizzate per le applicazioni HPC più esigenti, le nuove istanze offrono un aumento delle prestazioni fino a 5 volte rispetto alla precedente generazione di istanze HBv3 e scalano fino a centinaia di migliaia di core CPU. L’intera gamma di processori AMD EPYC di quarta generazione è disponibile da oggi ed è compatibile per caratteristiche e socket con i sistemi basati sulle CPU della serie AMD EPYC 9004.

Le nuove CPU per data center AMD EPYC 97X4

Le nuove CPU per data center AMD EPYC 97X4

C’è poi stato spazio per una serie di annunci che illustrano la strategia AI Platform dell’azienda, che offre ai clienti un portafoglio di prodotti hardware dal cloud, all’edge e all’endpoint, con una profonda collaborazione software con il settore per sviluppare soluzioni IA scalabili e pervasive.

Gli annunci hanno riguardato la famiglia di acceleratori AMD Instinct MI300 Series tra cui l’acceleratore AMD Instinct MI300X, il più avanzato al mondo per l’IA generativa. Si basa sull’architettura di nuova generazione AMD CDNA 3 e supporta fino a 192 GB di memoria HBM3 per fornire l’efficienza di calcolo e di memoria necessaria per l’addestramento e l’inferenza di modelli linguistici di grandi dimensioni e per i carichi di lavoro dell’intelligenza artificiale generativa. Grazie all’ampia memoria di AMD Instinct MI300X, i clienti possono possono ora adattare modelli linguistici di grandi dimensioni come Falcon-40 su un singolo acceleratore MI300X5.

AMD ha presentato inoltre l’ecosistema software ROCm per gli acceleratori di data center, evidenziando la disponibilità e le collaborazioni con i leader del settore per creare un ecosistema software IA aperto. PyTorch ha parlato del lavoro svolto da AMD e dalla PyTorch Foundation per rendere completamente upstream lo stack software ROCm, fornendo un supporto immediato “day zero” con la release 5.4.2 di ROCm su tutti gli acceleratori AMD Instinct.

Questa integrazione consente agli sviluppatori di disporre di un’ampia gamma di modelli di intelligenza artificiale basati su PyTorch che sono compatibili e pronti all’uso “out of the box” sugli acceleratori AMD. Hugging Face, la principale piattaforma aperta per i costruttori di IA, ha infine annunciato che ottimizzerà migliaia di modelli Hugging Face sulle piattaforme AMD, dagli acceleratori AMD Instinct a processori AMD Ryzen e AMD EPYC, GPU AMD Radeon e processori adattivi Alveo.

Aziende:
AMD
Condividi:
 

Intel PowerVia sarà una vera rivoluzione per la costruzione dei chip?

Intel PowerVia
Un chip di prova ha mostrata la capacità di Intel PowerVia di fornire oltre il 90% di utilizzo delle celle, di superare i colli di bottiglia nelle interconnessioni e di offrire vantaggi competitivi al mercato, inclusi i clienti delle fonderie.

Intel è la prima azienda del settore a implementare con la tecnologia PowerVia l’alimentazione dalla parte posteriore di un chip di prova con le stesse caratteristiche del prodotto finito, ottenendo un livello di prestazioni tale da rivoluzionare profondamente la costruzione dei chip. PowerVia, che sarà inserito sul nodo di processo Intel 20A nella prima metà del 2024, punta a risolvere il crescente problema dei colli di bottiglia all’interconnessione dell’area scaling, spostando il percorso dell’alimentazione alla parte posteriore del wafer.

“PowerVia è un’importante pietra miliare nella nostra ambiziosa strategia ‘cinque nodi in quattro anni’ e nel nostro percorso per ottenere mille miliardi di transistor (one trillion) in un pacchetto nel 2030. Utilizzando un nodo di processo sperimentale e un successivo chip di prova, siamo riusciti a eliminare i rischi connessi all’alimentazione dalla parte posteriore per i nostri nodi di processo, assicurando che Intel sia in vantaggio di un nodo rispetto alla concorrenza nel portare questa tecnologia sul mercato” ha dichiarato Ben Sell, Intel Vice President of Technology Development.

Intel ha disaccoppiato lo sviluppo di PowerVia da quello dei transistor per assicurare che fosse pronto per l’implementazione su silicio basata sui nodi di processo Intel 20A e Intel 18A. PowerVia è stato collaudato sul suo stesso nodo di test interno per eseguire il debug e garantire una buona funzionalità della tecnologia prima della sua integrazione in Intel 20A con RibbonFET. Dopo la fabbricazione e il test su un chip di prova in silicio, è stato confermato che PowerVia offre un utilizzo altamente efficiente delle risorse del chip (più del 90% delle celle) e un’importante scalabilità dei transistor, consentendo ai progettisti di ottenere maggiori prestazioni ed efficienza nei loro prodotti.

Intel PowerVia

Ma perché è così importante? PowerVia è molto più avanti rispetto alle soluzioni di alimentazione dalla parte posteriore della concorrenza, offrendo ai progettisti di chip, inclusi i clienti di Intel Foundry Services (IFS), un percorso più rapido verso importanti guadagni in termini di consumi e prestazioni nei loro prodotti. PowerVia, inoltre, risolve il problema dei colli di bottiglia nelle interconnessioni. Un numero sempre crescente di casi d’uso, tra cui l’intelligenza artificiale e la grafica, richiede transistor più piccoli, più densi e più potenti per soddisfare le esigenze di calcolo a essi associate.

Da decenni, ormai, le linee di alimentazione e di segnale all’interno dell’architettura di un transistor utilizzano le stesse risorse a scapito uno dell’altra. Separando i due, i chip possono aumentare prestazioni ed efficienza energetica e fornire risultati migliori. L’alimentazione dalla parte posteriore, a cui stanno lavorando anche TSMC e Samsung, è di vitale importanza per ridurre le dimensioni dei transistor, consentendo ai progettisti di aumentare la densità dei transistor senza sacrificare risorse per fornire più potenza e prestazioni.

Intel 20A e Intel 18A introdurranno sia la tecnologia di alimentazione dalla parte posteriore PowerVia, sia la tecnologia Gate-all-around RibbonFET. Trattandosi di un modo completamente nuovo di fornire energia ai transistor, l’implementazione dell’alimentazione dal retro ha sollevato nuove sfide per lo smaltimento del calore.

8faa75_PowerVia_Technical_Deck_04

Disaccoppiando lo sviluppo di PowerVia da RibbonFET, Intel è stata in grado affrontare queste sfide e i suoi ingegneri hanno sviluppato tecniche di mitigazione per evitare problemi di surriscaldamento. La comunità di debug ha inoltre sviluppato tecniche per garantire che la nuova struttura di progettazione potesse essere opportunamente sottoposta a debug. Di conseguenza, l’implementazione del test ha fornito validi parametri di rendimento e affidabilità, dimostrando al contempo il valore intrinseco della tecnologia ben prima che si unisca alla nuova architettura RibbonFET.

Il test ha inoltre fatto uso della progettazione consentita dalla litografia EUV (Extreme Ultraviolet), che ha permesso un utilizzo delle celle standard superiore al 90% su ampie aree del die, con una maggiore densità cellulare che si dovrebbe tradurre in una riduzione dei costi. Il test ha anche mostrato un miglioramento di oltre il 30% nella caduta di tensione della piattaforma e un vantaggio del 6% nella frequenza. Intel ha anche ottenuto caratteristiche termiche nel chip di test PowerVia in linea con le maggiori potenze previste dallo scaling logico.

Aziende:
Intel
Condividi: