Le nuove CPU Raptor Lake di Intel si spingeranno fino a 6 GHz

raptor lake
Intel ha affermato che le sue prossime CPU desktop della famiglia Raptor Lake di 13a generazione raggiungeranno i 6 GHz. Ecco perché è un traguardo importante.

Intel ha affermato che le sue prossime CPU desktop Raptor Lake di 13a generazione raggiungeranno i 6 GHz. Questo boost di velocità è stato rivelato in un evento stampa presso il famoso centro di progettazione Intel di Haifa (Israele) e anche se gran parte del briefing dell’evento è sotto embargo in vista del lancio delle CPU entro la fine dell’anno, i funzionari di Intel hanno confermato alcune caratteristiche salienti dei nuovi processori che sono state raccolte da Paul Alcorn di Tom’s Hardware. Alcorn riferisce che i Raptor Lake di 13a generazione porteranno a un incremento del 15% nelle prestazioni a thread singolo e del 41% nelle prestazioni multi-thread utilizzando la suite di test SPECintrate_2017.

Perché i 6GHz sono importanti

La notizia del clock a 6 GHz degli Intel Raptor Lake arriva due settimane dopo l’annuncio di AMD relativo ai suoi nuovi chip Ryzen 7000 capaci di arrivare fino a 5,7 GHz. Mentre entrambe le CPU operano essenzialmente su scale diverse a causa dei limiti di potenza e termici, nonché dei design dei core interni, le velocità di clock influenzano ancora in gran parte i consumatori. E anche se c’è solo una differenza del 5,7% tra il miglior Ryzen 7000 di AMD e il miglior chip di 13a generazione di Intel, vedere una cifra tonda come 6 GHz sarà più importante per i consumatori. Intel ha anche mostrato un overclock delle nuove CPU con azoto liquido grazie al quale si sono toccati gli 8GHz, ma si tratta di un risultato molto meno significativo per gli utenti consumer.

raptor lake

Sebbene Intel punterà sicuramente molto in fase di marketing sui 6 GHz, non è ancora chiaro se questo risultato sarà limitato a una versione speciale del chip. Chip che, secondo alcuni osservatori, rappresenta per Intel una sorta di piano di emergenza. Raptor Lake, il cui sviluppo è cominciato due anni fa, esisterebbe in pratica solo perché Meteor Lake non sarebbe stato pronto in tempo. Meteor Lake è la famiglia di CPU di prossima generazione di Intel che segnerà per il colosso americano l’abbandono dei chip “monolitici” a favore di un design multi-chip simile ai Lego. Inutile dire che Meteor Lake rappresenta un importantissimo cambiamento per Intel quando sbarcherà sul mercato nel corso del prossimo anno.

E un cambiamento così grande è probabilmente il motivo per cui la società ha deciso che avrebbe avuto bisogno di un piano di emergenza nel caso in cui lo sviluppo di Meteor Lake sarebbe dovuto andare incontro a ritardi. I processori Raptor Lake saranno in gran parte compatibili con l’attuale infrastruttura delle schede madri per le CPU Alder Lake 600 di 12esima generazione e, come già accennato, la oro uscita è prevista entro la fine di quest’anno, mentre le vendite degli AMD Ryzen 7000 partiranno il 27 settembre.

Aziende:
Intel
Condividi:
 

Cos’è il Compute Express Link e perché dovrebbe interessarvi?

Compute Express Link
Compute Express Link può condividere elaborazione e memoria tra componenti e dispositivi, portando potenzialmente a un uso più efficiente delle risorse del data center.

Se acquisterete un server nei prossimi mesi con al suo interno i processori Intel Xeon Scalable della famiglia Sapphire Rapids o i processori AMD Epyc della famiglia Genoa, avrete a disposizione forniti una nuova e importante funzione chiamata Compute Express Link (CXL), uno standard di interconnessione aperto che potreste trovare molto utile, soprattutto nelle iterazioni future.

CXL è supportato praticamente da tutti i fornitori di hardware ed è basato su PCI Express per un accesso coerente alla memoria tra una CPU e un dispositivo, come un acceleratore hardware o una CPU e memoria. PCIe è pensato per comunicazioni point-to-point, ma CXL supporterà la comunicazione one-to-many trasmettendo su protocolli coerenti. Finora, Compute Express Link è in grado di effettuare solo semplici comunicazioni punto-punto.

CXL è attualmente nella sua versione 1.1 e sono state annunciate le specifiche 2.0 e 3.0. Poiché CXL è fortemente legato a PCIe, le nuove versioni di CXL dipendono dalle nuove versioni di PCIe. C’è un divario di circa due anni tra le versioni di PCIe e quindi un divario ancora più lungo tra il rilascio di una nuova specifica e i prodotti che arrivano sul mercato. In questo momento i dispositivi CXL 1.1 e 2.0 sono ancora in fase di testing.

Protocolli CXL

Esistono tre protocolli supportati dal Compute Express Link:

  • CXL.io: una versione avanzata di un protocollo PCIe 5.0 per l’inizializzazione, il rilevamento del dispositivo e la connessione al dispositivo.
  • CXL.cache: questo protocollo definisce le interazioni tra un host e un dispositivo, consentendo ai dispositivi CXL collegati di memorizzare nella cache in modo efficiente la memoria host con una latenza estremamente bassa utilizzando un approccio di richiesta e risposta.
  • CXL.mem: fornisce a un processore host l’accesso alla memoria di un dispositivo collegato, coprendo le architetture di memoria volatile e persistente.

CXL.mem è il più importante, a partire da CXL 1.1. Se un server necessita di più RAM, un modulo di memoria CXL in uno slot PCIe 5.0 vuoto può fornirla. Avrete prestazioni leggermente inferiori e una piccola latenza aggiuntiva, ma il compromesso è che fornisce più memoria in un server senza doverla acquistare (ovviamente dovrete acquistare il modulo CXL).

strategia dati

CXL 2.0 supporta il pool di memoria, che utilizza la memoria di più sistemi anziché uno solo. Microsoft ha affermato che circa il 50% di tutte le macchine virtuali non raggiunge mai il 50% della memoria noleggiata. CXL 2.0 potrebbe trovare quella memoria e metterla in uso. Sempre secondo Microsoft la disaggregazione tramite CXL può ottenere una riduzione del 9-10% del fabbisogno complessivo di DRAM.

Alla fine, CXL dovrebbe essere un’interfaccia coerente con la cache onnicomprensiva per il collegamento di un numero qualsiasi di CPU, memoria, acceleratori di processo (in particolare FPGA e GPU) e altre periferiche. Le specifiche per CXL 3.0, annunciate la scorsa settimana al Flash Memory Summit (FMS), porta questa disaggregazione a un livello ulteriore, consentendo ad altre parti dell’architettura (processori, storage, rete e altri acceleratori) di essere raggruppate e gestite dinamicamente da più host e acceleratori proprio come la memoria in CXL 2.0.

La specifica 3.0 prevede anche comunicazioni peer-to-peer dirette su uno switch o anche su switch fabric; in questo modo due GPU potrebbero teoricamente parlare tra loro senza utilizzare la rete o coinvolgere la CPU e la memoria host. Kurt Lender, co-presidente del gruppo di lavoro sul marketing di CXL e senior manager degli ecosistemi di Intel, ha dichiarato: “CXL sarà praticamente ovunque e non parlo solo dei team IT. Questa diventerà una caratteristica standard in ogni nuovo server nei prossimi anni”.

Quindi, in che modo questa applicazione verrà eseguita nei data center aziendali? Lender afferma che la maggior parte delle applicazioni non deve essere modificata perché CXL opera a livello di sistema, ma otterrà comunque i vantaggi della funzionalità CXL. Ad esempio, i database in-memory potrebbero trarre vantaggio dal pool di memoria.

Il raggruppamento dei componenti potrebbe inoltre aiutare a fornire le risorse necessarie per l’IA. Con CPU, GPU, FPGA e porte di rete raggruppate, interi data center potranno comportarsi come un unico sistema. Non guardiamo però troppo in là. Stiamo ancora aspettando i primi prodotti CXL 2.0, anche se le recenti demo viste al FMS indicano che manca ancora poco.

Aziende:
Intel
Condividi: