In occasione dell’Intel Architecture Day, top executive, ingegneri ed esperti Intel di alto profilo hanno mostrato tecnologie di prossima generazione e discusso i progressi di una strategia per potenziare l’universo in espansione dei carichi di lavoro ad uso intensivo di dati per PC e altri dispositivi consumer intelligenti, reti ad alta velocità, intelligenza artificiale pervasiva, data center specializzati per il cloud e veicoli autonomi.

Intel ha mostrato una gamma di sistemi attualmente in fase di sviluppo basati su tecnologia a 10 nm per PC, data center e networking, e ha presentato in anteprima altre tecnologie progettate per maggiori tipologie di carichi di lavoro. L’azienda ha inoltre condiviso la sua strategia tecnica focalizzata su sei segmenti di engineering in cui vengono effettuati investimenti e innovazioni significativi per ottenere notevoli progressi nelle tecnologie e nelle esperienze dell’utente.

Tali segmenti comprendono processi di produzione e packaging avanzati, nuove architetture per accelerare attività specializzate come l’intelligenza artificiale e la grafica, memoria ultra veloce, interconnessioni, funzioni di sicurezza integrate e software comune per unificare e semplificare la programmazione da parte degli sviluppatori in tutti i prodotti Intel per il computing.

Queste le novità principali emerse dall’Architecture Day di Intel.

Il primo stacking 3D di chip logici del settore

Intel ha presentato una nuova tecnologia di packaging 3D, denominata Foveros, che per la prima volta offre i vantaggi dello stacking 3D per consentire integrazione logic-on-logic. Foveros apre di fatto la strada a dispositivi e sistemi che combinano tecnologie di processo del silicio ad elevate prestazioni, alta densità e basso consumo. Foveros è destinata ad estendere lo stacking dei die oltre i tradizionali interposer passivi e memoria sovrapposta alla logica ad elevate prestazioni, come CPU, grafica e – per la prima volta – processori per l’intelligenza artificiale.

Questa tecnologia offre un’enorme flessibilità man mano che i progettisti desiderano combinare blocchi IP di tecnologia con vari elementi di memoria e I/O nei nuovi formati dei dispositivi. Questo consentirà di suddividere i prodotti in “chiplet” più piccoli, in cui i circuiti di I/O, SRAM e alimentazione possono essere realizzati in un die di base su cui vengono impilati chiplet logici ad elevate prestazioni.

Intel prevede di lanciare una gamma di prodotti che utilizza Foveros a partire dalla seconda metà del 2019. Il primo prodotto Foveros combinerà un chiplet compute-stacked a 10 nm ad elevate prestazioni con un die di base 22FFL a basso consumo. Consentirà la combinazione di prestazioni avanzate ed efficienza energetica in una dimensione ridotta.

Nuova architettura di CPU Sunny Cove

Intel ha introdotto Sunny Cove, la microarchitettura di prossima generazione di Intel per CPU progettata per incrementare le prestazioni per clock e l’efficienza energetica per attività di elaborazione generica, che include nuove funzionalità per accelerare attività di elaborazione specializzate come l’intelligenza artificiale e la crittografia. Sunny Cove costituirà le fondamenta dei processori Intel di prossima generazione per server (Intel Xeon) e client (Intel Core) più avanti nel corso del prossimo anno.

Le caratteristiche di Sunny Cove includono una microarchitettura migliorata per eseguire più operazioni in parallelo, nuovi algoritmi per ridurre la latenza, aumento delle dimensioni dei buffer e delle cache principali per ottimizzare i carichi di lavoro basati sui dati ed estensioni dell’architettura per casi d’uso e algoritmi specifici. Ad esempio, nuove istruzioni per incrementare le prestazioni di crittografia, come AES e SHA-NI, e altri casi di utilizzo critico come compressione e decompressione. Sunny Cove consente anche una latenza ridotta e un throughput elevato, oltre a offrire un parallelismo molto più ampio destinato a migliorare le esperienze dal gaming ai contenuti multimediali e alle applicazioni basate sui dati.

intel-cpu-core-roadmap-sunny-cove-willow-cove-golden-cove-10831.768x432

Grafica di prossima generazione

Intel ha presentato la nuova grafica integrata di undicesima generazione con 64 unità di esecuzione migliorate, più del doppio rispetto alla precedente grafica Intel di nona generazione (24 unità di esecuzione), progettata per superare la barriera di 1 TFLOPS. La nuova grafica integrata sarà inclusa in processori basati su tecnologia a 10 nm a partire dal 2019.

In base alle aspettative, la nuova architettura grafica integrata offrirà il doppio delle prestazioni di elaborazione per clock rispetto alla grafica Intel di nona generazione. Questa architettura ha capacità prestazionali superiori a 1 TFLOPS ed è progettata per incrementare la giocabilità dei videogame. Durante l’evento, Intel ha dimostrato che la grafica di undicesima generazione può quasi raddoppiare le prestazioni di un’applicazione diffusa di riconoscimento delle foto rispetto alla grafica Intel di nona generazione.

La grafica di undicesima generazione dovrebbe anche includere un codificatore/decodificatore multimediale avanzato, supporto di flussi video 4K e creazione di contenuti 8K con consumo energetico limitato. L’undicesima generazione sarà inoltre dotata di tecnologia Intel Adaptive Sync, che consente frame rate più fluidi per il gaming. Intel ha inoltre ribadito l’intenzione di introdurre un processore grafico dedicato entro il 2020.

Software One API

Intel ha annunciato il progetto One API per semplificare la programmazione di diversi motori di elaborazione per CPU, GPU, FPGA, AI e altri acceleratori. Il progetto include un portafoglio completo e unificato di strumenti per sviluppatori per mappare il software all’hardware maggiormente in grado di accelerare il codice. Il lancio pubblico di questo progetto è previsto per il 2019.

intel-optane

Memoria e storage

Intel ha discusso di aggiornamenti di Optane e dei prodotti basati su questa tecnologia. La memoria persistente Intel Optane DC è un nuovo prodotto che combina prestazioni simili alla memoria con la persistenza dei dati e un’ampia capacità di storage. Questa tecnologia rivoluzionaria avvicina una maggiore quantità di dati alla CPU per un’elaborazione più rapida di set di dati più grandi, come quelli utilizzati nell’intelligenza artificiale e nei database di grandi dimensioni.

L’elevata capacità e la persistenza dei dati riducono la necessità di effettuare lunghi percorsi verso lo storage, il che può migliorare le prestazioni dei carichi di lavoro. La memoria persistente Intel Optane DC fornisce letture (64B) della cache line alla CPU. In media, la latenza media di lettura con la memoria persistente Optane è prevista attorno ai 350 nanosecondi quando le applicazioni indirizzano l’operazione di lettura alla memoria persistente Optane, o quando i dati richiesti non sono memorizzati nella DRAM.

A titolo di confronto, un’unità SSD Optane DC ha una latenza media di lettura idle di circa 10.000 nanosecondi (10 microsecondi). Nei casi in cui i dati richiesti si trovano nella DRAM, memorizzati nella cache dal controller di memoria della CPU o indirizzati dall’applicazione, la reattività del sottosistema di memoria dovrebbe essere identica alla DRAM (<100 nanosecondi).

L’azienda ha anche mostrato come unità SSD Intel basate su die NAND QLC Intel da 1 terabit siano in grado di trasferire una maggiore quantità di dati da HDD a SSD, consentendo un accesso più rapido a tali dati. La combinazione di SSD Intel Optane con SSD NAND QLC consentirà un accesso con una latenza inferiore ai dati utilizzati più frequentemente. Nel complesso, questi progressi di piattaforma e di memoria completano la gerarchia di memoria e storage fornendo il giusto mix di scelte per sistemi e applicazioni.

Stack di riferimento per il deep learning

Intel sta lanciando il Deep Learning Reference Stack, uno stack open source integrato e ad elevate prestazioni ottimizzato per le piattaforme scalabili Intel Xeon. Questo rilascio alla comunità open source fa parte dell’impegno di Intel per assicurare che gli sviluppatori di intelligenza artificiale abbiano facile accesso a tutte le caratteristiche e le funzionalità delle piattaforme Intel.

Lo stack di riferimento per il deep learning è altamente ottimizzato e realizzato per ambienti cloud nativi. Con questa release, Intel consente agli sviluppatori di creare rapidamente prototipi riducendo la complessità associata all’integrazione di molteplici componenti software, continuando ad offrire agli utenti la flessibilità necessaria per personalizzare le loro soluzioni.