Intel, Google, Microsoft, Meta, AMD, HPE, Broadcom e Cisco stanno dando vita all’Ultra Accelerator Link (UALink) Promoter Group, un nuovo gruppo industriale per guidare lo sviluppo dei componenti che collegano tra loro i chip acceleratori di IA nei data center, ovvero i chip che vanno dalle GPU alle soluzioni progettate su misura per accelerare l’addestramento, la messa a punto e l’esecuzione dei modelli di intelligenza artificiale.

“Il settore ha bisogno di uno standard aperto che possa essere portato avanti molto rapidamente, che consenta all’innovazione di procedere senza essere ostacolata da una singola azienda e che permetta a più aziende di aggiungere valore all’ecosistema complessivo ha dichiarato Forrest Norrod, GM di AMD per le soluzioni per i data center. La prima versione dello standard proposto (UALink 1.0) collegherà fino a 1024 acceleratori di intelligenza artificiale (solo GPU) in un singolo “pod” di elaborazione, mentre i primi prodotti UALink saranno lanciati nei prossimi due anni.

Il gruppo ha inoltre dichiarato che nel terzo trimestre creerà l’UALink Consortium per supervisionare lo sviluppo delle specifiche UALink in futuro. UALink 1.0 sarà disponibile per le aziende che aderiscono al consorzio, mentre l’aggiornamento delle specifiche con una maggiore larghezza di banda (UALink 1.1) è previsto per il quarto trimestre del 2024.

data center

Come è facile notare, dall’elenco dei membri del gruppo è assente Nvidia, che al momento vanta una quota stimata tra l’80 e il 95% del mercato globale degli acceleratori IA e che evidentemente, da questa posizione di quasi monopolio, non vede di buon occhio l’UALink. Anche perché, utilizzando la propria tecnologia di interconnessione proprietaria per collegare le GPU all’interno dei data center, Nvidia non è troppo entusiasta di supportare una specifica basata su tecnologie rivali.

Nell’elenco manca anche AWS, che, come fa notare TechCrunch, è attualmente impegnata nello sviluppo dei suoi acceleratori hardware interni e potrebbe ritenere non molto strategico opporsi a Nvidia, che fornisce gran parte delle GPU ai clienti.

Fatto sta che, come riportato recentemente da Gartner, il valore degli acceleratori di IA utilizzati nei server è stimato a 21 miliardi di dollari quest’anno e a 33 miliardi di dollari entro il 2028 e non deve nemmeno stupire che Google disponga di chip personalizzati per l’addestramento e l’esecuzione di modelli di IA, che Amazon abbia diverse famiglie di chip IA e che lo scorso anno Microsoft si sia buttata nella mischia con Maia e Cobalt.