Microsoft al lavoro sullo sviluppo dei propri chip per l’IA
Secondo quanto riportato da The Information, Microsoft starebbe lavorando già dal 2019 a un chip per l’intelligenza artificiale con nome in codice Athena, che potrebbe essere reso disponibile per l’uso all’interno dell’azienda stessa e di OpenAI già dal prossimo anno. Il chip è progettato per gestire l’addestramento di modelli linguistici di grandi dimensioni (LLM) ed è considerato una risposta alla crescente esigenza degli hyperscaler di sviluppare il proprio processore personalizzato.
Lo sviluppo di chip IA personalizzati da parte degli hyperscaler è considerato una risposta alla crisi delle GPU. Secondo John Peddie Research, Nvidia è il leader del mercato per quanto riguarda la fornitura di chip IA con una quota di mercato di circa l’88%. Le aziende si contendono l’accesso alle GPU Nvidia di fascia alta A100 e H100 che costano decine di migliaia di dollari l’una, provocando quella che potrebbe essere definita una crisi delle GPU.
Lo sviluppo di chip per l’intelligenza artificiale è essenziale perché la scala dei modelli generativi avanzati sta crescendo più rapidamente delle capacità di calcolo necessarie per addestrarli, secondo l’analista di Gartner Chirag Dekate. Il chip di Microsoft, come quelli sviluppati internamente da Google (TPU) e Amazon (architetture di processori Trainium e Inferentia), è progettato per gestire l’addestramento di modelli linguistici di grandi dimensioni (LLM), elemento essenziale nell’attuale panorama dell’IA generativa.
La necessità di accelerazione si applica anche ai chip IA che supportano l’inferenza del machine learning, ovvero quando un modello viene ridotto a una serie di pesi che poi utilizzano i dati in tempo reale per produrre risultati utilizzabili. L’infrastruttura di calcolo viene utilizzata per l’inferenza ogni volta che ChatGPT genera risposte a input in linguaggio naturale, ad esempio. Nvidia produce chip IA molto potenti e generici e offre la sua piattaforma di calcolo parallelo CUDA come metodo specifico per l’addestramento ML.
Tuttavia, gli hyperscaler vedono un modo per incidere anche sulle esigenze di inferenza dei loro clienti con un chip personalizzato. L’analista Jack Gold di J Gold Associates ha spiegato che l’inferenza sarà un mercato molto più grande di quello del ML, quindi è importante che tutti i fornitori offrano prodotti in questo ambito.
Nonostante la crescente tendenza a sviluppare chip IA personalizzati, gli esperti suggeriscono che Nvidia non sarà minacciata da queste mosse. Gold ha dichiarato di non vedere Athena come una minaccia per la supremazia di Nvidia nel settore dell’IA/ML, dove domina incontrastata da quando ha contribuito alla “rivoluzione” del deep learning di un decennio fa. Tuttavia, la tendenza è quella di fornire opzioni a basso costo per clienti diversi e di ridurre i costi operativi del cloud.