Le aziende interessate ad acquistare un Surface Pro o Laptop Copilot+ con i nuovi processori Intel Core Ultra dovranno sborsare almeno 400 dollari in più rispetto alle attuali versioni con processori Qualcomm Snapdragon X-Series compatibili con l’architettura Arm.

Dal 18 febbraio (e un po’ dopo per i modelli con anche connettività cellulare), Microsoft renderà infatti disponibili solo per i clienti business i suoi PC Copilot+ anche con processori Intel Core Ultra Series 2 basati su piattaforma x86. 

I nuovi Surface Laptop e Surface Pro con processori Intel partono da 1.499 dollari con una configurazione basata su Core Ultra 5 di seconda generazione, 16 GB di RAM, 256 GB di storage e un display da 13 pollici. Un elemento chiave è l’NPU integrata, capace di fornire tra i 40 e i 48 TOPS di potenza per le funzionalità IA in locale del pacchetto Copilot+ di Microsoft.

A confronto, gli attuali modelli Surface basati su SoC Qualcomm partono in Italia da 1299 euro con una configurazione simile, sebbene con un processore X-Plus a 10 core invece di quello Intel. I prezzi dei muovi modelli Intel, ovviamente, variano in base alla configurazione scelta. Ad esempio, un Surface Laptop con display da 15 pollici, Intel Core Ultra 7, 32 GB di RAM e un SSD da 1 TB raggiunge i 2.599 dollari.

Al momento di scrivere, non conosciamo i prezzi italiani e aggiorneremo la notizia non appena Microsoft li comunicherà.

Parallelamente a questo annuncio, Microsoft si sta muovendo anche su altri fronti per quanto riguarda l’IA. Grazie infatti alla disponibilità del modello DeepSeek R1 su Azure AI Foundry, arriveranno versioni ottimizzate di R1 per NPU sui Copilot+ PC, a partire da quelli con processori Qualcomm Snapdragon X seguiti dai nuovi modelli con Intel Core Ultra 200V.

Il primo rilascio sarà DeepSeek-R1-Distill-Qwen-1.5B, disponibile nell’AI Toolkit, con le versioni da 7B e 14B in arrivo. Questi modelli permettono di sviluppare applicazioni AI che operano in locale, sfruttando la potenza delle NPU per un’inferenza efficiente e continua. Le ottimizzazioni di DeepSeek includono la quantizzazione a basso bit rate, l’uso del formato ONNX QDQ per scalabilità e un’architettura ottimizzata tra CPU e NPU per massimizzare efficienza e velocità.

Gli sviluppatori possono provare DeepSeek scaricando l’AI Toolkit per Visual Studio Code e sperimentando con i modelli ottimizzati per Windows Copilot Runtime.