La startup cinese DeepSeek ha rilasciato DeepSeek-V3-0324, un nuovo LLM che sta rapidamente attirando l’attenzione per le sue capacità e il modo in cui viene distribuito. Pubblicato su Hugging Face senza alcun annuncio ufficiale, il modello da 641 GB si distingue per la sua licenza MIT, che ne consente l’uso commerciale gratuito, e per la possibilità di funzionare su hardware consumer come il Mac Studio con SoC M3 Ultra.

La possibilità di eseguire localmente un modello così avanzato rappresenta una svolta significativa, visto che tradizionalmente questi sistemi richiedono infrastrutture di data center con GPU ad alte prestazioni. Il ricercatore Awni Hannun ha evidenziato come la versione a 4-bit di DeepSeek-V3-0324 possa raggiungere oltre 20 token al secondo su un Mac Studio con 512 GB di RAM, un cambio di paradigma nei requisiti di calcolo per l’intelligenza artificiale.

L’approccio di DeepSeek alla distribuzione dei suoi modelli si discosta significativamente da quello delle aziende occidentali, che di solito accompagnano i lanci con campagne di marketing strutturate. Il modello è stato rilasciato per di più senza documentazione o comunicati ufficiali, con una strategia che ha sorpreso il settore e alimentato un acceso dibattito sul futuro della ricerca in ambito IA.

Uno degli aspetti più interessanti di DeepSeek-V3-0324 è la sua architettura basata su un sistema Mixture-of-Experts (MoE). Questa tecnologia, già utilizzata da altre aziende IA come la francese Mistral, consente di attivare solo 37 miliardi dei 685 miliardi di parametri totali per ogni attività specifica, ottimizzando l’efficienza computazionale. Inoltre, il modello integra Multi-Head Latent Attention (MLA) e Multi-Token Prediction (MTP), due tecnologie che migliorano la gestione del contesto nei testi e accelerano la generazione dei token fino all’80%.

Queste caratteristiche tecniche rendono l’LLM cinese altamente competitivo rispetto a sistemi proprietari come Claude Sonnet 3.5 di Anthropic. Secondo il ricercatore Xeophon, DeepSeek-V3-0324 supera Sonnet 3.5 in tutte le metriche di valutazione, posizionandosi come il miglior modello open-source privo di capacità avanzate di ragionamento.

DeepSeek-V3-0324 potrebbe essere solo un preludio a DeepSeek-R2, un modello focalizzato sul ragionamento avanzato atteso nei prossimi mesi. Se confermato, R2 potrebbe rappresentare un’alternativa open-source diretta a GPT-5 di OpenAI, consolidando ulteriormente la posizione di DeepSeek nel panorama IA globale.

L’efficienza computazionale di questi modelli sta inoltre sollevando nuovi interrogativi sulle infrastrutture necessarie per gestire l’intelligenza artificiale. Il CEO di Nvidia, Jensen Huang, ha recentemente affermato che i modelli di ragionamento come DeepSeek-R1 consumano 100 volte più potenza computazionale rispetto ai modelli standard, evidenziando l’importanza di soluzioni efficienti come quelle adottate da DeepSeek.

Un altro aspetto di DeepSeek-V3-0324 che ha stupito molti è la sua evoluzione stilistica. Il nuovo modello ha infatti un tono più tecnico e analitico rispetto ai predecessori, sacrificando parte della naturalezza conversazionale. Questo cambiamento sembra riflettere una scelta strategica per rendere il modello più adatto a contesti professionali e di sviluppo software, anziché all’uso casuale da parte del pubblico generico.

Non va poi tralasciata l’importanza dell’approccio open-source adottato da DeepSeek, che si inserisce in una più ampia tendenza delle aziende cinesi a sfidare il modello chiuso delle controparti occidentali. Mentre infatti aziende come OpenAI e Anthropic limitano l’accesso ai loro modelli attraverso paywall e licenze restrittive, DeepSeek offre la sua tecnologia liberamente, favorendo un’adozione più ampia da parte di sviluppatori e ricercatori. Questo modello di distribuzione ha accelerato lo sviluppo dell’IA in Cina, permettendo alle startup di accedere a strumenti avanzati senza enormi investimenti iniziali.

Non a caso, anche colossi tecnologici cinesi come Baidu, Alibaba e Tencent stanno seguendo questa strategia, rilasciando modelli open-source per consolidare la loro leadership nel settore. Questa tendenza è in parte guidata dalle restrizioni sull’accesso ai chip Nvidia di ultima generazione, che hanno spinto le aziende cinesi a sviluppare soluzioni più efficienti per compensare la carenza di hardware avanzato.

Per chi vuole sperimentare DeepSeek-V3-0324, sono disponibili diverse opzioni. Gli sviluppatori possono scaricare i pesi del modello da Hugging Face, anche se le dimensioni di 641 GB ne limitano l’accessibilità. Alternative più pratiche includono l’uso del modello tramite OpenRouter, che offre accesso API gratuito, o l’interfaccia chat di DeepSeek.

(Immagine di apertura: Shutterstock)