Vitruvian-1 (V1) è nuovo LLM sviluppato dalla startup italiana ASC27, fondata nel 2020 da Nicola Grandis. Si tratta di un modello con 14 miliardi di parametri progettato per il reasoning, ovvero per risolvere problemi in ambiti specifici come matematica, fisica, chimica e medicina. A differenza dei chatbot tradizionali, V1 non è pensato per conversazioni casuali, ma per supportare utenti e aziende in attività complesse in modalità chat e retrieval-augmented generation (RAG).

Nonostante abbia meno parametri rispetto ai modelli più avanzati da 1500 miliardi, V1 ha dimostrato prestazioni eccellenti nel benchmark matematico MATH-500, ottenendo un punteggio di 94 nella sua quinta iterazione di training. Questo risultato lo pone vicino a modelli come OpenAI o1-mini (92,4) e DeepSeek-R1-Distill-Qwen-14B (93,9). L’addestramento è stato ottimizzato per la lingua italiana con dataset curati e ASC27 sta testando il modello anche su benchmark come AIME24 e MMLU.

vitruvian-1

Secondo ENIA (un’organizzazione no-profit dedicata all’AI), V1 è basato su un’architettura Transformer di ultima generazione e utilizza tecniche di quantizzazione e pruning per ridurre il consumo energetico. ASC27 ha anche dimostrato la capacità del modello di rispondere a domande sensibili, come quelle su Piazza Tienanmen, a differenza di altri LLM più censurati come DeepSeek R1.

Il lancio di V1 è significativo perché dimostra che anche l’Italia e l’Europa possono competere nello sviluppo di modelli IA avanzati. Vitruvian-1 rappresenta inoltre solo l’inizio per ASC27, che sta già sviluppando nuove versioni con capacità diverse e che cerca alpha-tester per mettere alla prova le attuali e future iterazioni del modello (qui il modulo di iscrizione).