Almawave presenta Velvet, LLM italiano e leggero che sarà rilasciato come open source

Almawave, società italiana quotata su Euronext Growth Milan e parte del Gruppo Almaviva, ha annunciato Velvet, una nuova famiglia di LLM multilingua. L’evento di presentazione si è svolto presso l’Auditorium della Tecnica di Confindustria a Roma e ha visto la partecipazione di esponenti istituzionali, accademici e industriali. Velvet si compone di due LLM fondazionali e open source (Velvet 14B e Velvet 2B), sviluppati integralmente da Almawave in Italia e addestrati sul supercalcolatore Leonardo gestito da Cineca.
Velvet rappresenta l’apice di oltre 15 anni di esperienza di Almawave nell’ambito della ricerca e sviluppo sull’IA, con applicazioni in settori strategici quali sanità, previdenza, giustizia, sicurezza, mobilità, finanza e pubblica amministrazione. Il progetto è stato sviluppato nel rispetto delle normative europee sull’IA, con un approccio attento alla sostenibilità e alla leggerezza computazionale. I modelli sono ottimizzati per un utilizzo su infrastrutture cloud, on premise ed edge e sono integrati nella piattaforma AIWave di Almawave, che offre oltre 30 soluzioni applicative verticali pronte all’uso.
Valeria Sandei, Amministratore Delegato di Almawave, ha sottolineato come Velvet sia il frutto di una strategia mirata a sviluppare un’IA efficace, sostenibile e adattabile a scenari d’uso concreti. La società ha costruito i propri modelli con un approccio centrato sulla governance dei dati, la riduzione dei bias e la protezione della privacy. Un elemento distintivo di Velvet è l’algoritmo proprietario PAE (Privacy Association Editing), che consente di eliminare informazioni sensibili direttamente dal modello senza necessità di riaddestramento.
Dal punto di vista tecnico, Velvet 14B è un modello da 14 miliardi di parametri, addestrato su 4.000 miliardi di token e capace di gestire sei lingue (italiano, tedesco, spagnolo, francese, portoghese e inglese). Ha un vocabolario di 127 mila parole e una finestra di contesto da 128 mila token, rendendolo ideale anche per documenti complessi. Il più piccolo Velvet 2B conta invece 2 miliardi di parametri, supporta italiano e inglese, ha una finestra di contesto da 32 mila token e un vocabolario analogo a quello del modello maggiore.
Almawave ha sviluppato Velvet in collaborazione con diverse istituzioni accademiche e centri di ricerca italiani, tra cui Università Tor Vergata, Fondazione Bruno Kessler, Università La Sapienza, Università di Catania e Università di Bari. Inoltre, la società ha lavorato con SIpEIA (Società Italiana per l’Etica nell’Intelligenza Artificiale) per garantire la conformità etica e regolatoria dei modelli.