Almawave, società italiana quotata su Euronext Growth Milan e parte del Gruppo Almaviva, ha annunciato Velvet, una nuova famiglia di LLM multilingua. L’evento di presentazione si è svolto presso l’Auditorium della Tecnica di Confindustria a Roma e ha visto la partecipazione di esponenti istituzionali, accademici e industriali. Velvet si compone di due LLM fondazionali e open source (Velvet 14B e Velvet 2B), sviluppati integralmente da Almawave in Italia e addestrati sul supercalcolatore Leonardo gestito da Cineca.

Velvet rappresenta l’apice di oltre 15 anni di esperienza di Almawave nell’ambito della ricerca e sviluppo sull’IA, con applicazioni in settori strategici quali sanità, previdenza, giustizia, sicurezza, mobilità, finanza e pubblica amministrazione. Il progetto è stato sviluppato nel rispetto delle normative europee sull’IA, con un approccio attento alla sostenibilità e alla leggerezza computazionale. I modelli sono ottimizzati per un utilizzo su infrastrutture cloud, on premise ed edge e sono integrati nella piattaforma AIWave di Almawave, che offre oltre 30 soluzioni applicative verticali pronte all’uso.

screenshot-www.almawave.com-2025.01.31-10_41_37

Valeria Sandei, Amministratore Delegato di Almawave, ha sottolineato come Velvet sia il frutto di una strategia mirata a sviluppare un’IA efficace, sostenibile e adattabile a scenari d’uso concreti. La società ha costruito i propri modelli con un approccio centrato sulla governance dei dati, la riduzione dei bias e la protezione della privacy. Un elemento distintivo di Velvet è l’algoritmo proprietario PAE (Privacy Association Editing), che consente di eliminare informazioni sensibili direttamente dal modello senza necessità di riaddestramento.

Dal punto di vista tecnico, Velvet 14B è un modello da 14 miliardi di parametri, addestrato su 4.000 miliardi di token e capace di gestire sei lingue (italiano, tedesco, spagnolo, francese, portoghese e inglese). Ha un vocabolario di 127 mila parole e una finestra di contesto da 128 mila token, rendendolo ideale anche per documenti complessi. Il più piccolo Velvet 2B conta invece 2 miliardi di parametri, supporta italiano e inglese, ha una finestra di contesto da 32 mila token e un vocabolario analogo a quello del modello maggiore.

Almawave ha sviluppato Velvet in collaborazione con diverse istituzioni accademiche e centri di ricerca italiani, tra cui Università Tor Vergata, Fondazione Bruno Kessler, Università La Sapienza, Università di Catania e Università di Bari. Inoltre, la società ha lavorato con SIpEIA (Società Italiana per l’Etica nell’Intelligenza Artificiale) per garantire la conformità etica e regolatoria dei modelli.