La GenAI italiana Minerva arriva a 7 miliardi di parametri e comincia a a fare sul serio
Si chiama Minerva 7B ed è la nuova versione del modello linguistico “made in Italy” sviluppato dalla Sapienza Università di Roma in ambito FAIR (Future Artificial Intelligence Research) grazie ai fondi PNRR e in collaborazione con CINECA, che ha reso disponibile il supercomputer Leonardo.
Minerva 7B è un Large Language Model (LLM) completamente italiano, frutto del lavoro del gruppo di ricerca Sapienza NLP (Natural Lenguage Processing) guidato dal Prof. Roberto Navigli. Con ben 7 miliardi di parametri, rispetto ai 3 della versione precedente, Minerva rappresenta un passo avanti importante nell’elaborazione e comprensione del linguaggio naturale in italiano, grazie a un massiccio dataset di 1,5 trilioni di parole e a un avanzato processo di instruction tuning, che permette al modello di generare risposte più accurate, pertinenti e sicure, riducendo fenomeni come le “allucinazioni” e garantendo contenuti appropriati.
“Oggi presentiamo il primo modello pre-addestrato in lingua italiana stile ChatGpt che si chiama Minerva 7B”, ha detto Navigli. “E’ un modello addestrato anche per rispondere a domande, istruzioni e comandi ed è particolarmente interessante perché abbiamo fatto un lavoro importante sulla sicurezza del modello, ovvero la capacità del modello di evitare e rispondere a domande che potrebbe portare alla generazione di contenuti indesiderati o malevoli”.
Rispetto al modello precedente, Minerva 7B ha inoltre una maggior capacità di memorizzazione e rielaborazione dei testi, sempre basata su fonti aperte di dati che spaziano da Wikipedia e grandi archivi aperti di libri come il progetto Gutemberg. “A differenza di ChatGpt o Gemini, che sono modelli chiusi così come anche Mistral o Llama3 che sono scaricabili, Minerva appartiene a quella ristretta famiglia di modelli aperti, ossia che è possibile analizzare liberamente”, ha concluso Navigli.