I modelli IA per generare immagini e video di Alibaba sono liberi, anche su HuggingFace

Con la chiara volontà di aumentarne l’adozione e intensificare la competizione nel settore dell’IA, il colosso cinese Alibaba ha annunciato che il suo modello IA avanzato Wan 2.1, in grado di generare immagini e video (720p a 30 fps), è ora open source.
L’annuncio segue una strategia simile adottata dalla startup cinese DeepSeek, i cui modelli open source a basso costo hanno suscitato clamore (ma anche timore) tra gli investitori tecnologici all’inizio dell’anno.
Alibaba pubblicato quattro varianti di Wan 2.1 (T2V-1.3B, T2V-14B, I2V-14B-720P e I2V-14B-480P) in grado di generare immagini e video a partire da input testuali e visivi. Il numero “14B” indica che la variante è dotata di 14 miliardi di parametri, che consentono di elaborare una quantità significativamente maggiore di dati per fornire risultati più accurati.
I modelli IA sono disponibili a livello globale sulle piattaforme ModelScope di Alibaba Cloud e Hugging Face per scopi accademici, di ricerca e commerciali. Alibaba ha inoltre sottolineato il posizionamento di Wan 2.1 ai vertici della classifica del benchmark per modelli di generazione video VBench, dove, con un punteggio di 84,7%, si distingue per funzionalità avanzate come l’interazione tra più oggetti.
Wan2.1, progettato con un’interfaccia user-friendly, utilizza tecnologie all’avanguardia come VAE e DiT per garantire un output realistico con transizioni fluide e fisica accurata e, secondo Alibaba, eccelle nella generazione di vari tipi di video, da movimenti complessi come la danza e lo sport a contenuti educativi e restauro di video storici.
Inoltre, il colosso cinese ha rilasciato anche un’anteprima del modello di ragionamento QwQ-Max, che prevede di rendere open source una volta completato il suo sviluppo, oltre ad annunciare l’intenzione di investire almeno 380 miliardi di yuan (52 miliardi di dollari) nei prossimi tre anni per potenziare le infrastrutture di cloud computing e intelligenza artificiale.