OpenAi comincia il rilascio di Sora in Europa e apre una preview per GPT-4.5

OpenAi comincia il rilascio di Sora in Europa e apre una preview per GPT-4.5
OpenAI ha annunciato l'espansione in Europa di Sora e una preview di ricerca di GPT-4.5, il suo modello di conversazione più avanzato.

OpenAI ha compiuto due ulteriori passi in ambito GenAI annunciando sia l’espansione della disponibilità in Europa di Sora (il suo modello di generazione video), sia una preview di GPT-4.5, il suo modello di conversazione più avanzato.

Sora: la generazione video secondo OpenAI

Sora, accessibile tramite ChatGPT Pro o Plus, permette di creare brevi video partendo da testi, foto o brevi clip. Questo strumento offre funzionalità avanzate come Remix, Re-cut, Storyboard, Loop, Blend e Pre-sets, che consentono un elevato grado di manipolazione e personalizzazione dei contenuti video.

Remix permette di alterare elementi specifici all’interno di un video, mentre Re-cut consente di isolare e estendere i momenti più significativi. Storyboard facilita l’organizzazione delle sequenze video e Loop crea clip che si ripetono fluidamente, mentre Blend combina due video in un’unica scena coerente e Pre-sets permette di applicare stili visivi predefiniti.

La collaborazione con artisti europei ha giocato un ruolo cruciale nello sviluppo di Sora. Artisti come Josephine Miller (Regno Unito), Jon Uriarte (Regno Unito), Boris Eldagsen (Germania), Caroline Rocha (Francia), Boldtron (Spagna) e Adeline Mai (Francia) hanno infatti esplorato le potenzialità di Sora, creando opere che spaziano dalla moda bioluminescente a decostruzioni kafkiane del gergo aziendale, fino a film sperimentali che esplorano temi di memoria e identità.

OpenAI ha inoltre creato canali Discord dedicati a Sora, offrendo uno spazio per la condivisione di suggerimenti e ispirazione tra gli utenti. Il team di OpenAI ospiterà anche masterclass su Sora, fornendo ulteriori risorse e supporto alla comunità creativa.

I passi avanti di GPT-4.5

Il rilascio di GPT-4.5 rappresenta un progresso significativo nell’ambito degli LLM. Questo modello, risultato di un continuo perfezionamento delle tecniche di pre e post training, dimostra infatti una maggiore capacità di comprensione del linguaggio naturale, di generazione di testo coerente e di interazione con l’utente.

La maggiore EQ di GPT-4.5 si traduce in conversazioni più naturali e fluide, in cui il modello è in grado di cogliere le sfumature emotive e contestuali. La sua vasta base di conoscenze e la sua capacità di ragionamento migliorata riducono inoltre la tendenza alle “allucinazioni”, fornendo risposte più accurate e affidabili.

Anche le prestazioni superiori di GPT-4.5 nei benchmark linguistici dimostrano il suo avanzamento rispetto ai modelli precedenti, con la capacità di comprendere e generare testo in diverse lingue che lo rende uno strumento versatile per una vasta gamma di applicazioni.

La disponibilità dell’anteprima di ricerca di GPT-4.5, per ora limitata agli utenti di ChatGPT Pro e agli sviluppatori con qualsiasi livello di sottoscrizione dell’API, permette agli utenti di sperimentare le sue potenzialità e di fornire a OpenAI feedback preziosi per il suo sviluppo futuro, con l’obiettivo di renderlo un assistente IA sempre più intelligente, utile e affidabile.

(Immagine d’apertura – Shutterstock)

Aziende:
OpenAI
Condividi:
 

IBM potenzia gli LLM Granite con Vision Language Model e Chain of thoughts

IBM potenzia gli LLM Granite con Vision Language Model e Chain of thoughts
La famiglia di LLM Granite 3.2 di IBM comprende piccoli modelli di intelligenza artificiale che offrono capacità di reasoning, visive e di protezione, con una licenza pensata per gli sviluppatori.

Con l’obiettivo di offrire un’intelligenza artificiale aziendale compatta, efficiente e pratica, IBM ha annunciato il lancio di Granite 3.2, la nuova generazione della sua famiglia di LLM Granite. La strategia di IBM punta su modelli specializzati e di dimensioni ridotte, per garantire elevate prestazioni ottimizzando al contempo costi e risorse computazionali.

I modelli Granite 3.2 sono disponibili con licenza Apache 2.0 su Hugging Face e possono essere utilizzati su IBM watsonx.ai, Ollama, Replicate e LM Studio (a breve saranno integrati anche in RHEL AI 1.5).

Ecco le caratteristiche principali:

  • Nuovo Vision Language Model (VLM) ottimizzato per la comprensione di documenti. Questo modello garantisce prestazioni pari o superiori rispetto a modelli di dimensioni maggiori, come Llama 3.2 11B e Pixtral 12B, nei benchmark essenziali per il settore aziendale tra cui DocVQA, ChartQA, AI2D e OCRBench. IBM ha sfruttato il proprio toolkit open-source Docling per elaborare 85 milioni di PDF e generare 26 milioni di coppie domanda-risposta sintetiche, migliorando così la capacità del VLM di gestire flussi di lavoro documentali complessi
  • Capacità avanzate di “chain of thought” per migliorare il ragionamento nei modelli 3.2 2B e 8B. Gli utenti possono attivare o disattivare questa funzione per bilanciare efficienza e prestazioni. Il modello 8B mostra miglioramenti a due cifre nei benchmark di follow-up delle istruzioni, come ArenaHard e Alpaca Eval, senza compromessi su sicurezza o performance. Grazie a nuovi metodi di scalabilità dell’inferenza, il modello può competere con soluzioni di fascia alta come Claude 3.5-Sonnet e GPT-4o nei test di ragionamento matematico, tra cui AIME2024 e MATH500
  • Ottimizzazione dei modelli di sicurezza Granite Guardian, con una riduzione del 30% delle dimensioni rispetto alla versione precedente mantenendo le stesse prestazioni. La nuova funzionalità “verbalized confidence” permette una valutazione del rischio più sfumata, riconoscendo l’ambiguità nei processi di monitoraggio della sicurezza
Granite Vision è stato messo a punto su 13,7 milioni di pagine PDF di documenti aziendali.

Granite Vision è stato messo a punto su 13,7 milioni di pagine PDF di documenti aziendali.

Con Granite 3.2, IBM continua inoltre a concentrarsi sulla praticità dell’IA per le aziende. L’approccio “chain of thought” consente un ragionamento più sofisticato, ma può essere disattivato per evitare un consumo di risorse computazionali non necessario in attività più semplici. Parallelamente, i miglioramenti nella scalabilità dell’inferenza dimostrano che il modello Granite 8B può competere con alternative di dimensioni maggiori, garantendo efficienza senza sacrificare le prestazioni.

Oltre ai modelli Granite 3.2 Instruct, Vision e Guardrail, IBM ha annunciato anche una nuova generazione di modelli TinyTimeMixers (TTM), con meno di 10 milioni di parametri e capacità predittive a lungo termine fino a due anni nel futuro. Questi modelli sono strumenti potenti per analisi delle tendenze finanziarie ed economiche, previsione della domanda nella supply chain e pianificazione dell’inventario stagionale nel settore retail.

image

Sriram Raghavan, VP di IBM AI Research, ha evidenziato come la nuova era dell’intelligenza artificiale debba essere incentrata su efficienza, integrazione e impatto concreto. “Con Granite 3.2, IBM rafforza il suo impegno nel fornire soluzioni IA open-source, accessibili e ottimizzate per il mondo aziendale, garantendo un perfetto equilibrio tra potenza computazionale, costi e valore per le imprese”.

Aziende:
IBM
Condividi: