Google manda in pensione Gemini 1.5 Pro e rimuove l’assistente dall’app mobile di ricerca

Google ha annunciato importanti aggiornamenti alla famiglia di LLM Gemini 2.0, ampliandone le capacità e la disponibilità per sviluppatori e utenti finali. La serie Flash, nota per l’efficienza e la velocità, ha ricevuto un aggiornamento significativo con il rilascio generale di Gemini 2.0 Flash, ora accessibile tramite API in Google AI Studio e Vertex AI. Inoltre, è stata introdotta una versione sperimentale di Gemini 2.0 Pro, il modello più avanzato finora per codifica e gestione di prompt complessi.
Queste due nuove versioni sostituiscono rispettivamente i modelli Gemini 1.5 Flash e 1.5 Pro, che non saranno più disponibili. Google ha inoltre rimosso del tutto Gemini dall’app Google per iOS e iPadOS e ha comunicato agli utenti la necessità di scaricare dall’App Store l’app separata. “Stiamo apportando alcune modifiche per creare un’esperienza Gemini ancora migliore su iOS. Gemini è ora disponibile come app autonoma ed è il posto migliore per utilizzarlo. Per continuare a usare Gemini, scaricate la nuova app dall’App Store”, si legge nel comunicato di Google.
Presentato per la prima volta lo scorso maggio a I/O 2024, Gemini 2.0 Flash è stato progettato per gestire carichi di lavoro elevati con una finestra di contesto di 1 milione di token e capacità multimodali avanzate. Grazie a una latenza ridotta e prestazioni ottimizzate, il modello è ora disponibile per tutti gli utenti della Gemini app su desktop e mobile, oltre che per gli sviluppatori tramite l’API. In futuro, verranno aggiunte funzionalità come la generazione di immagini e la sintesi vocale.
La versione sperimentale di Gemini 2.0 Pro è stata invece progettata per fornire le migliori prestazioni in ambito di codifica e comprensione di input complessi. Dotato di una finestra di contesto da 2 milioni di token, questo LLM supera i modelli precedenti in comprensione del linguaggio, ragionamento e capacità di analisi e include strumenti avanzati come l’integrazione con Google Search e l’esecuzione di codice, migliorando la precisione e la versatilità per gli sviluppatori.
Per rispondere alla domanda di modelli IA più accessibili senza compromettere qualità e velocità, Gemini 2.0 Flash-Lite offre prestazioni migliori rispetto a 1.5 Flash, mantenendo lo stesso costo e velocità. Con un contesto di 1 milione di token e input multimodale, questa nuova versione si distingue per la capacità di elaborare grandi quantità di dati in modo economico e attualmente è disponibile in anteprima pubblica in Google AI Studio e Vertex AI.
I modelli Gemini 2.0 utilizzano inoltre nuove tecniche di apprendimento per rinforzo per valutare e migliorare la qualità delle risposte, con un focus sulla gestione di prompt sensibili. Google sta anche implementando strategie di sicurezza avanzate, come il red teaming automatizzato, per identificare e mitigare minacce come l’iniezione indiretta di prompt, un attacco che sfrutta istruzioni nascoste nei dati per compromettere i sistemi IA.
Tutti questi modelli saranno inizialmente rilasciati con input multimodale e output testuale, mentre il supporto per altre modalità verrà ampliato nei prossimi mesi.