Google risponde a Llama di Meta con Gemma, un LLM open source che può girare anche su un notebook
Prosegue incessante il lavoro di Google sull’intelligenza artificiale e, pochi giorni dopo il lancio di Gemini 1.5, oggi tocca a Gemma, una nuova famiglia di LLM open source rivolta a sviluppatori e ricercatori di intelligenza artificiale e costruita con la stessa ricerca e tecnologia utilizzata per creare i modelli Gemini.
Sviluppata da Google DeepMind e altri team di Google, Gemma è già disponibile a livello globale e Google ha condiviso queste prime informazioni.
- Esistono al momento due versioni di Gemma di diverse dimensioni: Gemma 2B e Gemma 7B
- Un nuovo toolkit di IA generativa responsabile fornisce indicazioni e strumenti essenziali per creare applicazioni di IA più sicure con Gemma
- Integrazione con strumenti popolari come Hugging Face, MaxText, NVIDIA NeMo e TensorRT-LLM
- I modelli Gemma pre-addestrati e ottimizzati con le istruzioni possono essere eseguiti su un laptop, workstation o Google Cloud con una facile implementazione su Vertex AI e Google Kubernetes Engine (GKE).
- I termini di utilizzo consentono un utilizzo e una distribuzione commerciale per tutte le organizzazioni, indipendentemente dalle dimensioni.
I modelli Gemma condividono componenti tecnici e infrastrutturali con Gemini e ciò, secondo Google, consente a Gemma 2B e 7B di ottenere le migliori prestazioni della categoria per le loro dimensioni rispetto ad altri modelli aperti. Inoltre, per rendere sicuri e affidabili i modelli pre-addestrati Gemma, Google ha utilizzato sia tecniche automatizzate per filtrare determinate informazioni personali e altri dati sensibili dai set di addestramento, sia un’ampia messa a punto e l’apprendimento di rinforzo dal feedback umano (RLHF). Google ha anche condotto valutazioni approfondite tra cui red-teaming manuale, test contraddittori automatizzati e valutazioni delle capacità del modello per attività pericolose.
Oltre a Gemma, Google sta inoltre rendendo disponibile un nuovo Responsible Generative AI Toolkit per aiutare gli sviluppatori e i ricercatori a dare priorità alla creazione di applicazioni IA sicure e responsabili. Il kit di strumenti include:
- Classificazione di sicurezza: una nuova metodologia per creare robusti classificatori di sicurezza con esempi minimi
- Debug: uno strumento di debug del modello aiuta a indagare sul comportamento di Gemma e ad affrontare potenziali problemi
- Linee guida: è possibile accedere alle best practice per gli sviluppatori di modelli in base all’esperienza di Google nello sviluppo e nell’implementazione di modelli linguistici di grandi dimensioni
I modelli Gemma possono essere ottimizzati sui dati dell’utente per adattarli a esigenze applicative specifiche, come il riepilogo o il retrieval-augmented generation (RAG). Su questo versante Gemma supporta un’ampia varietà di strumenti e sistemi:
- Strumenti multi-framework: implementazioni di riferimento per l’inferenza e la messa a punto su Keras 3.0 multi-framework, PyTorch nativo, JAX e Hugging Face Transformers
- Compatibilità tra dispositivi: i modelli Gemma funzionano sui tipi di dispositivi più diffusi, tra cui laptop, desktop, IoT, dispositivi mobili e cloud, consentendo funzionalità IA ampiamente accessibili
- Piattaforme hardware all’avanguardia: Google ha collaborato con NVIDIA per ottimizzare Gemma per le GPU NVIDIA , dal data center al cloud fino ai PC
- Ottimizzato per Google Cloud: Vertex AI fornisce un ampio set di strumenti MLOps con una gamma di opzioni di ottimizzazione e implementazione utilizzando ottimizzazioni di inferenza integrate. La personalizzazione avanzata è disponibile con gli strumenti Vertex AI completamente gestiti o con GKE autogestito, inclusa l’implementazione in un’infrastruttura conveniente su GPU, TPU e CPU da entrambe le piattaforme.