Grok, il modello linguistico di Elon Musk, è ora disponibile come open source
Grok, l’LLM di xAI (la startup fondata lo scorso anno da Elon Musk) che punta a competere con i rivali di OpenAI, Meta, Google e altri, è disponibile da oggi in versione open source su GitHub, in modo da consentire a ricercatori e sviluppatori di costruire sul modello e di influenzare il modo in cui xAI aggiornerà Grok in futuro.
Questa open release, come specifica la stessa xAI, include “il modello di base e l’architettura della rete del modello Mixture-of-Experts Grok-1 da 314 miliardi di parametri”, modello che però non è stato ancora sottoposto a un’ottimizzazione per un’applicazione specifica, come il dialogo.
Come fa notare VentureBeat, il modello viene rilasciato sotto licenza Apache 2.0 che ne consente l’uso commerciale, ma non include i dati utilizzati per addestrarlo o le connessioni a X per i dati in tempo reale. xAI ha dichiarato in un post del novembre 2023 che l’LLM Grok è stato “sviluppato negli ultimi quattro mesi” ed è destinato a usi che riguardano la generazione di codici, la scrittura creativa e la risposta alle domande.
Sebbene esistano molti modelli di fondazione di intelligenza artificiale completamente open-source, come Mistral e Falcon, i modelli più utilizzati sono a sorgente chiusa o offrono una licenza aperta limitata. Llama 2 di Meta, ad esempio, offre la sua ricerca gratuitamente, ma fa pagare un canone ai clienti con 700 milioni di utenti giornalieri e non permette agli sviluppatori di iterare su Llama 2.
Alcuni produttori di tool di IA stanno già utilizzando Grok nelle loro soluzioni. Arvind Srinivas, il CEO di Perplexity, ha scritto su X che l’azienda perfezionerà Grok per la ricerca conversazionale e lo renderà disponibile agli utenti Pro.