Dell amplia il suo portfolio per la IA generativa “on-premises”
Dell Technologies ha ampliato il suo portafoglio Generative AI Solutions per massimizzare gli sforzi dell’IA generativa e supportare i carichi di lavoro nei cloud pubblici, negli ambienti on-premise e nell’edge. “Le aziende hanno bisogno di una solida base di dati con l’infrastruttura, il software e i servizi giusti” ha dichiarato Jeff Boudreau, Chief AI Officer di Dell Technologies. “È quello che stiamo costruendo con le nostre soluzioni di IA generativa”.
Personalizzazione dei modelli GenAI per massimizzare i dati proprietari
La soluzione Dell Validated Design for Generative AI with NVIDIA for Model Customization, disponibile a livello globale attraverso i canali tradizionali e Dell APEX a partire da fine ottobre, offre modelli pre-addestrati che estraggono intelligenza dai dati senza dover costruire modelli da zero. Questa soluzione fornisce le migliori pratiche per la personalizzazione e la messa a punto dei modelli GenAI in base ai risultati desiderati, contribuendo a mantenere le informazioni sicure e in sede. Grazie a una struttura scalabile per la personalizzazione, le aziende hanno ora a disposizione diversi modi per adattare i modelli GenAI per svolgere compiti specifici con i loro dati proprietari. Il suo design modulare e flessibile supporta un’ampia gamma di requisiti computazionali e di casi d’uso, che spaziano dalla diffusione dell’addestramento all’apprendimento per trasferimento e alla messa a punto immediata.
I progetti Dell Validated Designs for Generative AI supportano ora sia la messa a punto del modello, sia l’inferenza, consentendo agli utenti di implementare più rapidamente i modelli di IGAI con un’infrastruttura comprovata che comprende il server di IA Dell PowerEdge XE9680 o PowerEdge XE8640, con una scelta di GPU NVIDIA Tensor Core e software NVIDIA AI Enterprise, che offre framework, modelli pre-addestrati e strumenti di sviluppo, come il framework NVIDIA NeMo, e software Dell.
“Stiamo implementando i server Dell PowerEdge XE9680 con le GPU NVIDIA H100 Tensor Core nel cluster di calcolo ad alte prestazioni di Princeton per la modellazione di linguaggi di grandi dimensioni per contribuire a nuovi livelli di scoperta”, ha dichiarato Sanjeev Arora, Charles C. Fitzmorris Professor in Computer Science, Princeton. “Questo sistema offre ai ricercatori di scienze naturali, ingegneria, scienze sociali e umanistiche l’opportunità di applicare potenti modelli di intelligenza artificiale al loro lavoro in aree come la visualizzazione, la modellazione e l’informatica quantistica“.
Preparare dati, persone e processi per GenAI
Dell sta inoltre applicando i suoi processi e le sue competenze per aiutare i clienti a generare risultati di business migliori e più rapidi con l’ampliamento delle capacità dei servizi professionali GenAI:
- I Data Preparation Services forniscono ai clienti una serie di dati puliti e accurati nel formato giusto, consentendo ai progetti di IA di procedere senza intoppi, semplificando l’integrazione dei dati e fornendo un output di dati di qualità
- I Dell Implementation Services creano una piattaforma GenAI operativa per l’inferenza e la personalizzazione dei modelli, accelerando il time to value
- Gli Education Services aiutano i clienti ad acquisire le competenze fondamentali per colmare il divario di capacità GenAI
Modernizzare l’infrastruttura dei dati per l’IA e l’analisi
Dell e Starburst stanno rafforzando il loro rapporto per aiutare i clienti ad accelerare gli sforzi di AI e analytics. Ciò culminerà con una soluzione di data lakehouse disponibile nella prima metà del 2024 che integrerà il software di analisi di Starburst con la piattaforma di calcolo PowerEdge di Dell, aiutando i clienti a estrarre informazioni dai dati ovunque essi risiedano. Grazie ai principi del software aperto, i clienti otterranno un accesso facile e più sicuro ai dati multicloud per ottenere il massimo valore dai flussi di lavoro e dalle implementazioni di analisi datie IA.
“I nostri clienti hanno bisogno di una solida piattaforma di dati per accedere a dati distribuiti in ambienti multicloud per guidare e rendere operativi gli sforzi di IA” ha dichiarato Justin Borgman, CEO di Starburst. “Integrando le nostre profonde capacità di analisi con l’infrastruttura leader e i servizi aziendali globali di Dell, possiamo offrire ai clienti una soluzione di data lakehouse aperta e multicloud che rende rapidamente e facilmente disponibili i dati per i flussi di lavoro IA ovunque”.
Tutti i modelli supportati e validati
Ecco quali modelli sono stati testati e validati sui sistemi Dell.
Modello | Descrizione | Container usato per la validazione |
NeMo GPT 20B | Language model basato su transformer con 20 Mld di parametri | Triton – nvcr.io/ea-bignlp/bignlp-inference:22.08-py3 NeMo – nvcr.io/nvidia/nemo:23.04 |
NeMo GPT-2B-001 | Language model basato su transformer con 2 Mld di parametri | Triton – nvcr.io/ea-bignlp/bignlp-inference:22.08-py3 NeMo – nvcr.io/nvidia/nemo:23.04 |
NeMo GPT 1.3B | Language model basato su transformer con 1.3 Mld di parametri | Triton – nvcr.io/ea-bignlp/bignlp-inference:22.08-py3 NeMo – nvcr.io/nvidia/nemo:23.04 |
NeMo GPT 345M | Language model basato su transformer con 345 milioni di parametri | Triton – nvcr.io/ea-bignlp/bignlp-inference:22.08-py3 NeMo – nvcr.io/nvidia/nemo:23.04 |
NeMo GPT 5B | Language model basato su transformer con 5 Mld di parametri | Triton – nvcr.io/ea-bignlp/bignlp-inference:22.08-py3 NeMo – nvcr.io/nvidia/nemo:23.04 |
BLOOM 7B | Big Science Large Open-science Open-access Multilingual Language Model | nvcr.io/nvidia/cuda:12.1.0-devel-ubi8 |
Llama 2 7B | Modello basato su transformer e ottimizzato con 7 Mld di parametri | nvcr.io/nvidia/pytorch:23.06-py3 |
Llama 2 13B | Modello basato su transformer e ottimizzato con 13 Mld di parametri | nvcr.io/nvidia/pytorch:23.06-py3 |
Stable Diffusion 2.0 | Modello per la generazione di immagini da prompt testuali | python:latest |