Le GPU Nvidia diventano garanzia per un prestito da 500 milioni di dollari

nvidia ia
Lambda Labs ha ottenuto un prestito di 500 milioni di dollari usando come garanzia le GPU IA più veloci di Nvidia, tra cui il superchip H200.

Lambda Labs, operatore cloud che lavora sui sistemi di GPU da oltre un decennio, ha ottenuto un prestito di 500 milioni di dollari per finanziare l’espansione della sua offerta di acceleratori-as-a-service. L’accordo, sostenuto da Macquarie Group e Industrial Development Funding, servirà per l’implementazione di “decine di migliaia” degli acceleratori IA più veloci di Nvidia, che a loro volta serviranno come garanzia per il prestito.

Le GPU Nvidia impiegate da Lambda costano singolarmente dai 30.000 ai 40.000 dollari e sono particolarmente difficili da trovare sul mercato. Lambda ha spiegato che la natura “asset-based” dell’accordo le consentirà di affittare le GPU di Nvidia ai clienti senza contratti a lungo termine.

Tali contratti sono in genere il modo per affittare le risorse alla tariffa più bassa possibile. Ad esempio, il prezzo on-demand per le istanze P5 di Amazon, che includono otto acceleratori H100, è di 98,32 dollari all’ora, ovvero circa 12,29 dollari per GPU. Ma se ci si impegna a stipulare un contratto di locazione di tre anni, Amazon ridurrà il prezzo a 43,16 dollari l’ora.

Il nuovo superchip Nvidia GB200

Al contrario, sembra che la strategia di Lambda sia quella di capitalizzare la domanda delle piccole startup di intelligenza artificiale che esitano a firmare un contratto di locazione a lungo termine. Lambda offre una configurazione paragonabile a quella di AWS a 27,92 dollari l’ora.

Il mezzo miliardo di dollari di finanziamento si aggiunge ai 320 milioni di dollari di finanziamenti che Lambda ha raccolto a febbraio, quando l’azienda aveva riferito che il prestito sarebbe stato destinato ad aumentare la capacità dei superchip Nvidia H100, H200 e GH200 e ad aggiornare la rete InfiniBand.

L’H200, atteso sul mercato entro l’estate, è particolarmente importante in quanto la sua maggiore capacità di memoria HBM3e (141 GB contro gli 80 GB dell’H100) e la maggiore larghezza di banda della memoria consentono ai clienti di eseguire modelli IA più grandi con un minor numero di GPU.

Aziende:
Nvidia
Condividi:
 

Reply LoopMind: la GenAI al servizio del controllo e della sicurezza delle operazioni

Reply LoopMind: la GenAI al servizio del controllo e della sicurezza delle operazioni
Reply LoopMind abilita un ambiente controllato ed efficiente per integrare l'IA generativa nei flussi di lavoro esistenti, consentendo alle organizzazioni di adottare con sicurezza questa nuova tecnologia.

Reply ha annunciato LoopMind, una nuova soluzione progettata per garantire il monitoraggio, la sicurezza e la compliance nei processi che utilizzano l’intelligenza artificiale. Sviluppata da Sprint Reply, società del Gruppo Reply specializzata in Hyper Automation, LoopMind abilita un ambiente controllato ed efficiente per integrare l’IA nei flussi di lavoro esistenti, consentendo alle organizzazioni di adottare con sicurezza questa nuova tecnologia. Inoltre, sfruttando le sue funzionalità di monitoraggio, questa soluzione offre agli operatori una visibilità completa su workflow e operazioni automatizzate grazie all’IA, in conformità con gli standard stabiliti dall’AI Act Europeo.

Al tempo stesso LoopMind mantiene centrale il ruolo dell’intervento umano nei processi aziendali, coinvolgendo gli operatori quando necessario. Questo approccio Human-in-the-Loop abbina così il meglio della tecnologia con la competenza dei team. In più, la piattaforma archivia e storicizza tutte le informazioni relative alle operazioni basate su IA, consentendo il monitoraggio e il mantenimento delle performance anche a fronte di cambiamenti nella natura dei dati monitorati.

L’architettura di LoopMind consente inoltre l’uso di diversi modelli di intelligenza artificiale come quelli di OpenAI, Meta, Google e Anthropic e si integra facilmente con le infrastrutture IT esistenti, fornendo così un controllo in near real time sulle operazioni effettuate dall’IA generativa nei flussi di lavoro, intercettando potenziali errori e prevenendo violazioni normative.

77ca7472-a3c7-46c7-9bdc-94e855afc55f

LoopMind può infine supportare diversi use case che utilizzano l’IA generativa per l’interrogazione di dati destrutturati (come quelli presenti in contratti o normative) o l’automazione di processi complessi come l’assistenza clienti. Questi i principali casi d’uso indicati da Reply:

  • Insurance: Nei processi dove l’IA è utilizzata per estrapolare dati e insight da documenti, come ad esempio la documentazione relativa ai sinistri, LoopMind interviene valutando la qualità e l’accuratezza dei dati estratti. Grazie ai suoi modelli di controllo, LoopMind effettua la revisione degli output dell’IA, garantendo che solo le informazioni validate vengano utilizzate nei passaggi successivi del flusso di lavoro
  • Banking: Nel contesto della gestione dei ticket di assistenza, LoopMind abilita il controllo qualitativo delle risposte generate dai sistemi di IA e consente ai team di intervenire manualmente per modificare o correggere le risposte prima del loro invio. Si può inoltre richiedere il supporto dell’IA per arricchire, sintetizzare o tradurre le risposte. Questo approccio incrementa l’efficienza del servizio clienti mantenendo al contempo un alto livello di personalizzazione e precisione nelle comunicazioni
  • Industrial: Nel contesto della gestione contrattuale, LoopMind punta a semplificare e a ottimizzare il processo di generazione di nuovi documenti. Grazie all’integrazione di sistemi di intelligenza artificiale avanzati, LoopMind permette il controllo, la modifica e la validazione, da parte di utenti autorizzati, dei contratti generati, garantendo così che i documenti siano non solo accurati ma anche conformi agli standard legali e alle politiche aziendali vigenti

Aziende:
Reply
Condividi: