La strategia Cisco per il networking dei cluster di IA passa anche per una partership con Nvidia
Gestire le infrastrutture di intelligenza artificiale in maniera semplice, predisporre una difesa efficace contro le nuove minacce informatiche, implementare l’IA generativa nelle aziende in modo affidabile e offrire nuove disponibilità di collaboration e di observability, il tutto stringendo nuove partnership con lo scopo di delineare una strategia capace di raccogliere le sfide lanciate dall’IA. Strategia che Cisco ha deciso di implementare con tutti questi obiettivi in mente, muovendosi essenzialmente in queste sei direzioni:
- Cisco e NVIDIA hanno presentato piani congiunti per offrire soluzioni per l’infrastruttura IA del data center, semplici da implementare e gestire, che forniscono tutta la potenza di calcolo di cui le aziende hanno bisogno nell’era dell’IA
- Cisco Security Cloud è una piattaforma di sicurezza unificata AI-ready e cross-domain che include nuove funzionalità di analisi supportate dall’IA per Cisco Identity Intelligence, nonché Cisco AI Assistant for Security, che permette di prendere decisioni informate, di potenziare le funzionalità degli strumenti e di automatizzare attività complesse
- Per permettere ai clienti di incrementare la produttività e migliorare la visibilità, gli insight e le azioni, la piattaforma Cisco Observability offre un’interfaccia in linguaggio naturale che semplifica la risoluzione dei problemi. Inoltre, la nuova applicazione Cisco AIOps facilita il monitoraggio in tempo reale della salute aziendale al fine di automatizzare i processi IT e mantenere i team operativi produttivi e reattivi.
- Cisco ha annunciato Motific, il suo primo prodotto SaaS che permette di implementare l’IA generativa nelle aziende in modo affidabile, consentendo ai team IT e di sicurezza di distribuire rapidamente funzionalità GenAI all’interno delle aziende con il pieno controllo dei dati sensibili, della sicurezza e dei costi
- Cisco ha presentato nuove tecnologie per aiutare le aziende a sviluppare e ottimizzare l’infrastruttura a supporto dell’IA. Tra queste, la nuova Cisco X-Series Direct, progettata per ambienti dove i clienti necessitano di connettività e potenza di calcolo nell’edge per supportare più applicazioni con meno infrastrutture, e l’offerta ampliata di progettazioni convergenti e iperconvergenti convalidate che si basano sulle soluzioni Cisco e sul blueprint AI/ML per reti di data center
- Cisco Webex guadagna nuove funzionalità di IA recentemente presentate come Cisco AI Assistant per la suite Webex e Contact Center, tra cui i resoconti delle riunioni, delle conversazioni e dei vidcast, la modifica del tono dei messaggi e la traduzione dei messaggi.
Si stima che l’IA Generativa potrebbe aggiungere 4,4 trilioni di dollari al PIL mondiale ogni anno. Tuttavia, ci sono delle sfide da affrontare per far sì che le aziende raggiungano tale obiettivo. Il recente studio Cisco AI Readiness Index, condotto su oltre 8.000 leader del settore privato, di aziende e dell’IT in 30 Paesi, ha rilevato che il 95% degli intervistati ha una strategia IA in corso o in fase di sviluppo, anche se solo il 14% è pronto a integrare l’IA nelle proprie aziende.
Particolare attenzione merita la collaborazione con Nvidia annunciata in occasione del Cisco Live di Amsterdam con lo scopo di rendere i sistemi di intelligenza artificiale più facili da implementare e gestire utilizzando Ethernet standard. Mentre le GPU dominano i cluster di intelligenza artificiale, le reti che le supportano necessitano di prestazioni elevate e bassa latenza e InfiniBand di Nvidia è attualmente dominante nelle implementazioni di rete di intelligenza artificiale. Tuttavia, Ethernet sta guadagnando terreno e lo switch ASIC Silicon One G200 di Cisco e le tecnologie emergenti, come gli smartNIC e gli switch ASIC ottimizzati per l’AI, stanno rendendo Ethernet sempre più simile a InfiniBand.
Cisco ha anche lanciato una versione incentrata sull’edge dei suoi sistemi blade X-Series che possono essere equipaggiati con le più recenti GPU di Nvidia. Lo chassis X Direct, rivolto ai settori manifatturiero, sanitario e a chi gestisce piccoli data center, è dotato di otto slot che possono ospitare nodi di espansione PCIe per il calcolo su GPU. Tuttavia, a differenza di molti nodi GPU di Supermicro, Dell, HPE e altri, che utilizzano i moduli SXM più potenti di Nvidia, il sistema UCS X Direct di Cisco sembra supportare solo GPU a basso TDP basate su PCIe e ogni server può essere equipaggiato con un massimo di sei GPU compatte per server o con un massimo di due GPU a doppio slot.
Questo probabilmente si rivelerà un limite per chi vuole eseguire modelli linguistici di grandi dimensioni che consumano centinaia di gigabyte di memoria della GPU, ma è più che sufficiente per l’esecuzione di carichi di lavoro di inferenza più piccoli, come la preelaborazione dei dati ai margini.