Il modern data center secondo Dell, tra flessibilità, consolidamento e automazione
La crisi pandemica degli scorsi mesi ha cambiato le carte in tavola nei piani di sviluppo e potenziamento delle infrastrutture informatiche delle aziende. In primis, i piani per la creazione di data center moderni, in grado di gestire i carichi e le modalità di lavoro richieste oggi dal business.
Ne abbiamo discusso in un’intervista con Nigel Moulton, Global Chief Technology Officer di Dell Technologies, che gode di un punto di vista privilegiato sull’argomento, avendo contatti con i vertici di grandi aziende in tutto il mondo.
“Il consumo di servizi come Zoom, Office 365 e strumenti software as a service è aumentato in modo verticale. Sono stati strumenti fantastici per permettere ai dipendenti di continuare a fare il loro lavoro”, dice Moulton “ma questi strumenti non possono coprire tutti i processi aziendali”.
Le aziende si sono quindi trovate a dover valutare rapidamente quali processi non potevano essere portati avanti da remoto, e trovare il modo di farlo. “Si tratta questi sempre di processi specifici dell’azienda, e per questo hanno dovuto lavorare a interventi sull’infrastruttura on premises, per adattarla a nuovi processi. Abbiamo quindi visto un’escalation nell’utilizzo dei cloud privati per creare gli strumenti necessari ai gruppi di lavoro”.
Le aziende che hanno meglio compreso la digital transformation e sono state le più veloci nell’adattare i loro processi. Altre hanno dovuto mettere mano all’infrastruttura per modernizzarla.
Ma cosa ricercano oggi le aziende che vogliono creare un “modern data center”?
“Un argomento che viene spesso nominato nelle discussioni con i clienti è la presenza di un accordo commerciale preesistente con un fornitore cloud hyperscaler (Google, Microsoft o AWS per esempio), spesso attivato su iniziativa delle linee di business e non da chi gestisce l’infrastruttura IT. I motivi che hanno spinto le LOB verso il cloud sono la flessibilità di un modello di costi basato sul consumo e la semplicità nell’aggiungere o rimuovere servizi in base alla necessità. La sfida che viene posta a chi gestisce l’IT aziendale è quindi quella di fare in modo che la propria infrastruttura IT on premises si comporti allo stesso modo, che è quello che oggi il business richiede. Quello che sta facendo Dell è fornire ai responsabili IT un set di tecnologie in grado di permettere di fornire quel tipo di servizio dal proprio data center: l’iperconvergenza, che permette un approccio modulare e scalabile per costruire quel tipo di cloud; la virtualizzazione di tutti i componenti dello stack, che consente elevati livelli di automazione permettendo per esempio di distribuire patch critiche in modo veloce”, afferma Moulton.
C’è quindi un ritorno dal cloud pubblico al cloud privato?
“Sì, ma mantenendo l’apertura al pubblico in un approccio multi-cloud, in cui sfruttare le potenzialità del proprio data center per quei carichi di lavoro che lo richiedono, magari per motivi di governance, mantenendo la flessibilità di poter far partire nuovi progetti su cloud pubblico. In alcuni casi il progetto su public cloud potrebbe scalare in modo da rendere economicamente più conveniente un’erograzione dal data center aziendale. Riportare un’applicazione dal cloud pubblico alla infrastruttura on-prem è però più semplice e conveniente se entrambi gli ambienti si comportano in modo molto simile. Per fare ciò è necessario modernizzare le infrastrutture con tecnologie come l’ipereconvergenza o la nostra infrastruttura autonoma PowerOne”.
Parlando di hyperscaler, Dell ha di recente stretto un accordo con Google Cloud…
“È un accordo specifico che ruota attorno all’archiviazione di grandi quantità file, pensiamo per esempio alle necessità di storage di aziende media che trattano video. Non sempre l’archiviazione on-prem si rivela la più efficiente, soprattutto se si vogliono sfruttare strumenti di analytics che sono disponibili nel cloud. Con i servizi Big Search e Big Query Google ha probabilmente la leadership per quel che riguarda le funzioni di ricerca e analytics su certi tipi di file, in particolare quelli multimediali. Grazie all’accordo, i clienti potranno, attraverso il Dell Technologies Cloud OneFS for Google Cloud, combinare la scalabilità e le prestazioni dei sistemi storage NAS scale-out Dell EMC Isilon con i servizi di analisi e calcolo di Google Cloud. Diventa quindi possibile spostare i file, o farne un mirror, sulla piattaforma cloud per utilizzare le funzioni di ricerca o analisi dei dati, rimanendo all’interno dello stesso file system”.
Uno dei pilastri dei data center moderni è la possibilità di essere gestiti in modalità software defined, con virtualizzazione delle risorse. Tra queste, il netwoking sembra essere la componente più ostica. Di recente Dell ha annunciato il supporto di SONiC, componente di networking open source: come si inserisce nell’offerta?
“La virtualizzazione del computing esiste da vent’anni, quella dello storage da una decina, mentre quella della rete ha meno di cinque anni. È l’ultimo pezzo del puzzle, ma anche uno dei compiti più complessi. Vmware NFX rimane la nostra soluzione preferita. Sul fronte open source ci sono diverse soluzioni indipendenti per gestire le problematiche relative a ciascuno dei sette livelli del networking, costringendo le aziende a fare un patchwork delle soluzioni. Ci sono aziende che preferiscono questo tipo di approccio, e ne capisco i motivi, anche se il mondo si sta spostando verso un approccio orientato al consumo delle risorse invece che alla loro costruzione”.
Enterprise SONiC Distribution di Dell Technologies è un nuovo set di soluzioni di networking open source totalmente supportato e che sarà integrato nel DNA dell’hardware Dell EMC PowerSwitch Open Networking e che elimina la complessità creando una rete flessibile attraverso un approccio basato sugli standard aperti.
Cosa c’è nel prossimo futuro delle soluzioni Dell per data center?
“La direzione generale è quella di aumentare le capacità di automazione, attraverso una convergenza di funzioni virtualizzate attivabili come servizi a consumo da un unico centro di comando.
L’obiettivo è quello di integrare alle funzioni di rete come load balancing, micro segmentazione e firewall che possono essere attivate con un clic da NSX, anche l’erogazione di servizi di infrastruttura oppure ambienti per container Kubernetes, indifferentemente, dallo stesso sistema di provisioning. Un’altro punto è l’aumento di funzioni di machine learning nelle funzioni di gestione, altra cosa che converge verso l’automazione”.
Molte persone nell’IT sono scettiche nei confronti dell’automazione, per il timore di perdere il controllo da un lato, e di diventare meno indispensabili sul lavoro dall’altro. Qual è la sua percezione a riguardo?
“Sono preoccupazioni legittime, perché se implementata male l’automazione può portare a risultati indesiderati. La domanda da farsi però è: che cosa ricercano le funzioni di business nello staff IT? Cercano valore aggiunto. E il valore risiede principalmente nelle persone, nella loro esperienza e conoscenza dei processi specifici dell’azienda in cui lavorano.
Il punto della discussione è: come posso trasferire quelle funzioni (non le persone) in un software, e come le persone possono aiutare nel processo di automazione? Quello che incoraggiamo le aziende a fare è guardare ai loro processi di selezione e training del personale per ricercare o coltivare conoscenze in campo software, in modo che le nozioni e le abilità specifiche possano essere affiancate dalla capacità di ragionare sull’automazione dei processi. L’aspetto positivo è che se sono specialista di storage continuerò a esserlo, ma con la capacità di progettare e gestire l’automazione e gli ambienti virtualizzato nel mio campo specialistico.
Capisco il nervosismo di qualcuno riguardo al cambiamento, ma se ci si guarda allo specchio, in retrospettiva, si noterà che il cambiamento c’è sempre stato: è necessario cambiare e imparare per non rimanere indietro”.