Un data center è una struttura fisica che le aziende utilizzano per ospitare le proprie applicazioni e informazioni business-critical. Man mano che i data center si evolvono, è importante pensare a lungo termine a come mantenere la loro affidabilità e sicurezza.

Cos’è un data center?

I data center sono spesso definiti come una cosa singolare, ma in realtà sono composti da una serie di elementi tecnici. Questi possono essere suddivisi in tre categorie:

  • Calcolo: la memoria e la potenza di elaborazione per eseguire le applicazioni, generalmente fornite da server di fascia alta
  • Archiviazione: i dati aziendali importanti sono generalmente ospitati in un data center, su supporti che vanno dal nastro alle unità a stato solido, con più backup
  • Rete: interconnessioni tra i componenti del data center e con il mondo esterno, inclusi router, switch, controller di distribuzione delle applicazioni e altro

Questi sono i componenti di cui l’IT ha bisogno per archiviare e gestire i sistemi più critici che sono vitali per le operazioni continue di un’azienda. Per questo motivo, l’affidabilità, l’efficienza, la sicurezza e l’evoluzione costante dei data center sono in genere una priorità assoluta. E anche le misure di sicurezza software e hardware rivestono un’importanza capitale.

I data center richiedono anche una quantità significativa di infrastrutture per mantenere l’hardware e il software attivi e funzionanti. Parliamo più precisamente di sottosistemi di alimentazione, gruppi di continuità (UPS), sistemi di ventilazione e raffreddamento, generatori di backup e cablaggio per la connessione a operatori di rete esterni.

Architettura del data center

Qualsiasi azienda di dimensioni significative avrà probabilmente più data center, possibilmente in più regioni. Ciò offre una certa flessibilità per eseguire il backup delle informazioni e proteggere dai disastri naturali e causati dall’uomo come inondazioni, tempeste e minacce terroristiche. L’architettura del data center può richiedere alcune decisioni difficili perché ci sono opzioni quasi illimitate. Alcune delle considerazioni chiave sono:

  • L’azienda richiede data center con mirroring?
  • Quanta diversità geografica è richiesta?
  • Qual è il tempo necessario per recuperare in caso di interruzione?
  • Quanto spazio è necessario per l’espansione?
  • Bisogna affittare un data center privato o utilizzare un servizio di co-locazione/gestito?
  • Quali sono i requisiti di larghezza di banda e alimentazione?
  • C’è un fornitore preferito?
  • Che tipo di sicurezza fisica è richiesta?

Le risposte a queste domande possono aiutare a determinare quanti data center costruire e dove. Ad esempio, una società di servizi finanziari a Manhattan probabilmente richiede operazioni continue poiché qualsiasi interruzione potrebbe costare milioni. La società deciderà probabilmente di costruire due data center nelle immediate vicinanze, come uno nel New Jersey e uno nel Connecticut, che si specchiano a vicenda.

Tuttavia, una piccola azienda di servizi professionali potrebbe non aver bisogno di un accesso immediato alle informazioni e può avere un data center principale nei propri uffici ed eseguire il backup delle informazioni su un sito alternativo in tutto il Paese ogni notte. In caso di interruzione, avvierebbe un processo per recuperare le informazioni ma non avrebbe la stessa urgenza di un’azienda che si basa su dati in tempo reale per un vantaggio competitivo. Sebbene i data center siano spesso associati ad aziende e fornitori di cloud su scala web, in realtà qualsiasi azienda può avere un data center. Per alcune PMI, il data center potrebbe essere una stanza situata nello spazio dell’ufficio.

data center

Standard del settore

Per aiutare i leader IT a capire quale tipo di infrastruttura implementare, nel 2005 l’American National Standards Institute (ANSI) e la Telecommunications Industry Association (TIA) hanno pubblicato degli standard per i data center, che definiscono quattro livelli discreti con linee guida di progettazione e implementazione. Un data center Tier 1 è fondamentalmente una sala server modificata, mentre un data center Tier 4 ha i più alti livelli di affidabilità e sicurezza del sistema. Una descrizione di ogni tipo di data center è disponibile qui.

I data center stanno attualmente attraversando una transizione significativa e il data center di domani avrà un aspetto molto diverso da quello con cui la maggior parte delle organizzazioni ha familiarità oggi. Le aziende stanno diventando sempre più dinamiche e distribuite, il che significa che la tecnologia che alimenta i data center deve essere agile e scalabile. Con l’aumentare della popolarità della virtualizzazione dei server, la quantità di traffico che si sposta lateralmente attraverso il data center (est-ovest) ha sminuito il tradizionale traffico client-server, che si muove dentro e fuori (nord-sud). Ciò presenta sfide per i gestori di data center e altre sfide sono all’orizzonte.

Ecco le tecnologie chiave che trasformeranno i data center da ambienti statici e rigidi che possono frenare gli obiettivi di business delle aziende in strutture fluide e agili in grado di soddisfare le esigenze di un’impresa digitale.

Edge computing e micro data center

L’edge computing è un paradigma sempre più popolare in cui gran parte del lavoro di calcolo che sarebbe stato tradizionalmente svolto in un data center centralizzato avviene più vicino al bordo della rete in cui vengono raccolti i dati. Ciò significa un minor ritardo per le applicazioni che richiedono un’azione quasi in tempo reale e una riduzione della quantità di larghezza di banda dei dati necessaria.

I micro data center sono unità compatte in grado di raccogliere, elaborare, analizzare e memorizzare i dati fisicamente vicino ai dispositivi che li raccolgono e il loro posizionamento in loco rende possibile l’edge computing. I micro data center vengono implementati a supporto di una serie di applicazioni, tra cui reti 5G, implementazioni di Internet of Things e reti di distribuzione dei contenuti.

Ci sono un certo numero di fornitori nello spazio del micro data center, alcuni con esperienza in aree adiacenti come IaaS (Infrastructure as a Service) o servizi di colocation. I micro data center sono spesso (ma non sempre) venduti come dispositivi preassemblati e “micro” copre una gamma abbastanza ampia di dimensioni. Possono variare da un singolo rack da 19 pollici a un container e l’amministrazione può essere curata dal venditore o affidata a un fornitore di servizi gestiti (MSP).

Il ruolo del cloud

Storicamente, le aziende potevano scegliere di creare il proprio data center o di utilizzare un fornitore di hosting o un MSP. Seguendo questi ultimi percorsi, la proprietà e gli aspetti economici della gestione di un data center sono stati spostati, ma sono rimasti i lunghi tempi di consegna necessari per implementare e gestire la tecnologia necessaria.

L’ascesa di un modello IaaS da parte di fornitori di servizi cloud come Amazon Web Services e Microsoft Azure ha offerto alle aziende un’opzione in cui possono eseguire il provisioning di un data center virtuale nel cloud con pochi clic del mouse. Nel 2019, per la prima volta le aziende hanno speso più annualmente in servizi di infrastruttura cloud rispetto all’hardware fisico del datacenter e più della metà di tutti i server venduti è andata nei data center dei fornitori cloud.

Tuttavia, il data center locale è tutt’altro che vicino alla pensione. In un sondaggio del 2020 dell’Uptime Institute, il 58% degli intervistati ha infatti affermato che la maggior parte dei propri carichi di lavoro è rimasta nei data center aziendali, citando la mancanza di visibilità nei cloud pubblici e la responsabilità per il tempo di attività come motivo per resistere alla migrazione verso soluzioni cloud.

Molte organizzazioni stanno però ottenendo il meglio da entrambi i mondi utilizzando un approccio cloud ibrido, in cui alcuni carichi di lavoro vengono scaricati su un cloud pubblico mentre altri che necessitano di maggiore controllo pratico o sicurezza continuano a essere eseguiti nel datacenter on-premise. Secondo il Flexera 2020 State of the Cloud Report, ben l’87% delle organizzazioni intervistate ha una strategia di cloud ibrido.

Software-defined networking (SDN)

Separando il piano di controllo della rete che decide il modo migliore per instradare il traffico dal piano dati che inoltra i pacchetti da un punto a un altro, le reti possono essere rese più efficienti e flessibili e possono essere facilmente ottimizzate tramite software per adattarsi ai mutevoli carichi di lavoro.

Questa architettura è nota come software-defined networking (SDN) e può essere applicata ai datacenter. Tramite controller di rete che forniscono e gestiscono l’hardware del data center, i data center possono essere configurati molto più rapidamente, spesso utilizzando comandi in linguaggio semplice che eliminano la configurazione manuale che richiede tempo ed è soggetta a errori.

Infrastruttura iperconvergente (HCI)

Una delle sfide operative dei data center è quella di dover mettere insieme la giusta combinazione di server, dispositivi di archiviazione e di rete per supportare applicazioni esigenti. Quindi, una volta che l’infrastruttura è stata distribuita, le operazioni IT devono capire come scalare rapidamente senza interrompere l’applicazione. HCI semplifica tutto ciò fornendo appliance facili da implementare basate su hardware che forniscono potenza di elaborazione, archiviazione e rete, il tutto in un unico componente hardware. L’architettura può essere scalata aggiungendo più nodi. Una HCI può offrire una serie di vantaggi ai data center tradizionali, tra cui scalabilità, integrazione cloud, configurazione e amministrazione più semplici.

cloud ibrido

Container, microservizi e mesh di servizi

Lo sviluppo delle applicazioni è spesso rallentato dal tempo necessario per il provisioning dell’infrastruttura su cui viene eseguito. Ciò può ostacolare in modo significativo la capacità di un’organizzazione di passare a un modello DevOps. I container sono un metodo per virtualizzare un intero ambiente di runtime che consente agli sviluppatori di eseguire le applicazioni e le loro dipendenze in un sistema autonomo. I container sono molto leggeri e possono essere creati e distrutti rapidamente, quindi sono ideali per testare il funzionamento delle applicazioni in determinate condizioni.

Le applicazioni containerizzate sono spesso suddivise in singoli microservizi (ognuno dei quali incapsula una piccola parte di funzionalità), che interagiscono tra loro per formare un’applicazione completa. Il compito di coordinare questi container individuali ricade su una forma architettonica nota come mesh di servizi, che sebbene svolga molto lavoro per astrarre la complessità dagli sviluppatori, ha bisogno di cura e manutenzione.

L’automazione e la gestione dei servizi mesh dovrebbero essere integrate in sistemi di gestione della rete di data center completi, soprattutto quando le distribuzioni di container diventano più numerose, complesse e strategiche.

Microsegmentazione

I data center tradizionali hanno tutta la tecnologia di sicurezza al centro, quindi quando il traffico entra ed esce da essi passa attraverso gli strumenti di sicurezza e protegge l’azienda. L’aumento del traffico orizzontale all’interno dei datacenter significa che il traffico aggira firewall, sistemi di prevenzione delle intrusioni e altri sistemi di sicurezza e consente al malware di diffondersi molto rapidamente. La microsegmentazione è un metodo per creare molti segmenti all’interno di un data center in cui gruppi di risorse possono essere isolati l’uno dall’altro; se quindi si verifica una violazione, il danno è contenuto in un segmento. La microsegmentazione viene tipicamente eseguita a livello software, rendendo il tutto molto agile.

Non-volatile memory express (NVMe)

Tutto è più veloce in un mondo che sta diventando sempre più digitalizzato e ciò significa che i dati devono spostarsi più velocemente dentro e fuori dallo storage del data center. I protocolli di archiviazione tradizionali come SCSI (Small Computer System Interface) e Advanced Technology Attachment (ATA) esistono da decenni e stanno raggiungendo il loro limite.

NVMe è un protocollo di archiviazione progettato per accelerare il trasferimento di informazioni tra sistemi e unità a stato solido, migliorando notevolmente le velocità di trasferimento dei dati. NVMe non si limita solo alla connessione a chip di memoria a stato solido: NVMe over Fabrics (NVMe-oF) consente ad esempio la creazione di reti di archiviazione super veloci con latenze che rivaleggiano con lo storage collegato diretto.

Calcolo tramite GPU

Le unità di elaborazione centrale (CPU) hanno alimentato l’infrastruttura del data center per decenni, ma la legge di Moore sta andando incontro a limitazioni fisiche. Inoltre, nuovi carichi di lavoro come analisi dati, machine learning e IoT stanno portando alla necessità di un nuovo tipo di modello di calcolo che superi ciò che le CPU possono fare. Le unità di elaborazione grafica (GPU), una volta utilizzate solo per i videogiochi, funzionano in modo fondamentalmente diverso, poiché sono in grado di elaborare molti thread in parallelo.

Di conseguenza, le GPU stanno trovando sempre più posto nel moderno datacenter, che ha sempre più il compito di farsi carico di soluzioni di intelligenza artificiale e reti neurali. Ciò si traduce in una serie di cambiamenti nell’architettura dei data center, da come sono collegati alla rete a come vengono raffreddati.

I data center sono sempre stati fondamentali per il successo di aziende di quasi tutte le dimensioni e tutto ciò non cambierà. Tuttavia, il numero di modi per implementare un data center e le tecnologie abilitanti stanno subendo un cambiamento radicale. Le tecnologie che accelerano questo cambiamento sono quelle che saranno necessarie in futuro.