È già ora di mandare in pensione gli hard disk tradizionali?
In un mare di dati che nel 2020 raggiungerà i 40 mila exabyte, nel quale navigano aziende con un fardello da qualche petabyte ciascuna, è difficile immaginare il successo di sistemi di archiviazione caratterizzati da un elevato costo al gigabyte. Eppure il data mining veloce e l’analisi predittiva richiedono prestazioni elevate per lo storage, che storicamente mal si conciliano con le grandi quantità e con i budget IT da tenere sotto controllo.
Questo è ancora più vero nelle applicazioni enterprise, dove data center cloud enabled e fortemente virtualizzati spremono a fondo l’hardware e richiedono allo storage latenze che, in caso di applicazioni mission-critical, non dovrebbero allontanarsi dal millisecondo. Una tale ricerca di prestazioni estreme vede nello storage flash l’unica opzione possibile.
La strategia finora adottata da gran parte delle aziende medie e grandi, è stata l’aggiunta di quantità più o meno importanti di memoria allo stato solido su sistemi di storage tradizionali preesistenti, e già capaci di sostenere volumi elevati di informazioni.
Tali sistemi, cosiddetti ibridi, si servono di livelli (tier) su cui spostare i dati in funzione dell’effettiva necessità di prestazioni connesse al loro accesso. Così le informazioni più spesso oggetto di interrogazione si disporranno automaticamente in un livello basato su hardware flash, mentre i dati più vecchi e meno richiesti resteranno sui poco costosi dischi magnetici.
i sistemi ibridi categorizzano i dati in livelli (tier) in funzione della necessità di velocità di accesso, e li spostano sulle memorie flash
Questo approccio funziona bene finché il database non richiede l’accesso a un dato taggato dal sistema come meno importante. Quando questo accade, il rallentamento è evidente, e le prestazioni possono risultare inaccettabili per alcune applicazioni, come quelle che richiedano un veloce ed efficiente rapporto con il pubblico del Web, ovvero nell’e-commerce, dove pochi secondi di attesa possono far perdere potenziali clienti.
Scarica il white paper gratuito: NetApp All Flash FAS: le performance della tecnologia flash coniugate a funzionalità complete di storage enterprise
La decisione di modulare la quantità di flash presente in un sistema ibrido è quindi una variabile dipendente dall’ampiezza del sottoinsieme di dati a cui si accede con maggior frequenza, ed è evidente come aumentando la quantità di flash si possano facilmente ridurre i colli di bottiglia, fino ad annullarli nelle configurazioni in cui gli hard disk scompaiono e vengono del tutto soppiantati da Ssd. Attualmente sono però ancora poche le aziende che si affidano a soluzioni all-flash, temendo costi troppo elevati in rapporto all’ampiezza dell’archivio da gestire.
In realtà il prezzo delle memorie flash sta scendendo costantemente, mentre cresce la loro affidabilità, al punto da consentire alle aziende di considerare gli Ssd come reali alternative allo storage magnetico tradizionale. Inoltre, come vedremo, un sistema completamente basato su storage flash può funzionare secondo modalità meno macchinose di quelle dei sistemi ibridi, offrendo vantaggi aggiuntivi, oltre all’evidente incremento di prestazioni complessive.
A ciascuno il suo
Attualmente le soluzioni ibride sono le più diffuse. Proposte da ogni vendor, sfruttano la considerazione che in ogni applicazione la parte attiva dei dati è una porzione relativamente piccola dell’insieme delle informazioni archiviate. Le unità allo stato solido possono quindi lavorare come una sorta di cache ad alte prestazioni per i dischi magnetici sottostanti, che si fanno carico della mole più impegnativa dei dati.
Questo principio richiede un software di gestione intelligente molto sofisticato, che garantisca continui spostamenti preventivi verso le memorie flash di tutto ciò che il sistema intuisce potrà servire alle elaborazioni successive. Vanno benissimo con database e con applicazioni di desktop virtualization, almeno fino a quando non sia richiesto l’accesso a informazioni che fanno parte dell’archivio più ‘profondo’, come avviene spesso nelle attività di data mining.
Secondo una ricerca IDC del 2013, sulle aziende con più di 1000 dipendenti, poco più del 51% aveva adottato una qualche forma di storage flash. Oltre il 60% aveva semplicemente aggiunto una porzione di Ssd come tier aggiuntivo o come cache su un sistema di Hdd preesistente, mentre nel 18% dei casi era stato implementato un sistema ibrido ex-novo. Da allora la tecnologia flash si è fatta ulteriormente strada e l’architettura quantomeno ibrida è ormai la soluzione standard per lo storage enterprise.
La scelta di adottare un sistema ibrido tutto nuovo presenta dei vantaggi in termini di efficienza e omogeneità delle prestazioni nel delicato processo di auto-tiering, ovvero nel lasciare al software l’incombenza di decidere quali siano i dati hot rispetto a quelli cold.
Esistono però scenari di utilizzo tipici in cui la semplice adozione di un tier di memoria flash ha portato vantaggi nelle prestazioni complessive anche superiori al 70%. Questo avviene quando i dati a cui accedere sono sostanzialmente sempre gli stessi, secondo un andamento facilmente prevedibile, senza eccessive variazioni nel corso del tempo. In simili situazioni è possibile raggiungere prestazioni importanti con una spesa di aggiornamento del sistema di storage assolutamente abbordabile.
Per contro i sistemi all-flash, non avendo bisogno di tiering, offrono prestazioni costanti in qualsiasi scenario di utilizzo, al punto da consentire di prevedere con precisione i tempi di elaborazione. Se l’azienda ha clienti di servizi cloud, può quindi garantire, anche contrattualmente, prestazioni minime assicurate per lo storage.
I vantaggi dell’all-flash sono massimi nei sistemi fortemente virtualizzati
I vantaggi dell’all-flash sono massimi nei sistemi fortemente virtualizzati, dove l’uso di Ssd comporta un consistente incremento del boot time per le virtual machines. Il software di gestione dello storage flash sfrutta inoltre la sua velocità per fare un ampio uso delle tecniche di deduplica, che risparmiano spazio e portano notevoli vantaggi negli scenari in cui si fa molto uso di dati ridondanti.
Uno degli utilizzi tipici di un sistema all-flash è di affiancarlo ad altri sistemi di storage per gestire solo app mission critical in cui la velocità è determinate. In questo caso è però spesso necessario l’intervento di un amministratore esperto, che decida di volta in volta di caricare i dati necessari alle applicazioni a cui legare lo storage flash. Appare comunque evidente che la diminuzione del Tco dei sistemi di archiviazione allo stato solido porterà ad allargarne sempre più il campo di utilizzo nei prossimi anni.
I costi reali dello storage
L’elemento che tiene ancora lontane le aziende dall’adozione in massa di soluzioni all-flash è senz’altro il prezzo al gigabyte. Pur caratterizzato da un continuo calo, questo rimane infatti, nel caso degli Ssd, cinque o sei volte superiore rispetto a corrispondenti sitemi di archiviazione tradizionali. Potrebbe sembrare un abisso incolmabile, ma a ben guardare le distanze già oggi non sono poi così grandi. Se si valuta infatti il Tco, invece del prezzo iniziale, ci si rende conto che lo storage tradizionale presenta costi di manutenzione e consumi che incidono non poco sul reale impegno che l’azienda deve sostenere per mantenerlo in efficienza nel medio periodo.
Si calcola che in un sistema basato su hdd magnetici, il prezzo iniziale di acquisto concorra al Tco a tre anni per appena il 20%, mentre il resto è costituito da manutenzione ordinaria, guasti, calore dissipato ed energia consumata.
Il prezzo iniziale di un disco magnetico è sì basso, ma incide solo per il 20% sul TCO a tre anni: manutenzione, guasti, energia e calore compongono il resto
I dischi allo stato solido non hanno parti in movimento, e sono quindi meno soggetti ai guasti, anche se più sensibili alle brusche interruzioni di corrente. Inoltre consumano pochissima energia, circa un decimo di quella dei dischi tradizionali, e non sprecano calore come i cugini elettromeccanici.
Scarica il white paper gratuito: NetApp All Flash FAS: le performance della tecnologia flash coniugate a funzionalità complete di storage enterprise
Sono anche più compatti, permettendo di realizzare array molto densi in poco spazio fisico. Quanto all’affidabilità e alla durabilità delle informazioni memorizzate su flash, gli algoritmi di scrittura adottati dai moderni sistemi di storage sono sempre più intelligenti e in grado di garantire lunga vita anche alle unità flash più economiche.
Un vendor per tutte le stagioni
Sul mercato esistono produttori di sistemi di storage specializzati in flash e altri che puntano ancora molto su soluzioni tradizionali. L’ideale è affidarsi a un partner in grado di offrire il giusto mix per ogni possibile scenario, e non sono in molti a garantire questa ampiezza di vedute. Questo cocktail riesce bene a NetApp da più di vent’anni. Nel suo listino ci sono ampie possibilità per l’ibrido e due soluzioni all-flash: EF-Series e All-Flash FAS, specializzate per affrontare diverse esigenze. Le prime offrono un avanzato virtual storage tier, combinato con una gestione intelligente che riduce al minimo l’intervento umano, promuovendo i dati attivi al livello di prima lettura in modo automatico e intelligente. I sistemi sono scalabili e adattabili alle esigenze più diverse, così da raggiungere la massima efficienza nel bilanciare il costo per Iops e quello per gigabyte.
Gli array all-flash garantiscono performance fino a 20 volte superiori rispetto ai sistemi di storage tradizionali, con latenze nell’accesso al database ridotte del 95% e pieno sfruttamento delle Cpu del server. All Flash FAS è una piattaforma scalabile specificamente progettata per operare in ambienti virtualizzati senza interruzioni, integrando la protezione dei dati. Può essere usta da sola per le applicazioni mission critical o come tier più veloce in sistemi che usano altri livelli di storage.
Per chi cerca le prestazioni estreme operando con una larghezza di banda elevatissima e minima latenza, NetApp ha invece sviluppato i sistemi EF-Series con l’OS SANtricity. Progettati per ambienti SAN, raggiungono i 650 mila IOPS di attività sostenuta mantenendo un tempo di risposta costantemente sotto il millisecondo.