Quando lo storage non dipende dall’hardware
Quanto costa migliorare l’efficienza di un sistema di storage? Non poco se si considera l’aggiornamento dell’hardware e la complessità di integrare e far convergere sistemi diversi.
L’elemento critico è generalmente la capacità di vecchie SAN (storage area network) di gestire i picchi di attività di un moderno sistema di storage virtualizzato, capace, in alcuni momenti, di trovare colli di bottiglia anche nelle migliori infrastrutture di rete.
Tra le imprese che che finiscono sempre più spesso per confrontarsi con queste problematiche, dovendo gestire grandi quantità di dati anche sensibili, ci sono quelle dedicate a offrire servizi al pubblico, come le amministrazioni locali.
Le amministrazioni pubbliche sono infatti obbligate a garantire business continuity e prestazioni costanti anche in caso di picchi di attività ripidi e poco prevedibili. Il tutto dovendo sottostare, coi tempi che corrono, a rigidissimi vincoli di bilancio.
La quadratura del cerchio si può ottenere migliorando l’efficienza dell’esistente, intervenendo il meno possibile sull’aggiornamento dell’hardware, così da contenere i costi e applicando un’infrastruttura software di gestione molto flessibile, secondo l’impostazione detta software-defined storage. Questo approccio mette insieme hardware diversi connessi attraverso una SAN virtuale, capace di far fronte alle variazioni di intensità dell’attività e all’indisponibilità di alcuni componenti, meglio di molte strutture fisiche.
Ci si avvicina così al modello dell’iper-convergenza, ottenuta integrando al massimo i sistemi, collegando direttamente i Nas ai server e riducendo la complessità dell’infrastruttura, i cablaggi e le connessioni, lasciando che sia poi l’intelligenza del software a risolvere i problemi di topologia.
Il caso del comune di Bologna
Qualcosa di simile è stato realizzato lo scorso anno dall’amministrazione della città di Bologna, con i suoi 4300 dipendenti per 3500 postazioni di lavoro, 50 uffici e 200 scuole direttamente collegate all’infrastruttura. Quest’ultima era costituita da 2 server farm connesse in banda larga e contenenti 250 server, necessari a gestire un volume di 50 TB di dati.
Il system integrator bolognese 3Cime, che ha vinto la gara, ha dovuto spremere dal sistema una migliore affidabilità e continuità di funzionamento, aggiungere prestazioni e sostituire solo una parte dell’hardware ormai datato. Il tutto con una spesa contenuta al massimo.
Per questo è stata adottata la tecnica del software-defined storage, a partire dalla piattaforma SANsymphony-V10 di DataCore. In questo modo il sistema è diventato del tutto indipendente dall’hardware, a vantaggio dell’espandibilità futura, integrando senza problemi, secondo quanto dichiarato dall’AD di 3Cime, “storage IBM, Netapp, Nexsan e dischi flash HGST con 4 livelli di Tier sui due nodi metropolitani”.
Il progetto, portato a termine in sei mesi, ha raggiunto l’obiettivo primario del contenimento dei costi, anche in termini di manutenzione e gestione, portando inoltre una semplificazione delle operazioni di backup. Un buon risultato, sottolineato dal fatto che la stessa 3Cime è stata incaricata di proseguire il lavoro integrando le funzioni di disaster recovery, e un bell’esempio per i molti comuni italiani che hanno l’assoluta necessità di migliorare i propri servizi anche in epoca di spending review.