Rinnovamento nel data center dell’Università di Firenze, all’insegna della virtualizzazione
Marius Spinu è Dirigente dell’Area innovazione e gestione sistemi informativi dell’Università di Firenze, divisione che ha una “mission” ben definita e articolata in tre punti:
- La gestione operativa dei Sistemi Informativi dell’ateneo;
- La creazione di un livello di collaborazione tra tutte le strutture che partecipano allo sviluppo dei sistemi, per creare un’architettura e una piattaforma condivisa, risolvendo un problema di frammentazione nella definizione, diffusione e utilizzo dei sistemi;
- La costruzione di una piattaforma dedicata all’innovazione, in collaborazione con i dipartimenti di ingegneria Informatica e quello di Statistica, Informatica e Applicazioni.
Secondo Spinu, “la parte più sfidante è stata quella di creare un unico sistema informativo con un’architettura e una sua logica di funzionamento, laddove oggi ogni gruppo si adopera per le risorse di propria competenza, senza il necessario coordinamento”. Per affrontare la sfida, è stata fatta una revisione architetturale dei Sistema Informativo, partendo da due elementi: una buona connettività fornita da una dorsale a 10Gbps su tutta l’università e un un data center preesistente in cui era presente un gruppo che ha lavorato molto bene su container e software open source, ma che dedicava molte energie ad attività che potevano essere ottimizzate, soprattutto nell’ambito della virtualizzazione e in termini di scalabilità dei sistemi.
I server Dell sono stati acquistati su Consip, mentre le licenze VMware necessarie a tutta la piattaforma sono state acquistate grazie a una convenzione con la Conferenza dei Rettori delle Università Italiane. In breve tempo è stato possibile creare un data center parallelo all’esistente, definendo due cluster distinti:
- Un cluster “general purpose” dove eseguire applicazioni di supporto all’amministrazione ma anche server dedicati al mondo della ricerca, a supporto di progetti temporanei;
- Un secondo cluster dedicato ai desktop virtuali, basato su VMware Horizon e cambiando logica della distribuzione dei computer.
“Nel cluster general purpose stiamo verificando se le risorse avanzate possono essere dedicate agli studenti per creare infrastrutture complesse e difficili da attivare in altro modo, da usare come sandbox che vengono resettate con periodicità. Architetture tipo Hadoop per Big Data o quelle a supporto di iniziative di Intelligenze artificiali non sono per niente facili da replicare a casa o in un laboratorio universitario. In questo modo sarà invece possibile per gli studenti “mettere mano” davvero sulle sulle infrastrutture necessarie a realizzare i progetti che vedono nei corsi e nei master”, afferma Spinu. Riguardo alla virtualizzazione dei desktop si è partiti invece dalle aule informatiche, per poi portare i pc nelle aule didattiche delle altre discipline, standardizzando le postazioni delle aule con thin client che montano a bordo tutti i viewer necessari alle lezioni. In seguito, la virtual desktop infrastructure verrà estesa anche anche al telelavoro, dando seguito alla normativa che incoraggia la PA a fare ricorso a modalità di smart working. L’obiettivo è di attivare entro l’anno 40 postazioni, con lavoro da remoto anche parziale. “Con un desktop virtuale si risolvono in un colpo solo diversi problemi in termini di sicurezza, e conformità al GDPR, in quanto i dati sensibili non vengono trasferiti all’esterno dell’infrastruttura”, commenta Spinu.
Oltre agli aspetti tecnici, il progetto ha richiesto cambiamenti anche sul fronte metodologico, portando a uno stile di project management più agile, evitando che la gestione del progetto sia più laboriosa del progetto stesso, ma anche il convincimento di alcuni colleghi meno propensi al cambiamento. “La creazione di una infrastruttura unica ha suscitato in alcuni gruppi il timore di perdere il controllo, e ci sono state perplessità rispetto all’uso di tecnologie proprietarie al posto di soluzioni open source, ma queste sono state superate dalla necessità di dare servizi sempre migliori con risorse sempre più scarse. La creazione di soluzioni ad-hoc è bella e gratificante, ma porta via troppo tempo”, conclude Spinu.
Nel progetto, l’Università di Firenze è stata accompagnata direttamente da VMware lungo tutto il processo: progettazione, installazione, configurazione e formazione del personale. Grazie a questo, una prima versione del data center (con un utilizzo meno spinto di NSX e senza micro segmentazione) sarà online entro fine gennaio, un buon risultato secondo Spinu, considerato che il progetto è iniziato lo scorso maggio.