I dati nel 2018: le cinque previsioni di NetApp
Parliamo sempre più spesso di come il mondo stia cambiando radicalmente e rapidamente. La trasformazione digitale è, o dovrebbe essere, il fulcro della strategia IT di qualsiasi azienda e al centro di tutto questo ci sono i dati. Poiché i dati continuano a essere ancora più distribuiti, dinamici e diversificati, tutto, partendo dalle infrastrutture IT fino alle architetture applicative e alle strategie di provisioning, dovrà cambiare in risposta alle nuove realtà del mondo del cloud ibrido. È guardando a questo contesto che NetApp ha elaborato cinque previsioni per il 2018 incentrate proprio sui dati.
1 – Dati auto-consapevoli
Man mano che i dati si diversificano rispetto a quelli a cui siamo abituati oggi, acquisendo addirittura una certa consapevolezza e autonomia, cambia anche il modo di gestirli. I metadati consentiranno infatti ai dati stessi di trasportarsi, classificarsi, analizzarsi e proteggersi. I flussi tra i dati, le applicazioni ed elementi di archiviazione storage saranno mappati in tempo reale in modo da rendere disponibili le informazioni esatte di cui un utente ha bisogno, nel momento esatto in cui servono.
Tutto questo introduce anche la possibilità che i dati si “auto-gestiscano”. Saranno infatti i dati stessi a determinare chi ha il diritto di accedervi, condividerli e utilizzarli, con implicazioni più ampie in materia di protezione dei dati esterni, privacy, governance e sovranità dei dati. Quando i dati sono auto-consapevoli, possono essere taggati in modo tale da controllare chi vi accede, quali dati rendere disponibili a chi e quando, senza ulteriore dispendio di tempo e potenzialmente senza l’intervento da parte dell’essere umano, che potrebbe anzi commettere degli errori nel processo di suddivisione e approvazione dei dati diffondendo informazioni preziose a soggetti non autorizzati.
2 – Macchine virtuali come rideshare
Questa tendenza può essere pensata negli stessi termini in cui si pensa al decidere di acquistare una macchina o, piuttosto, di prenderla in leasing o di utilizzando un servizio di rideshare come Uber. Per una persona che trasporta carichi pesanti ogni giorno, forse ha senso comprare un camion. Ma se invece si ha bisogno di un determinato tipo di veicolo solo per un determinato periodo di tempo, potrebbe essere più pratico affittarlo.
E poi, c’è chi ha bisogno solo di un veicolo per andare da un luogo all’altro un’unica volta; il tipo di veicolo non ha importanza, quello che conta sono solo velocità e convenienza e pertanto un servizio di rideshare risulta l’opzione migliore. Questo stesso processo di valutazione si applica nel contesto delle macchine virtuali rispetto a quelle fisiche. L’hardware personalizzato può essere costoso, ma per carichi di lavoro consistenti e intensi può avere più senso investire in un’infrastruttura fisica.
Dotarsi di una macchina virtuale in cloud in grado di supportare carichi di lavoro variabili è come una forma di leasing: gli utenti possono accedervi senza possederla o dover conoscere i dettagli della macchina virtuale. Le macchine virtuali distribuite su un’infrastruttura webscale (ovvero serverless computing) sono come il servizio di condivisione di computing, in cui gli utenti specificano semplicemente l’attività che deve essere eseguita, lasciando al cloud provider la gestione di tutti i dettagli. Per determinati tipi di carichi di lavoro questo modello risulta più conveniente e più facile da usare rispetto ai modelli tradizionali.
3 – Trasportare i dati non sarà un problema
Non è un segreto che i dati siano diventati incredibilmente dinamici e vengano generati a un ritmo senza precedenti, che supererà di molto la capacità di trasportarli. Tuttavia, invece di spostare i dati, saranno le applicazioni e le risorse necessarie per elaborarli che verranno spostate sui dati stessi. Tutto questo avrà implicazioni per nuove architetture sia per edge, core e cloud. In futuro, la quantità di dati processati nel core sarà sempre inferiore a quelli generati dall’edge, ma non sarà un caso.
Questo processo deve infatti essere abilitato deliberatamente, in modo da garantire che i giusti dati vengano conservati in attesa della decisione successiva. Ad esempio, le case automobilistiche stanno aggiungendo alle proprie auto sensori che generano così tanti dati che non esistono reti abbastanza veloci per muovere i dati dall’auto al data center.
Storicamente, i dispositivi edge non hanno mai creato una grossa quantità di dati ma ora, con sensori in ogni prodotto, dalle automobili ai termostati ai dispositivi indossabili, i dati dei dispositivi edge stanno crescendo così velocemente che superano la capacità delle reti di connettersi con il core. Le automobili a guida autonoma e gli altri tipi di dispositivi periferici richiedono analisi in tempo reale per prendere decisioni critiche e immediate. Di conseguenza, dovremo spostare le applicazioni stesse sui dati.
4 – Stato solido per gli Huge Data
La memoria persistente è ciò che consentirà un calcolo computazionale con una latenza ultra-bassa senza perdita di dati. Ciò finirà col forzare le architetture software a cambiare e a creare nuove opportunità per le aziende guidate dai dati. La tecnologia Flash è stata un cambiamento chiave nel settore. Tuttavia, il software in esecuzione su questo genere di tecnologie non cambia, ma è diventato semplicemente più veloce.
Tutto questo ha guidato l’evoluzione del ruolo dell’IT all’interno delle organizzazioni. In passato, la funzione principale dell’IT era quella di automatizzare e ottimizzare processi come ordini, fatturazione, contabilità clienti e altre attività. Oggi, l’IT è fondamentale per arricchire le relazioni con i clienti offrendo servizi alwayson, app mobili e esperienze rich web. Il prossimo passo sarà monetizzare i dati raccolti attraverso vari sensori e dispositivi per creare nuove opportunità di business ed è questo passaggio che richiederà nuove architetture applicative supportate da tecnologie come la memoria persistente.
5 – Meccanismi decentralizzati
Meccanismi decentrati come la blockchain sfidano il tradizionale senso di protezione e gestione dei dati. Poiché non esiste un punto centrale di controllo, come un server centralizzato, è impossibile modificare o eliminare le informazioni contenute in una blockchain e tutte le transazioni sono irreversibili. È come un sistema biologico. Esiste una miriade di piccoli organismi e ognuno di loro sa cosa deve fare, senza dover comunicare con qualcos’altro o aspettare di sapere cosa fare.
Bastano un po’ di nutrienti, che nel nostro caso sono i dati. I nutrienti sanno cosa fare e tutto inizia a funzionare in modo cooperativo, senza alcun controllo centrale, come all’interno di una barriera corallina. Gli attuali data center e applicazioni operano come fattorie gestite commercialmente, con un punto di controllo centrale (l’agricoltore) che gestisce l’ambiente circostante. I meccanismi decentralizzati e immutabili per la gestione dei dati offriranno microservizi che i dati potranno utilizzare per svolgere le funzioni necessarie. I microservizi e i dati funzioneranno in modo cooperativo, senza un controllo globale gestito centralmente.