Big Data e analytics: i principali trend attesi nel 2017

alfabetizzazione dei dati
Tra app, cloud ibrido e scalabilità, Qlik analizza le cinque tendenze principali che caratterizzeranno l’analisi dei dati nel corso dei prossimi 12 mesi.

Secondo Qlik gli ultimi dodici mesi sono stati caratterizzati dal miglioramento dell’analisi dei Big Data e dall’arrivo del cosiddetto “attivismo delle informazioni”. Questo significa che il numero di persone all’interno dell’azienda in grado attivamente di lavorare con l’enorme quantità di informazioni disponibili (data scientist, sviluppatori di applicazioni, analisti di business) ricoprono un ruolo sempre più cruciale.

Purtroppo, però, non ci sono ancora abbastanza professionisti con le competenze necessarie per gestire le crescenti quantità di dati, che crescono molto più velocemente rispetto alla nostra capacità di utilizzarli. Ecco perché molti dirigenti d’azienda si affidano anche per le decisioni più importanti ancora al proprio istinto.

La situazione deve quindi cambiare non solo puntando sull’aumento di data scientist a disposizione, ma anche ampliando le conoscenze dei dati ai non addetti ai lavori. Percorrendo la strada verso l’attivismo dell’informazione, bisogna insomma dotare un ampio numero di persone di tutti gli strumenti necessari per comprendere i Big Data.

Con questo complesso e variegato orizzonte che ci si presenta di fronte, Qlik ha individuato cinque trend che, più di tutti gli altri, caratterizzeranno l’ecosistema dell’analisi dei dati nel 2017.

1 – Big Data: riduzione delle dimensioni e aumento delle combinazioni

Ci si sta muovendo verso un modello in cui le aziende devono avere la capacità di combinare rapidamente i propri dati di grandi dimensioni con quelli di piccole dimensioni, in modo da poter acquisire le giuste intuizioni e ottenere valore dall’analisi il più rapidamente possibile. Combinando i dati nel modo giusto, sarà anche più semplice rilevare le informazioni false o errate.

2 – Modo di pensare ibrido

Il 2017 vedrà il cloud ibrido e multi-piattaforma come protagonista tra i modelli per l’analisi dei dati. Ma un solo cloud non è sufficiente, perché i dati e carichi di lavoro non saranno su una sola piattaforma. Inoltre, la gravità dei dati (Data Gravity) fa sì che la conservazione in supporti locali on-premise continuerà ancora a lungo. Il carattere ibrido e multi-ambiente emergerà come modello dominante, il che significa che i carichi di lavoro e la pubblicazione avverranno su cloud e on-premise.

3 – Self-service per tutti

Il freemium sta ormai diventando la normalità e nel 2017 gli utenti avranno un accesso più facile alle analisi. Il fatto che sempre più strumenti di visualizzazione dati siano disponibili a basso costo, o addirittura gratis, rende le analisi alla portata di tutti. Mano a mano che le persone si avvicineranno alle analisi, il tasso di alfabetizzazione dei dati aumenterà e di conseguenza anche l’attivismo dell’informazione.

4 – Scalabilità

Nel 2017 ci sarà un’ulteriore evoluzione con la sostituzione delle piattaforme di reporting del passato. I nuovi modelli apriranno l’analisi self-service dei dati a più persone e saranno in grado di soddisfare diverse esigenze in base a scalabilità, prestazioni, governance e sicurezza.

5 – Dalle app personalizzate alle analitiche nelle app

Non tutti possono essere sviluppatori e utilizzatori di app, ma tutti dovrebbero essere in grado di esplorare i propri dati. L’alfabetizzazione dei dati beneficerà delle analisi ottenute attraverso le applicazioni sviluppate a supporto delle specifiche situazioni e degli strumenti utilizzati per l’analisi dei dati.

Condividi:
 

Analytics automatizzati: nel 2020 saranno oltre il 40%

metriche kpi
Secondo Gartner tra quattro anni oltre il 40% dei processi di analytics sarà automatizzato e si assisterà a una crescita costante dei citizen data scientist.

Secondo un nuovo report di Gartner nei prossimi anni si assisterà a una forte crescita nella componente di automazione delle piattaforme analitiche. Le previsioni parlano infatti, per il 2020, di oltre il 40% dei compiti dei data scientist affidati a processi di analytics automatizzati; ciò permetterà una maggiore diffusione delle soluzioni di analytics e una crescita dei citizen data scientist.

Ma esattamente cosa sono i citizen data scientist? Stando a Gartner, si tratta di una nuova figura che sta a indicare chi crea o genera modelli che usano sistemi di analytics con funzioni prescrittive e predittive, ma la cui funzione principale in azienda è fuori dal campo della statistica e degli analytics.

Non si parla insomma né di data scientist tradizionali, figura sempre più ricercata ma altrettanto difficile da trovare, né di un normale utente business che si affida a soluzioni semplificate che aiutano nella creazione e nell’utilizzo dei modelli predittivi. Una via di mezzo insomma

Visto che l’analisi dei dati è sempre più un elemento di differenziazione tra le aziende, il vantaggio di poter sfruttare gli analytics anche con questa nuova figura (oltre che con le due appena descritte) è innegabile.

Analytics automatizzati

Anche perché, come ricorda Gartner, il numero di data scientist non riesce ancora a soddisfare i bisogni delle aziende, mentre gli information analyst, presenti in numero maggiore nelle aziende, possono trasformarsi citizen data scientist se hanno accesso a strumenti idonei.

Inoltre questa nuova figura professionale può svolgere alcune attività prima esclusive dei data scientist, rendendo quindi questi ultimi più produttivi. Non è un caso quindi se secondo il report nel 2019 la quantità di informazioni estratte dai citizen data scientist nelle applicazioni di analytics avanzate supererà quella estratta dai data scientist.

Questi continueranno però a rimanere indispensabili per le aziende, soprattutto per i progetti più complessi per i quali non basterà un approccio rivolto solo ai citizen data scientist, il cui apporto benefico sarà comunque sempre più elevato.

Per fare in modo però che questa suddivisione di compiti sia applicata nel giusto modo, sono necessari strumenti software di analytics più semplici e automatizzati, soprattutto quando bisogna compiere processi semplici e ripetitivi come l’integrazione tra le sorgenti dati e la definizione di modelli statistici. Compito che spetta ai produttori di software, che secondo Gartner potrebbero così diffondersi maggiormente all’interno delle aziende.

Condividi: