Data governance: i sette errori più comuni da evitare

data governance
Oggi ogni transazione di dati è una transazione commerciale: per questo è fondamentale creare un framework di data governance solido, adattabile, sicuro e con il minimo numero di errori

La maggior parte dei CIO sa che una cattiva gestione dei dati può portare a problemi finanziari, reputazionali, legali e di ogni altro tipo. Ecco perché avere una solida politica di governance dei dati, che garantisca sicurezza e conformità ma che sia anche accessibile e gestibile, è una priorità assoluta per qualsiasi organizzazione impegnata nell’integrità e nella conservazione dei dati.

Sfortunatamente, poiché i requisiti e le pratiche di data governance sono ancora in evoluzione, è facile per i leader IT cadere in insidie che, nel tempo, possono minare anche gli sforzi di pianificazione migliori. Per evitare che la vostra organizzazione cada in una trappola che può rendere la sua politica di governance dei dati inefficace o addirittura pericolosa, ecco sette errori comuni che devono essere evitati a tutti i costi.

Trattare la data governance come un progetto tecnologico

Data la natura intrinsecamente fluida della governance dei dati, lo sviluppo delle policy non dovrebbe essere visto come un progetto che può essere semplicemente pianificato e rilasciato. Una politica di governance dei dati che non riesce a stare al passo con i requisiti in evoluzione alla fine fallirà. Peggio ancora, una tale politica può essere vista come un fastidioso impedimento per portare a termine il lavoro, spingendo i team a creare le proprie soluzioni alternative.

Bisogna trattare la data governance come se fosse una sfida aziendale, suggerisce Rajiv Mirani, CTO di Nutanix. I dati sono una risorsa che deve essere compresa e protetta dall’organizzazione, “simile al modo in cui molte aziende implementano processi di gestione del contante, che sono pienamente compresi e accettati dall’organizzazione perché si comprende l’importanza di gestire il contante in modo sicuro. “

Un importante compito di governance che viene spesso trascurato è valutare sia la quantità, sia il tipo di dati raccolti e conservati. “I dati possono avere un valore enorme se utilizzati in modo appropriato, ma alla fine i vantaggi sono limitati ai dati che potete gestire, sfruttare e proteggere”, spiega Mirani. “È importante valutare attentamente i pro e i contro dei dati e non limitarsi a acquisirli e conservarli per impostazione predefinita”.

Trascurare di trasmettere il valore aziendale complessivo della data governance

La governance dei dati deve essere un’iniziativa che deve coinvolgere l’intera organizzazione, afferma Crystal Singh, analista e direttore della ricerca presso Info-Tech Research Group. “I programmi di governance dei dati efficaci sono allineati o mappati alle capacità aziendali e ai flussi di valore. Alla fine si avvicinano agli obiettivi organizzativi più ampi stabiliti dalla leadership senior”.

È importante garantire che la governance dei dati non sia percepita solo come un progetto del dipartimento IT. “Questo non è solo vitale per garantire e mantenere il consenso della leadership senior e il supporto che, si spera, vada oltre i luoghi comuni. È fondamentale anche per la scalabilità e il successo duraturo del programma di governance dei dati”.

Quando un CIO non riesce ad articolare e dimostrare chiaramente come la data governance e le iniziative associate a essa stiano aiutando a ottenere risultati positivi e miglioramenti della produttività “il tutto rimane solo un concept eccellente ma dall’esecuzione pressoché inutile”, afferma Singh.

Non riuscire a coinvolgere i proprietari dei dati nel processo di governance dei dati

Il più grande errore è non coinvolgere i proprietari di dati nel processo di governance e non ottenere il loro consenso, afferma Kathy Rudy, chief data and analytics officer per la società di consulenza e ricerca tecnologica ISG. “L’organizzazione che governa e gestisce i dati per l’azienda non necessariamente “possiede” i dati che governa. Più probabilmente, unità aziendali o dipartimenti specifici sono i proprietari effettivi, con i team di governance che fungono semplicemente da amministratori dei dati. In molte organizzazioni, trovare il proprietario dei dati può essere di per sé una sfida, poiché spesso il proprietario non si riconosce come il proprietario finale dei dati”.

La Rudy crede che sia importante comunicare i piani e i vantaggi del programma di governance dei dati direttamente ai proprietari dei dati finali. Dopo aver ottenuto il loro consenso, chiedete chi, nella loro organizzazione, può collaborare al programma. “Comunicate i progressi lungo la catena e chiedete supporto per sbloccare eventuali resistenze o obiezioni incontrate durante l’implementazione del programma”.

Il buy-in è particolarmente importante per la parte più difficile di qualsiasi programma dati: costruire la tassonomia dei dati e la piattaforma che gestirà i dati. “In quasi tutti i casi, ciò richiederà modifiche alle strutture dei dati e la pulizia dei dati non in linea con la tassonomia aziendale. Senza il consenso dei proprietari dei dati che hanno influenza sulle fonti stesse di dati, il vostro programma non avrà successo”.

Trascurare le valutazioni d’impatto

La combinazione di una valutazione dell’impatto sulla protezione dei dati (DPIA) con una valutazione dell’impatto sulla privacy (PIA) è il modo migliore per capire chi, cosa, quando, dove, perché e come della raccolta, dell’uso, della divulgazione e dell’elaborazione dei dati, afferma Dana Mueller, architetto della conformità presso la società di sicurezza informatica e conformità Laika. “Le organizzazioni che non eseguono una DPIA/PIA completa possono essere svantaggiate dall’incomprensione dei dati che gestiscono/mantengono e da come proteggere adeguatamente i dati dall’uso/divulgazione non autorizzati”.

data mining

Definire la governance dei dati senza l’infrastruttura per sostenerli

Un errore critico commesso da molti leader IT è l’introduzione di policy di governance dei dati senza prima assicurarsi che tutte le parti chiave dell’azienda dispongano degli strumenti e delle conoscenze per implementarle in modo efficace.

“Se definite centralmente le policy e trasferite una nuova piattaforma di dati cloud senza un modo centralizzato per gestirla, i team aziendali costruiranno i propri strumenti per gestire i dati a modo loro”, avverte Patrick Barch, direttore della gestione dei prodotti presso la società di servizi finanziari Capital One.

Bisogna invece creare gli strumenti e i team necessari per aderire correttamente alla politica di governance dei dati prima di avviarla. “Consentendo a tutte le attività di risiedere in una posizione centrale, i team di governance dei dati possono confidare che gli standard aziendali vengano rispettati mentre si tiene traccia di tutto ciò che potrebbe uscire dalla policy”, afferma Barch. Questo approccio riduce il carico complessivo di gestione dei dati dei team aziendali, consentendo al personale di dedicare più tempo a lavorare con i dati e meno tempo a gestirli.

Dimenticare che l’educazione alla governance dei dati è in corso

Non accettare la realtà di un ambiente di lavoro in evoluzione che incoraggia i dipendenti ad adottare nuove piattaforme di condivisione dei dati può, nel tempo, rovinare completamente una politica di governance dei dati.

Ajay Bhatia, direttore generale dell’unità di conformità digitale presso il fornitore di sicurezza dei dati aziendali Veritas Technologies, raccomanda di istruire regolarmente tutti i dipendenti sugli strumenti e sulle politiche di governance dei dati. “La condivisione delle informazioni su app non autorizzate avviene troppo spesso semplicemente perché i dipendenti non conoscono o non comprendono appieno gli strumenti disponibili, né le conseguenze per l’azienda derivanti dall’utilizzo di app non autorizzate”.

Bhatia suggerisce anche di ascoltare i dipendenti prima di standardizzare un set specifico di strumenti di collaborazione e messaggistica. “Gli strumenti di cui disponete possono soddisfare le esigenze dell’azienda, ma i vostri dipendenti si sentono soddisfatti da questi strumenti?”. Discutere attivamente degli strumenti di messaggistica e collaborazione che i dipendenti desiderano utilizzare prima di tracciare il limite su dispositivi e servizi non approvati aiuterà a mantenere i dati al sicuro all’interno delle linee guida della politica di governance. “La vostra flessibilità e la loro comprensione aiuteranno a controllare la condivisione di informazioni sensibili su strumenti che sono assolutamente da evitare”, afferma Bhatia.

Non riuscire a designare un leader forte

Quando si sviluppa una strategia di governance dei dati, la responsabilità dovrebbe essere affidata a un capo progetto designato. Questo membro senior del team IT siederà al tavolo con i colleghi di lavoro per elaborare una politica solida e dettagliata che soddisfi tutti gli obiettivi prefissati. “Il leader deve contribuire a creare e far rispettare le regole per mantenere puliti i dati dell’azienda”, afferma Heidi Csencsits, consulente di The Parker Avery Group, una società di consulenza di beni di consumo. Il leader della governance dei dati dovrebbe anche essere responsabile della convocazione dei colleghi IT per modificare e aggiornare periodicamente il documento di governance.

Senza una strategia di governance ben progettata, i dati organizzativi possono diventare isolati poiché ogni unità aziendale o dipartimento implementa un sistema di transazione separato. “Man mano che questi diversi sistemi iniziano a creare e raccogliere dati nel tempo, possono svilupparsi sottili discrepanze, che portano a difficoltà nel trovare una versione della verità, dal momento che ogni sistema inizia a riportare risultati diversi”, spiega Rob Gentry, anche lui consulente di Parker Avery. “Queste incongruenze sono evitabili con un solido programma di governance dei dati aziendali che includa definizioni e formati dei dati da utilizzare in tutta l’organizzazione”.

Condividi:
 

Google recupera terreno sull’Edge e punta su sovranità dei dati, sicurezza e sostenibilità

Google recupera terreno sull’Edge e punta su sovranità dei dati, sicurezza e sostenibilità
Una sintesi delle principali novità dell’evento di Google Cloud Next ’21, prima tra tutte la Distributed Cloud per avere le funzionalità della nuvola di Google nel proprio datacenter

Google Distributed Cloud Edge e Google Distributed Cloud Hosted sono tra le principali novità annunciate nel corso dell’evento Google Cloud Next ’21 lo scorso 12 ottobre. Entrambe fanno riguadagnare terreno a Google nella corsa al cloud ibrido e per la conquista dell’Edge 

Il portfolio di soluzioni hardware e software di Google Distributed Cloud mira a soddisfare le esigenze di garanzia della sovranità dei dati e riduzione della latenza dei carichi di lavoro in cloud, anche in considerazione della creazione di una nuova generazione di servizi digitali abilitati dalle connessioni 5G, che proprio della bassa latenza fanno il proprio punto di forza.  

Google Distributed Cloud Edge 

Si tratta di un servizio totalmente gestito ed erogato presso i 140 punti di presenza Google sparsi per il mondo e che supporta nativamente le funzionalità Core e Radio Access Network delle reti 5G. Il servizio sfrutta Anthos, piattaforma open source che permette di unificare la gestione di infrastrutture distribuite su diversi cloud, data center proprietari ed Edge.  

Grazie a queste caratteristiche, permette di realizzare applicazioni che sfruttano le funzionalità di Intelligenza Artificiale della piattaforma Google ma che non potrebbero tollerare le latenze tipiche del cloud. Per fare alcuni esempi, algoritmi per la computer vision, la realtà virtuale e aumentata, applicazioni che devono rispondere rapidamente a stimoli provenienti da sensori nell’Edge o anche gestire infrastrutture 5G/LTE proprietarie. 

Rispetto ai servizi di Edge Computing forniti dai principali cloud provider concorrenti, mancano all’appello dispositivi Edge da installare a bordo macchina, magari rinforzati per lavorare in condizioni estreme, ma le mosse di Google sono nella direzione giusta per recuperare terreno. 

Google Distributed Cloud Hosted 

Sebbene diminuisca sensibilmente la latenza, il Google Distributed Cloud Edge non risolve il problema della sovranità dei dati. Operatori, aziende e pubbliche amministrazioni possono essere sottoposte a vincoli e normative sulla localizzazione e giurisdizione dei dati che custodiscono. Sottolineiamo infatti come, con il CLOUD Act, l’amministrazione USA può costringere le aziende americane ad acquisire dati e comunicazioni di individui e aziende stranieri anche se queste sono ospitati in data center fuori dal territorio americano, al di fuori delle garanzie in vigore nei vari Stati. 

Google aveva già provato a dare una risposta a questo tipo di esigenza nel 2019, permettendo l’utilizzo di chiavi crittografiche private, ma era necessario fare qualcosa di più per soddisfare le norme più stringenti. Con Google Distributed Cloud Hosted è possibile installare la Google Cloud Platform su un’infrastruttura proprietaria, con hardware certificato fornito al momento da HPE, Dell, Cisco e NetApp. L’installazione può essere completamente scollegata dal cloud di Google: gli aggiornamenti possono essere scaricati, trasferiti sui server attraverso un supporto fisico e applicati senza bisogno di connessione alcuna.  

Alla nostra specifica domanda sul fatto che questo offra la certezza che i dati saranno al sicuro da ingerenze e azioni eseguite come effetto del CLOUD Act, un portavoce di Google Cloud ha risposto che “Google ottempera con tutte le leggi pertinenti dei paesi in cui opera. I clienti di Google Distributed Cloud Hosted avranno il controllo esclusivo sui propri dati. Tuttavia, alcuni clienti potrebbero anche scegliere di collaborare con partner di fiducia per il deploy di Google Distributed Cloud Hosted. In questo caso, potrebbero fare affidamento sui partner per controllare il servizio e i dati direttamente”. 

Le altre novità in arrivo da Google 

Abbiamo parlato in questo articolo delle nuove funzionalità di Google Workspace, inclusa la possibilità di integrazione con Jira, ma Google Cloud Next è stato il palco anche per altri annunci.  

Sul fronte dei dati e analytics è stato reso disponibile al pubblico il servizio BigQuery Omni, che ora permette di effettuare query complesse su dati distribuiti tra on-prem, AWS e Azure, oltre naturalmente al cloud della casa. Spark on Google Cloud è invece il primo servizio Spark autoscaling e serverless. 

Vertex AI Workbench permette di implementare modelli di Machine Learning in modo veloce, unificando in una sola interfaccia le funzionalità di data engineering, data science, acquisizione e analisi dei dati, distribuzione e gestione dei modelli. È stata inoltre annunciata una partnership con Salesforce Tableau per utilizzare dati di BigQuery o lanciare Tableau direttamente da Google FogliQuesto articolo approfondisce le novità in questo ambito. 

Google ha posto una forte enfasi anche sulla cybersecurity, con due nuove iniziative. Un Google Cybersecurity Action Team che assisterà governi e imprese nell’adozione delle best practice di Google in tema di cybersecurity e il programma Work Safer per supportare aziende di ogni dimensione nell’adozione delle soluzioni di sicurezza zero-trust per Google Workspace fornite dai partner CrowdStrike e Palo Alto Networks. 

Non ultime, le iniziative per la sostenibilità ambientale con le quali Google intende essere il cloud più pulito del settore e permettere alle aziende di rendicontare le proprie emissioni, un tema che coinvolgerà sempre più spesso i CIO e i direttori della funzione IT. Lo strumento Carbon Footprint presente nella Cloud Console permette di calcolare le emissioni di anidrite carbonica delle risorse cloud in uso.  

Google Earth Engine, disponibile in anteprima per i clienti di Google Cloud Platform, in combinazione con funzionalità geospaziali di BigQuery, Cloud AI e Google Maps Platform, permette alle aziende di monitorare e prevedere i cambiamenti della superficie terrestre dovuti a eventi meteorologici estremi o attività umane, consentendo di mitigare i rischi e risparmiare sui costi operativi. 

Unattended Project Recommender è invece una funzione che utilizza il machine learning per identificare i progetti che sono probabilmente obsoleti, segnalandoli in modo che le organizzazioni possano scegliere di eliminarli facilmente, riducendo costi e consumi. 

Aziende:
CrowdStrike
Condividi: