È interessante analizzare il percorso, inevitabile, dalla data quality alla data governance che ha garantito una migliore gestione dei dati nelle aziende italiane. E per farlo non si può non partire dalla singolare avventura della data governance nel nostro Paese.
Indice degli argomenti
Dalla data quality alla data governance: il buon governo dei dati
Da sempre considerata nel DMBoK (un documento di riferimento per il data management a livello planetario) la pietra angolare di tutte le knowledge area coinvolte nella gestione dei dati, la data governance ha cominciato ad essere considerata nel nostro paese solo una decina di anni fa.
Si è insinuata quasi di soppiatto sotto mentite spoglie, quelle della qualità dei dati, in uno specifico settore, il finance, per rispondere ad una serie di normative, Basilea e Solvency in testa.
Fino ad allora i principi di buon governo dei dati erano considerati magari interessanti, al massimo uno spunto per qualche iniziativa concreta, spesso interrotta in favore di altre priorità.
L’introduzione di questi obblighi regolamentari ha di certo dato uno stimolo agli operatori di questo settore in termini di consapevolezza circa i vantaggi derivanti da una gestione ordinata dei dati e di una diffusione di pratiche strutturate per il loro governo.
Introdurre in azienda nuove discipline nel trattamento delle informazioni comporta l’impiego di risorse di cui non è immediato vedere i ritorni. È quindi normale che la spinta normativa sia stata una delle leve più efficaci per avviare programmi di data quality.
Ma la data quality è un vortice: quando entra in un’organizzazione trascina naturalmente dietro di sé altre prospettive di data management e soprattutto di data governance.
Non è possibile controllare i dati in modo efficace senza conoscerne alcune caratteristiche fondamentali; per cominciare la ownership, la semantica, il lineage.
Il livello qualitativo delle informazioni critiche
Un passaggio fondamentale è stato quello di evadere molto rapidamente dal solo piano dei dati fisici, gestiti dai sistemi informatici.
Le aziende hanno cominciato a “scaricare a terra” il principio secondo cui il patrimonio informativo è qualcosa che rappresenta un valore concreto per il business. La conseguenza pratica è stata identificare le informazioni rilevanti per il business, chiamandole con il nome con cui le organizzazioni sono abituate a chiamarle, stabilirne una definizione valida per tutta l’azienda, il ruolo che giocano nei processi aziendali. Ma soprattutto, determinarne il legame con i dati fisici che le rappresentano nei sistemi informatici.
Solo conoscendo questa connessione tra piano fisico e di business, e gestendo tutte queste informazioni attraverso un sistema di metadati, è possibile costruire impianti di controllo automatici in grado di determinare in modo efficiente e sostenibile il livello qualitativo delle informazioni critiche per un processo aziendale.
Sono i primi significativi passi di un percorso virtuoso verso una data governance matura; percorso che molte banche e assicurazioni stanno ora perseguendo con convinzione, non solo spinti da obblighi di compliance, ma nella convinzione che esso possa contribuire a generare un valore concreto e percepibile per il governo d’impresa.
È solo l’inizio. La naturale osmosi con altri settori di mercato, e il succedersi di normative sempre risk based, sempre data intensive (vedi GDPR) stanno rapidamente alimentando un processo virale: l’interesse verso queste discipline cresce, proliferano le esperienze concrete, di valore anche al di fuori del finance, anche e soprattutto al servizio della digital trasformation.
Ma, come si dice, questa è un’altra storia.
Metadata management system: il cuore della data governance
Quali sono le componenti funzionali di un sistema informatico per la data governance?
Governare i dati di una organizzazione vuole dire esercitare una serie di processi specifici, che come tutti i processi consumano e producono informazioni (in questo caso metadati) e spesso sono supportati da indicatori.
Il cuore di tutto è un sistema di gestione di metadati. In esso sono contenute tutte le informazioni relative ai dati dell’organizzazione sotto forma di entità, relativi attributi, mutue relazioni.
Secondo la tassonomia più classica possiamo classificare questi metadati in tre tipologie distinte ma interconnesse:
- metadati di business (raccolti in un business glossary; ad esempio: business term, semantica ownership, processi connessi, regole);
- metadati tecnici (metadata dictionary; ad esempio: campi fisici, lunghezze e formati, applicazioni informatiche, controlli automatici);
- metadati operativi (ad esempio: pervenimento di flussi, completamento di processi di trasformazione, esiti dei controlli in un determinato periodo).
L’interconnessione tra queste tre aree di governo è un punto essenziale. Tutte le informazioni necessarie all’esecuzione dei processi di data governance e più generalmente di data management sono registrate in questo componente funzionale.
Un suo requisito importante è quello di essere aperto alla connessione lungo due dimensioni e in due direzioni.
La prima dimensione è quella “orizzontale” con altri repository che censiscono informazioni relative ad entità che hanno relazioni con i dati (quali processi, applicazioni, organigrammi) spesso gestite in applicazioni dedicate.
La seconda è quella “verticale” con il mondo fisico o, più precisamente, con gli strumenti operativi di data management: data integration, data quality, data profiling, data discovery, data masking.
Con entrambe le tipologie di strumenti il sistema di metadata management deve avere un colloquio bidirezionale: raccogliendo, ad esempio, i metadati relativi ad un processo (nome, descrizione, owner…), in modo da poterlo integrare con informazioni relative ai dati in input, output o interni al processo.
Oppure, fornendo le regole di ricerca di un business term al motore di data discovery, il quale, se la discovery avrà successo, ritornerà il nome dei campi fisici che rappresentano quel business term nei sistemi IT. E così via.
Un’altra caratteristica sempre più importante di questo componente è la capacità di adattarsi alle evoluzioni del modello di data governance.
Le frequenti revisioni dei processi aziendali, l’introduzione di nuovi requisiti regolamentari (sempre più data intensive) la necessità di sostenere iniziative interne quali, a solo titolo di esempio, quelle finalizzate alla digital transformation dell’impresa, impongono di variare non solo il contenuto, ma anche la struttura del sistema di gestione dei metadati: aggiungere nuove entità, attributi, relazioni al metamodello.
Conclusioni
Come accennato sopra, il medadata management system è solo una componente di una architettura strumentale per la data governance.
Sono molto utili e in alcuni casi necessari altri moduli funzionali:
- un sistema per il calcolo, la rappresentazione, la distribuzione di indicatori di performance (KPI) di governo (copertura, maturity, program management) e di prospettiva (quality, ma non solo);
- un sistema di workflow management in grado di orchestrare attività automatiche e human task nell’esecuzione die processi di data governance.
Ma è l’interazione fluida tra questi moduli a fare la vera differenza; la possibilità di costruire blocchi funzionali combinando primitive di metadata management, process orchestration e performance analysis consente di automatizzare e supportare processi di data governance “service oriented” improntati al paradigma “declarative”, che espongono cioè servizi specializzati in grado di gestire in modo trasparente operazioni articolate e complesse.