Le Master Data Management, qu’est-ce-que c’est ?
Les données de référence (ou master data) de l’entreprise sont des informations uniques et fondamentales, nécessaires pour alimenter l’ensemble des processus de l’entreprise. Alors que les applications se multiplient, chacune produisant une quantité phénoménale de données — et une part de doublons et d’erreurs non négligeable), les données de référence sont le point de vérité qui alimente les processus. La finalité : moins d’erreurs et une performance accrue.
Les données régissent à la fois l’organisation des entreprises et leur activité. Elles sont d’ailleurs de différentes natures :
- Données de Structure : celles-ci définissent l’organisation, qu’il s’agisse de structure des services de l’entreprise, d’informations sur les salariés ou d’organisation comptable.
- Données Produits : ces données concernent les caractéristiques commerciales et techniques des produits et les informations de fabrication et de vente.
- Données Tiers : elles concernent les clients, prospects, fournisseurs et partenaires commerciaux, ainsi que les sites de commercialisation.
- Données Ressources : il s’agit des informations relatives aux équipements, prestataires, sites, et tout autre outil permettant la mise en œuvre de l’activité.
Cette richesse de données fait de leur gestion (appelée Master Data Management) un sujet stratégique pour les SI. Sur sa bonne mise en œuvre reposent l’ensemble des processus métier. Des processus qui doivent être alimentés vite, avec un haut degré de confiance dans la conformité et la justesse des données.
Si l’objectif final du Master Data Management est de faire circuler une donnée fiable, disponible et exhaustive dans tout le SI, il est nécessaire de traiter un certain nombre d’enjeux pour atteindre cet objectif :
- Le partage fluide de données de référence entre toutes les applications du SI
- La meilleure saisie des données, sans erreur ni doublon
- L’amélioration de l’expérience utilisateur/collaborateur
- Le respect des réglementations telles que le RGPD
- La limitation des opérations de maintenance et autres tâches chronophages
Le poids de chacun de ces enjeux sur l’architecture des données diffère d’une entreprise à l’autre. Il appelle donc une organisation personnalisée, qui tiendra compte des besoins métiers mais garantira aussi la meilleure circulation possible de la donnée sur le plan technique.
Quelles architectures existent autour du MDM ?
L’architecture choisie pour échanger les données de références à travers l’ensemble du SI a un impact fort sur l’organisation. Elle conditionne les ressources utilisées et la rapidité de traitement de l’information. A chaque type d’architecture correspondra un mode de consultation particulier de la donnée.
Parmi les architectures les plus courantes, on distingue quatre solutions principales :
Architecture centralisée
Ce premier type d’architecture s’organise autour d’un outil central, en l’occurrence le logiciel MDM, qui collectera et unifiera l’information. Les outils logiciels dédiés au MDM s’appuient sur des fonctions de dédoublonnage, de traçage de la donnée et de suivi tout au long du cycle de vie. Dès sa collecte, la donnée est structurée selon les règles métiers de l’entreprise, instaurant ainsi une version unique de la donnée : c’est ainsi qu’elle fournira la plus grande valeur ajoutée et la plus grande efficacité possibles aux processus.
Le MDM permet d’établir un contrôle pointu de tout le cycle de vie de la donnée. Les réglementations et le besoin d’intégrité des données primant dans de nombreux secteurs, ce contrôle est souvent le critère prédominant pour une architecture performante.
Architecture distribuée ou répartie
Cette architecture repose sur le concept récent de microservices : classées en un certain nombre de services, les applications métiers prennent en charge elles-mêmes les données qui les concernent. Avec ce modèle, les données de références sont donc délocalisées à chaque application, et non centralisées. Toute autre instance souhaitant consulter les données devra les récupérer auprès de l’application maîtresse.
Cette architecture permet de garantir une véritable intégrité métier des données. Celles-ci ne subissent pas de standardisation comme ce serait le cas avec un outil unique. Leur qualité est mieux préservée.
Le modèle distribué crée cependant une organisation complexe, qui nécessite de bien connaître l’emplacement de la donnée et de maintenir le système synchronisé en cas de modification de celle-ci. L’architecture distribuée soulève aussi un important défi de disponibilité applicative. De la performance du transfert d’information dépendent alors une partie non négligeable des processus.
Architecture virtuelle
Ce modèle tente de concilier les architectures centralisée et distribuée. La donnée, toujours gérée de manière individuelle par les applications, est cependant plus facile à localiser : un repository virtuel fait en effet office de médiateur d’information, communiquant l’emplacement des données aux applications qui le consultent.
Là encore, la question de la disponibilité, mais aussi de la fraîcheur des données est complexe. Le modèle virtuel crée de l’opacité quant aux applications gérant réellement les données.
Comment choisir la bonne architecture pour ses données de référence ?
La gestion des données de référence est un véritable sujet de fond : celui-ci appelle une réflexion stratégique autour de la manière dont sont organisés les processus de l’entreprise, principaux utilisateurs de la donnée.
- La data est, d’une part, partagée par des applications dites verticales (ERP, PLM, WMS, PIM…) qui l’enrichissent tout au long du cycle de vie des produits ou services
- Mais les processus transverses et les applications qui les emploient (BI, gestion de portefeuilles de projet…) ont eux aussi une importance capitale pour rendre la donnée plus utile et la décloisonner.
- Enfin, le cadre réglementaire et la sensibilité de certaines données joue un rôle fort dans l’architecture choisie
Pour l’entreprise, il est donc nécessaire d’organiser les données de référence selon ses propres priorités, après les avoir identifiées.
Les données de référence doivent aujourd’hui soutenir la stratégie customer-centric des entreprises : les données clients doivent être rapidement collectées et recroisées en vue de proposer une expérience utilisateur performante.
Mais le besoin de qualité et de traçabilité continue de primer, en particulier dans les secteurs très réglementés.
Afin de faire le bon choix, il convient donc de bien identifier la finalité des données et leur niveau de sensibilité, mais aussi d’anticiper les volumétries de données et les applications qui l’utiliseront. On appliquera ensuite les étapes suivantes :
- Estimer la qualité attendue
- Définir des indicateurs
- Préparer ses données de référence et les règles métier à appliquer
- Choisir et implémenter une solution facilement intégrable au SI
- Optimiser son architecture dans le temps
Derrière ces étapes se profile également une stratégie de gouvernance des données : des rôles et responsabilités bien définis signifient plus de fiabilité et de sécurité dans les échanges.
Le choix d’une architecture n’est donc pas anodin et doit mobiliser à la fois les métiers et les responsables de l’IT. Pour être utile et bien orchestrée, la donnée doit aussi être considérée sous l’angle des flux et des processus qui l’emploient. Bien préparer ses données est aussi essentiel qu’en assurer la distribution. A la clé : des flux d’information utiles, rapidement exploitables, et un soutien décisionnel de qualité.