Skip to main content

Le constat de l’importance grandissante des données de bases

Les données de base constituent aujourd’hui les éléments fondamentaux de tout processus : une simple commande de vente s’appuie en général sur des données clients et des fiches article, ces mêmes données étant exploitées pour la livraison et la facturation qui s’enchainent assez naturellement. Cependant, ce déroulement peut être remis en cause par le simple fait d’une incohérence dans ces données.

Il devient ainsi de plus en plus important d’assurer cette gestion intelligente et cohérente des données de base, sans quoi les processus nécessitent de plus en plus d’interventions humaines, diminuant l’efficacité globale de l’entreprise et la satisfaction client. Plus grave encore, ces incohérences peuvent fausser les résultats des outils décisionnels en agrégeant des données par erreur, nuisant à la confiance des utilisateurs qui ne tirent plus profit des indicateurs.

Maîtriser sa gestion des données de bases, c’est maîtriser les processus qui en découlent et le reporting associé.

Même si le système d’information se résume seulement à un ERP, le processus de définition, d’enrichissement et de maintenance des masters datas doit être rigoureusement surveillé et constamment amélioré : l’expérience des incidents rencontrés doivent permettre de compléter les règles métier, les outils de worklow devenant alors primordiaux pour arbitrer et accélérer l’enrichissement des données.

Dès que le système d’information se complexifie avec des systèmes spécialisés par domaine (finance, achats, ventes, logistique…), les sources de problèmes liées à une mauvaise gestion des données de base explosent de manière exponentielle : chaque système disposant de son propre référentiel de données de bases, avec sa propre cohérence logicielle, doit échanger des informations avec d’autres systèmes souvent structurés différemment car servant un autre besoin.
Aux problèmes métier s’ajoutent alors les problèmes techniques : une incohérence de données donne lieu à des erreurs dans les interfaces, qui bien que souvent corrigées afin de permettre le passage à l’étape suivante, ont dores et déjà engendré une autre erreur, illustrant alors à merveille l’effet boule de neige…

L’approche solution MDM : les pièges à éviter

Les impacts cités dans la première partie illustrent pourquoi des solutions de Master Data Management (MDM) ont été mises en place : elles apparaissent en effet, comme salvatrice, avec une gestion centralisée simplifiée et une distribution des données facilitée dans tout le système d’information.

Simple ?

Malheureusement pas : l’impact organisationnel déclenche une très forte résistance au changement, la multiplication des interfaces d’échanges coûtent cher à maintenir, les rôles principaux des systèmes sont dénaturés…
Pire encore, on essaie trop souvent de construire un modèle de données de base commun à toutes les solutions en place, souvent assez incompatibles.
Le piège d’une solution purement technique amène à choisir les scénarios de gestion centralisée des données de base depuis la création : très difficile à mettre en œuvre si l’organisation ne suit pas, le projet MDM sera généralement un échec, empêtré dans la définition de la cohérence avec les systèmes satellites.
Trop souvent en effet, les projets MDM veulent déposséder les systèmes connectés de leur gestion des données de base, mais c’est oublier toutes les règles de gestion que ces systèmes gèrent nativement, alors qu’il faut les redéfinir et les maintenir en accord dans le MDM. On touche alors du doigt les vrais enjeux d’un projet MDM : qu’est-ce qui définit mes données de base (périmètre, données partagées) et quelles règles métier leur sont applicables ?

L’approche organisationnelle des masters data

Le constat reste toujours le même quelle que soit la dimension du système d’information :
  • il est tout d’abord indispensable de maîtriser ses processus à la source, c’est à dire depuis les données de base sur lesquelles ils s’appuient. L’entreprise doit parfaitement maîtriser le cycle de vie des masters datas : depuis la création, en passant par leur maintenance, jusqu’à leur archivage en fin de vie.
  • L’organisation doit surtout avoir intégré la gestion des données de bases (contenu et règles de cohérence) dans ses processus de résolution d’anomalie pour éviter toutes les conséquences « boule de neige ».
Sans ces fondamentaux structurels, il est illusoire d’espérer améliorer l’efficacité de ses processus de gestion par la simple mise en place d’un outil MDM.
Or il suffit souvent d’une organisation adéquate combinée à d’une utilisation astucieuse des outils en place, le tout coordonné par un workflow, pour parvenir à gérer correctement ses référentiels, et les faire évoluer avec les besoins métiers.

Si le processus de gestion des masters datas est déjà clairement défini, les outils de master data management peuvent alors se révéler être de formidables accélérateurs.

En effet, les solutions MDM se prêtent parfaitement à une évolution en douceur vers la consolidation et l’harmonisation des données : ils éliminent les doublons, et assurent la cohérence des données communes ou liées entre systèmes. Ces solutions MDM deviennent alors des éléments fondamentaux du nouveau système d’information, en alimentant notamment les outils EAI (transcodages entre application) et les outils de business intelligence (consolidation des données identifiées différemment par les systèmes), ouvrant la voix à une architecture orientée services (SOA).

Pierre HUGOT – Associé