Liste des produits fabriqués et vendus, liste des salariés, liste des comptes analytiques, caractéristiques des produits… les données référentielles sont des données stables, produites et utilisées par de nombreuses personnes et fonctions dans l’entreprise.

Bien qu’indispensables au bon fonctionnement de l’organisation, les référentiels restent encore souvent mal gérés (informations incomplètes, erronées, doublons, identifiants non homogènes) et plusieurs instances de chacun d’entre eux ont tendance à se multiplier au sein de l’entreprise de par leur caractère utile à de nombreux utilisateurs.

Pourtant, l’objectif d’un référentiel est de donner un langage lisible et exploitable par tous les acteurs de l’entreprise afin d’augmenter l’efficacité et la fiabilité des échanges. Pour cela, les données référentielles doivent être exhaustives, uniques, fiables, partagées par tous, modifiées et enrichies régulièrement. Et pour chaque changement, une analyse d’impact est indispensable.

En effet, adjoindre une nouvelle information au plan technique dans le système d’information implique aussi des modifications sur le plan fonctionnel. Pour prévoir la gestion de son flux de vie dans le SI, l’entreprise doit savoir qui va se servir de cette nouvelle donnée, la faire évoluer, la renseigner.

Pour regrouper, gérer et structurer les données de l’entreprise, le recrutement d’un Master Data Owner s’avère indispensable. Il va prendre à sa charge la gestion des données référentielles, organiser les chaînes d’évolution et de diffusion des informations et alimenter les processus de l’entreprise pour produire de la valeur.

Pour mener à bien ces missions, le Master Data Owner doit avoir un profil transverse, non conflictuel et légitime sur les métiers principaux de l’entreprise. Pour éviter d’être confronté à des conflits d’intérêts internes – chaque responsable métier pensant être le plus légitime quant à la gestion de ses données – la solution que nous avons trouvée lors d’une mission a été de proposer un ancien directeur proche de la retraite qui voulait relever un dernier challenge. Rattaché au Comex, il va pouvoir ainsi gérer la donnée au cœur de tout le fonctionnement de l’entreprise, loin des intrigues de pouvoir interne.

Les données transactionnelles (tickets de caisse, bons de livraisons, factures…) portent aussi un potentiel de richesse d’analyse. Elles sont le reflet de comportements dans le temps et dans l’espace, de l’entreprise et de son environnement. C’est leur analyse plus que leur usage jetable, contrairement aux données référentielles, qui porte un gisement de valeur. La difficulté étant que les quantités de données peuvent devenir très élevées.

Aujourd’hui il existe un enjeu à adopter une structuration uniforme des données transactionnelles afin de pouvoir les analyser sur une grande échelle. Pour accompagner les entreprises dans l’identification, l’acquisition puis le traitement de données de qualité, des sociétés se sont spécialisées dans le sourcing de données. Récupération des données partielles, incomplètes ou non structurées, ces sociétés transcodent les informations pour réussir ensuite à les analyser.

Cependant, que ce soit pour des raisons techniques ou culturelles, nous remarquons que les entreprises n’exploitent que partiellement ces mines d’or d’informations. Pour plusieurs raisons, la principale étant souvent l’auto-censure inconsciente des responsables métiers, qui ont bien des hypothèses à tester, mais qui pensent, aujourd’hui à tort, que les données n’existent pas et / ou que leur analyse est impossible du fait des volumes. Pourtant cette gestion des données est une source d’alimentation qui peut révolutionner la manière de faire évoluer ses offres, de créer de nouveaux business modèles, d’enrichir les stratégies d’entreprises. Pour remédier à cela – de même qu’il existe dans les entreprises des personnes qui valorisent le patrimoine des brevets – les missions de dataminer, vont se développer.

Par Philippe Kalousdian