Interviews

Mélisa Wiro (Decathlon) : « Nous avons décentralisé la gouvernance des données auprès des métiers. »

Mélisa Wiro (Decathlon) : « Nous avons décentralisé la gouvernance des données auprès des métiers. »
Mélisa Wiro, data quality governance leader chez Decathlon Technology : « Il est essentiel de considérer la qualité des données comme un fil rouge qui se propage. »

Mélisa Wiro est responsable de la gouvernance de la qualité des données au sein de Decathlon Technology. Dans cet entretien, elle explique les enjeux de la qualité des données et le dispositif de gouvernance que l'enseigne sportive met en place.

PublicitéMélisa Wiro a rejoint le groupe Decathlon en 2021, après plus de dix-sept ans passés au sein du groupe La Poste et sa filiale Mediapost. Elle est aujourd'hui responsable de la gouvernance de la qualité des données au sein de Decathlon Technology, l'entité regroupant les équipes techniques et expertises technologiques du groupe Decathlon.

Avant d'aborder les différents volets de la gouvernance des données chez Decathlon, pouvez-vous revenir sur la genèse de cette démarche ? Pourquoi le groupe Decathlon a-t-il initié une stratégie globale de gouvernance de qualité des données ?

La genèse part de la mission de Decathlon qui est de rendre durablement le sport et ses bienfaits accessibles au plus grand nombre. C'est ainsi que Decathlon a grandi et est à présent implanté dans 67 pays, avec près de 113 000 collaborateurs. Pour aller plus loin dans notre mission, nous souhaitons développer une vision du retail augmenté et ainsi proposer de nouvelles expériences à nos clients grâce au digital, à travers la création d'une plateforme de sport et de bien-être. Nos fortes ambitions autour du digital font de la maîtrise de nos données un axe majeur de notre développement. Les données sont partout présentes dans notre organisation. Étant sur toute la chaîne de valeur des produits sportifs, de la conception à la production jusqu'à la mise en rayon et la proposition de nouvelles expériences, nous produisons beaucoup de données qui servent notre ADN et notre développement. Il est donc important de mettre en place de la gouvernance sur ces données et d'homogénéiser nos pratiques au sein de nos métiers.

Derrière, la gouvernance de la qualité des données répond à des enjeux clefs pour le groupe, dont le premier est la prise de décisions. En effet, toute décision doit être prise en ayant des KPI fiables. Si les données ne sont pas de bonne qualité, le risque est de prendre de mauvaises décisions. Un autre enjeu est la personnalisation. Nous voulons proposer à nos clients la meilleure expérience sportive possible et cela signifie notamment pouvoir leur proposer le bon produit au bon moment. Enfin, la technologie a beaucoup évolué, avec le développement de l'intelligence artificielle, des algorithmes autoapprenants. Si au démarrage les données sont de mauvaise qualité, ces technologies vont générer des biais.

La qualité des données est un sujet qui existe depuis longtemps chez Decathlon, mais qui n'était pas forcément structuré à l'échelle de l'entreprise. Le sujet est à mi-chemin entre la qualité des systèmes qui transportent les données et la qualité des données proprement dites. Pour prendre une image, c'est comme la distribution d'eau : il faut s'assurer d'une part que les tuyaux ne sont pas bouchés, mais aussi que l'eau est potable.

PublicitéDans ce contexte, quels sont vos objectifs ?

Ma mission est de donner les bonnes pratiques pour permettre une bonne gestion et un bon usage des données. Il s'agit de rendre les données facilement accessibles, sans couture et en toute confiance, le tout de façon durable. C'est un défi de taille. Il nécessite en effet que nous ayons tous la même façon de traiter ces informations, le même langage. Il faut un socle commun, même s'il y a des particularités locales, afin de rassembler toute la connaissance de nos données, aussi bien sur le plan fonctionnel que technique. C'est fondamental pour opérer le monitoring de la qualité et les processus de mise en qualité si cela s'avère nécessaire.

Cette transformation repose en grande partie sur l'humain. L'objectif est que tous les collaborateurs prennent conscience qu'ils sont producteurs et consommateurs de données. Cela demande de mettre au clair la façon d'opérer la gouvernance des données. Il existe deux grandes façons de faire : soit tout est centralisé et géré par un data office ; soit la gouvernance est décentralisée. C'est cette deuxième option que nous avons retenue.

Pouvez-vous nous détailler ce modèle de gouvernance ?

Nous avons choisi de décentraliser la gouvernance auprès des métiers. Chaque métier est responsable de ses données. Ce sont eux qui nous remontent la connaissance sur leurs données et qui font vivre celles-ci. Pour cela, nous avons deux leviers très importants. Le premier est humain, ce sont des relais data au sein des métiers, qui portent le message auprès des collaborateurs et qui font vivre cette connaissance par rapport aux besoins et réalités. Le réseau des relais data porte l'évolution des pratiques, de la gouvernance, la diffusion des nouvelles exigences... L'idée n'est pas de capitaliser une fois pour toutes sur un modèle figé, mais de faire évoluer les dispositifs en permanence, en responsabilisant tous les acteurs. La qualité des données est une pierre angulaire dans le recrutement des relais data. Il y a un travail d'acculturation auprès de ces derniers, il faut animer ce réseau autour des bonnes pratiques de gestion et de mise en confiance sur les données. Nous faisons beaucoup de formation interne et une transformation est en cours chez Decathlon Technology sur ces sujets. L'autre levier, c'est la centralisation de l'information dans un catalogue de données, afin de gérer les différentes couches et les niveaux de connaissance. Il faut s'assurer que l'ensemble des collaborateurs parlent un langage commun afin de faciliter l'accès à la donnée et de fluidifier les échanges entre tous nos relais data. C'est également l'homogénéisation des bonnes pratiques.

Notre modèle de gouvernance distingue en effet plusieurs niveaux de connaissance sur les données, avec différents rôles associés. Le niveau fonctionnel est géré par des data owners au sein des équipes métiers. La cible est d'avoir un data owner par objet métier. Pour ces data owners, nous avons mis en place une modélisation des concepts valables pour tous les pays, avec des relais locaux, par exemple pour gérer les spécificités sur les taxes. Nous avons aussi des data stewards, qui disposent de la connaissance physique des données : où celles-ci se situent dans le système d'information, de quelle façon elles sont traitées, etc. Ensuite, des data quality managers mettent en oeuvre les sondes pour mesurer et suivre le niveau de qualité des données en fonction des exigences métier.

Nous avons également une équipe en data office pour donner le cadre de jeu autour de la gestion des données, les bonnes pratiques, les grands processus et workflows à suivre. Enfin, sur de grandes chaînes de valeur transverses, nous avons créé un rôle que nous appelons « data support manager ». Celui-ci assure un peu une fonction de chef de ligne. Je compare parfois le patrimoine data à un plan de métro, où chaque station est un domaine métier et chaque ligne un cas d'usage. Les processus transverses mettent en jeu des interactions entre plusieurs données de métiers différents, par exemple venant du retail et de la finance. Si on veut une cohérence sur toute la chaîne, il faut un chef d'orchestre, qui s'assure que la feuille de route du retail est en adéquation avec les besoins et la roadmap de la finance. Il doit synchroniser la montée en maturité des données dans les différents domaines, afin de sécuriser toute la chaîne de valeur data. Il est important d'avoir des exigences de qualité associées à la finalité : toutes les données doivent monter en maturité simultanément pour répondre à de tels cas d'usages.

Avez-vous quelques chiffres pour illustrer ce que représente un tel dispositif dans un groupe comme Decathlon ?

Le patrimoine data de Decathlon représente environ 1000 objets métiers inventoriés que nous souhaitons gouverner. Ces données sont réparties sur 17 domaines d'activités, avec un data manager par domaine, par exemple sur le retail, la finance, la chaîne d'approvisionnement ou la création de produits... Ces data managers sont garants de la bonne montée en maturité de leur domaine, ce sont eux qui nomment les autres rôles. Aujourd'hui, nous avons près de 80 data owners nommés, une dizaine de data stewards et nous ambitionnons une trentaine de data quality managers d'ici la fin de l'année.

Concrètement, comment travaillez-vous sur la montée en qualité de ces données ?

Pour mettre tout cela en place, nous introduisons des méthodes et des processus pour remonter les anomalies autour des données. Cela suppose plusieurs choses : d'abord, il faut un bon niveau de connaissance fonctionnelle et technique sur les données. Il faut les identifier, les définir et les décrire afin de concrétiser l'exigence de qualité. Ensuite, il faut mettre en place des sondes pour monitorer le niveau de qualité en fonction des exigences souhaitées. L'usage que l'on veut faire des données rajoute une dimension. Il existe des critères de qualité des données intrinsèques, souvent techniques, sur la manière dont est conçue l'architecture de données, la présence d'identifiants uniques, l'intégrité... Il existe également des critères comportementaux, beaucoup plus liés à des spécificités métiers. Par exemple, si l'Insee veut exploiter une adresse géolocalisée, généralement le niveau de la commune suffit pour faire des statistiques. En revanche, s'il s'agit des pompiers, il faut une géolocalisation très précise, presque au bas de la porte. L'exigence de qualité est ainsi plus ou moins élevée selon les cas d'usage.

Une fois que les sondes sont en place et détectent des défauts, il faut analyser les anomalies remontées, afin d'identifier les causes racines et d'y remédier. Il s'agit d'aller au-delà de la correction des erreurs pour apprendre de celles-ci. Le but est de capitaliser pour remonter à la source de la mauvaise qualité. Parfois, c'est au moment où l'on produit la donnée, où l'information est créée qu'il faut agir. Nous mettons alors des routines en place pour vérifier que la donnée répond aux exigences de qualité. Par exemple, le vendeur en magasin qui fait l'inventaire, rien que ce geste est une collecte d'information liée à un processus. Avant de scanner les articles, il faut vérifier qu'aucun produit n'est resté en cabine d'essayage, c'est une règle qui fait partie du processus et nous expliquons pourquoi, quelles sont les conséquences en cas de mauvais comptage des articles. L'une de celles-ci, c'est que le magasin ne sera pas ravitaillé au bon moment, avec soit un manque, soit un surplus d'articles à gérer dans l'espace du magasin. D'autres fois, cela nécessite d'enlever des correctifs mal positionnés, afin de remettre des verrous au bon endroit. Parfois encore, il s'agit de détecter des problèmes sur le système d'information qui ont un impact sur les données. Pour cela, nous travaillons en collaboration étroite avec les équipes chargées du système d'information. Nous menons avec elles une démarche d'observabilité des flux de données, pour monitorer ces derniers. Nous travaillons sur les deux tableaux, car derrière, pour le client final ce qui compte c'est la donnée exposée. Il faut que l'information soit juste. Il faut donc savoir si un problème sur les données est lié à la production de l'information elle-même ou à un souci sur la chaîne de traitement.

Tout ceci est essentiel pour développer une confiance durable autour de l'information. Nous savons que la qualité à 100% n'existe pas, mais nous devons tout mettre en place pour détecter et agir rapidement pour nous en rapprocher. Et cela nécessite de mettre en place les bons thermomètres au bon endroit. C'est un peu comme lorsqu'on est malade, la fièvre est la première phase de la guérison. Là où nous devons exceller, c'est dans l'identification rapide des endroits où nous rencontrons des défauts et apprendre de nos erreurs.

Vous avez évoqué le catalogue de données et les différentes sondes. Quels sont les autres outils sur lesquels vous vous appuyez pour piloter la qualité des données ?

En termes d'outils, notre stratégie repose principalement sur le catalogue de données. Nous construisons également un moteur pour surveiller la qualité des données, afin d'accélérer. Nous n'avons pas de parti-pris imposant un outil unique. En revanche, nous mettons en place des connecteurs pour que l'intégralité des tours de contrôle existantes remontent les informations au même endroit, pour les centraliser. L'enjeu est de rendre accessible la donnée en toute confiance et de façon durable. Unifier la remontée des informations est important pour avoir la connaissance nécessaire, ainsi que pour accélérer dans les domaines peut-être moins matures que d'autres.

Sur quoi se portent vos efforts à l'heure actuelle ?

Mes priorités actuelles sont d'abord de renforcer les échanges entre nos relais data et de poursuivre les efforts de capitalisation, d'acculturation et de pédagogie. C'est un travail de fond, qui passe par exemple par une newsletter, par un site Intranet que nous faisons évoluer ou encore par la définition des nouveaux métiers autour de la donnée. Il faut notamment bien expliciter les rôles et les missions des relais data. Nous sommes en recherche perpétuelle de nouveaux talents, donc il faut bien définir les missions et les feuilles de route. Les fonctions de data owner, de data steward, de data quality manager existent dans de nombreuses entreprises, mais ne recouvrent pas forcément les mêmes missions. Il faut donc détailler ce que Decathlon met derrière ces rôles, aussi bien d'ailleurs pour les candidats externes que pour les collaborateurs qui veulent évoluer vers ce type de poste.

Nous voulons également bien travailler les workflows et la fluidité des échanges entre les relais data, répartis sur des sites et des pays différents. Nous sommes actuellement dans une phase de test, afin de voir si les pratiques mises en place correspondent à la culture d'entreprise et si elles sont applicables opérationnellement.

À tout ceci s'ajoute un dernier aspect : il ne faut pas que la démarche s'apparente à un soufflé, où l'on concentre tous les efforts à un instant T. Les données sont un patrimoine vivant, il faut pouvoir absorber ses évolutions en toute sérénité, sans que cela devienne un effort incommensurable. Nous devons travailler sur l'efficience, sur l'automatisation pour rendre cette qualité durable. Cela signifie prévoir les processus pour que l'information soit mise à jour, industrialiser certains processus, faire en sorte de remonter automatiquement les anomalies afin d'aller plus vite et plus loin.

Pour terminer, qu'est-ce qui vous semble essentiel pour le succès d'une telle démarche ?

Ce qui m'importe, c'est qu'on ne considère pas la qualité comme un sujet siloté, mais bien comme un fil rouge qui se propage ; c'est de faire en sorte que les exigences de qualité se déploient sur toutes les données qui constituent un cas d'usage. Il est important de voir ce fil rouge sur tous les axes : cette transformation ne peut s'effectuer que si le volet humain est développé, avec une bonne acculturation et une démultiplication de la connaissance sur la façon d'opérer la gouvernance et la qualité. Tout collaborateur doit avoir conscience qu'il produit de l'information. Ce qui est important, c'est d'acculturer les collaborateurs à l'enjeu que sert la qualité. Cela demande de la pédagogie, beaucoup de communication interne. Il faut viser une connaissance homogène du patrimoine de données de Decathlon, de nos processus opérationnels et de nos chaînes de valeur autour des données. C'est essentiel, à la fois pour mettre les données au service du business et pour aborder les données comme un business, en développant des innovations et de nouveaux usages.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis