La banque LCL construit son data hub pour mettre les données au centre de sa stratégie

La banque de détail LCL a choisi de mettre en place une architecture de données basée sur la plateforme Hadoop de Cloudera, afin d'accompagner ses ambitions en matière de big data, d'applications analytiques et d'intelligence artificielle.
PublicitéAvec 1700 agences et 17 500 collaborateurs, la banque LCL est l'une des grandes banques de détail françaises. Il y a environ trois ans, l'entreprise a choisi d'entamer une trajectoire Data pour mettre la donnée au coeur de ses systèmes d'information. « Nous avons commencé par positionner les cas d'usages qui se présentaient à nous, notamment autour du big data, avec des sujets d'intelligence artificielle (IA) également en perspective », explique Frédéric Chassard, responsable des systèmes d'information Data Analytics, Pilotage de la banque et Engineering de l'IA chez LCL. Parmi les cas d'usage envisagés figurait l'acquisition d'une meilleure connaissance du client, afin de renforcer la relation client et d'identifier de nouvelles opportunités commerciales. Une autre piste concernait l'exposition de données issues du big data sous forme de services, afin d'alimenter les portails des conseillers en temps réel. Enfin, en tant que banque LCL mène de nombreux projets réglementaires (lutte contre la fraude, Know Your Customer, OFAC, etc.), sur lesquels l'approche data-centric pouvait permettre d'apporter des réponses différentes. « En déployant ces sujets dans un nouvel univers, on peut traiter autrement les données clients », souligne Frédéric Chassard. Pour celui-ci, il est essentiel d'allier une stratégie big data avec des projets qui permettent de la mettre en oeuvre. « C'est un aspect à ne pas négliger : il faut faire en sorte que la stratégie ne soit pas hors sol, mais en lien avec les enjeux et les projets de la banque. »
Un autre principe clef a servi de fil conducteur sur ce parcours : d'emblée, la banque a orienté sa réflexion sur le passage à l'échelle, avec la volonté de ne pas enchaîner les proof of concept (PoC). « Notre objectif était de réaliser les business cases pour tous les collaborateurs de notre réseau commercial, pas de nous contenter de démontrer des algorithmes devant nos écrans », souligne Frédéric Chassard. Dans cette optique, l'équipe chargée du programme s'est demandé quels étaient les fondamentaux à mettre en place. « Au niveau IT, il s'agissait de mettre en place la technologie et l'infrastructure permettant de réaliser ces cas d'usage à l'échelle envisagée », pointe le responsable data, ce qui impliquait de construire « un socle Data disponible, robuste et puissant ». La mise en place de ce socle Data a donné lieu à un travail collectif, dans lequel différentes directions métier se sont impliquées : conformité, relation client... « Ce socle a vocation à fournir et constituer un levier de diffusion et de consommation des données, au service du socle digital pour les sites Web et l'application mobile, ainsi que pour les applications CRM », indique le responsable. À l'issue de cette réflexion, LCL a décidé de bâtir une infrastructure taillée pour les projets d'IA : des machines équipées de GPU pour la partie matérielle, et côté logiciel, une distribution Hadoop afin de pouvoir gérer de gros volumes de données. « Nous avons adopté une approche de data hub, combinant une partie big data et un entrepôt de données. Cette architecture hybride a été pensée pour adresser de multiples cas d'usage, pas seulement autour des applications analytiques et de l'IA », explique Frédéric Chassard.
PublicitéPlusieurs cas d'usage en production
Pour la brique big data, la banque a retenu la solution CDH de Cloudera, l'entrepôt de données reposant quant à lui sur une solution de Teradata. CDH permet de répondre à différents besoins essentiels dans le contexte de LCL, notamment autour de la sécurité et de la traçabilité des données. L'équipe souhaitait en effet un niveau d'habilitation suffisamment fin pour adresser tous les usages, ainsi que des capacités de suivi du cycle de vie des données. La solution de Cloudera permet également de supporter des traitements en mode batch comme en streaming, et elle laisse la possibilité de déborder dans le cloud le moment venu, une flexibilité appréciable dans un contexte de forte croissance des volumes de données. « C'est une perspective à avoir en tête pour les projets de big data », estime Frédéric Chassard. Un autre avantage de CDH est son intégration avec l'écosystème applicatif, notamment les solutions de data science et de data visualisation. La plateforme offre aussi une architecture résiliente, capable d'assurer un niveau de service élevé, des aspects importants pour envisager des déploiements à l'échelle de l'entreprise. « L'infrastructure est un composant à part entière du système d'information. Quand on veut passer à l'échelle, on ne peut pas se permettre des arrêts de service », souligne le responsable data. Enfin, Cloudera dispose d'outils d'administration et de supervision plus simples et accessibles que sur d'autres plateformes, un aspect important pour les équipes du CAGIP (Crédit Agricole Group Infrastructure Platform), chargées de l'exploitation.
Après 12 mois de mise en oeuvre de ce nouvel environnement, LCL a pu commencer à migrer les premiers cas d'usages sur son data hub. Celui-ci est hébergé on-premise, dans les data centers du groupe, avec une appliance pour Teradata et une architecture en cluster pour Cloudera. « Aujourd'hui, nous avons un seul et unique data lake pour répondre à l'ensemble des demandes métier, dans lequel les données brutes sont ingérées. Dans celui-ci, nous consolidons les données issues des processus bancaires, nous les corrélons et nous les redistribuons », indique le responsable data. Le big data permet à LCL d'avancer sur des sujets assez complexes et de traiter des données non structurées. En interne, la banque a par exemple développé des outils d'IA assez avancés pour le traitement de l'image, qui permettent d'automatiser certaines opérations de masse sur les documents clients dont la banque a besoin (pièces d'identité, justificatifs fiscaux...) LCL a également utilisé le data hub pour faire de la segmentation client poussée, à l'aide de technologies de machine learning. « Cela nous a conduits à revoir les différents segments de clientèle par rapport à la typologie des conseillers, pour renforcer la proximité avec les clients », pointe Frédéric Chassard. La plateforme fournit aussi des indicateurs aux conseillers, à la fois sur leur propre activité et sur celle des clients, indiquant par exemple si ces derniers vont sur l'application mobile ou calculant différents scores d'opportunité. Enfin, l'architecture répond aussi à certains cas d'usages spécifiques à l'IT, comme la refonte de la journalisation applicative, qui se déverse aujourd'hui dans le data lake. « Les systèmes d'information bancaires reposent encore beaucoup sur des grands systèmes : cette approche data centric permet aussi de soulager les sollicitations sur ces mainframes », observe le responsable data.
Avancer de façon progressive
Tout au long de ce parcours, le sujet des compétences est apparu comme un enjeu clef, d'autant plus que les ressources formées au big data restent rares sur le marché. « Pour mettre en place ce type de stratégie, il faut miser sur l'avenir et avancer étape en étape. Dans un premier temps, nous avons fait appel aux services de Cloudera pour accompagner mes équipes et celles de CAGIP, qui s'occupent de l'infrastructure et de l'exploitation, puis nous sommes montés en compétence au fur et à mesure des projets livrés », relate Frédéric Chassard. LCL a choisi de former au maximum ses collaborateurs, y compris les alternants et stagiaires, sur la nouvelle plateforme, tout en menant en parallèle une politique de recrutement forte. « Quand tout le monde dans une équipe apprend, cela entraîne un phénomène d'adhésion », constate le responsable data. « Ainsi, nous parvenons à garder un ratio interne/externe équilibré en termes de compétences. » Pour utiliser au mieux ses différentes compétences, la banque a également misé sur la simplicité de gestion de l'environnement. L'ingestion des données dans la plateforme s'effectue par exemple avec des outils développés en interne, qui reposent principalement sur du paramétrage. « Nous avons plusieurs populations en interne : des collaborateurs très avancés, d'autres qui démarrent sur ces sujets », explique le responsable. Le système d'ingestion paramétrable est accessible aux débutants, évitant de mobiliser des data engineers expérimentés sur le développement des flux d'ingestion.
Maintenant que ces fondations sont en place, LCL a de nombreux autres projets en perspective. « Notre objectif est d'améliorer les processus métier de façon humble et pragmatique, en commençant par les fondamentaux et en élargissant peu à peu », souligne Frédéric Chassard. Après avoir fait beaucoup d'IA pour le traitement d'images en masse, l'équipe envisage désormais de déployer des traitements unitaires au sein des parcours client. Pour améliorer l'efficacité opérationnelle, LCL réfléchit aussi à des cas d'usage intégrant les résultats d'algorithmes d'IA dans ses workflows d'entreprise, ainsi qu'une évolution de démarches d'automatisation de type RPA (Robotic Process Automation) vers des traitements d'IA avancés. La banque songe également à exploiter d'autres technologies d'IA, comme le traitement du langage naturel (NLP). « Très récemment, nous avons déployé un bot intelligent en support de nos 14 000 conseillers du réseau retail, avec en perspective un chatbot client. D'autres perspectives sont sur notre feuille de route, comme l'analyse des feedbacks des questionnaires clients », évoque Frédéric Chassard. La banque travaille également sur la formation de ses collaborateurs autour du big data et de l'IA. « Je suis chargé de mettre en place un cursus de formation afin de contribuer à l'acculturation et à la vulgarisation de ces sujets. Nous réfléchissons aussi à un parcours de formation pour les ingénieurs data et data scientists, autour de l'éthique de la donnée, pour préciser ce qu'il est possible de faire et présenter les réglementations à suivre, comme le RGPD », indique Frédéric Chassard.
Les leçons à retenir
Frédéric Chassard et son équipe ont tiré plusieurs enseignements du chemin déjà accompli, qui permet aujourd'hui de disposer d'un fort potentiel humain et technologique au service de la banque. Voici quelques bonnes pratiques et points de vigilance issus de leur expérience.
1. D'abord, il est important dans une démarche de big data de s'appuyer sur des collaborateurs et data engineers expérimentés et des partenaires spécialistes de la Data. « Il faut connaître le marché quand on veut bâtir une telle architecture », souligne Frédéric Chassard, pour qui l'écosystème de partenaires et de sachants doit également être pris en compte lors du choix des outils. « Ce critère de marché nous a confirmé dans nos choix, plutôt que d'autres solutions avec un positionnement de niche. »
2. Ensuite, il ne faut surtout pas partir des besoins technologiques, mais de ceux de l'entreprise dans son contexte. C'est seulement quand ces derniers sont identifiés qu'on peut réfléchir aux moyens nécessaires pour mettre en oeuvre ces cas d'usage. « Il faut avancer crescendo, de façon itérative, en embarquant progressivement et en vulgarisant pour chercher l'adhésion, la compréhension de la trajectoire. »
3. Ne pas perdre du temps à faire des PoC. « Cela peut servir sur l'acculturation, mais ne permet pas d'affronter les vraies difficultés. Cela peut même freiner les vrais changements nécessaires dans les comportements et dans les processus. » Pour lui, il ne faut pas se limiter dans ses ambitions, mais simplement prendre les sujets dans le bon ordre. « Les fondamentaux vont permettre - ou pas, de faire la suite. Sans moyens techniques puissants, l'IA n'est pas envisageable par exemple. »
4. Réfléchir en amont aux enjeux spécifiques à chaque secteur d'activité. Le secteur bancaire est par exemple soumis à des enjeux forts sur la confidentialité des données. Ceux-ci déterminent les données qui peuvent être manipulées, les cas d'usages qui peuvent aller pour tout ou partie dans le cloud.
Article rédigé par

Aurélie Chandeze, Rédactrice en chef adjointe de CIO
Suivez l'auteur sur Linked In,
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire