Projets

Comment La Banque Postale se prépare à rendre les algorithmes explicables

Comment La Banque Postale se prépare à rendre les algorithmes explicables
Clémence Panet-Amaro, chief data scientist à La Banque Postale : « Le projet d’IA Act est un pas vers une intelligence artificielle digne de confiance. »
Retrouvez cet article dans le CIO FOCUS n°200 !
Intelligence artificielle : la comprendre et l'encadrer pour en tirer des bénéfices

Intelligence artificielle : la comprendre et l'encadrer pour en tirer des bénéfices

Si le concept d'intelligence artificielle date des prémices de l'informatique, son développement réel est bien plus récent. Il faut en effet de la puissance de calcul et du stockage en grandes quantités et à coût raisonnable pour pouvoir réellement y recourir. Aujourd'hui, l'intelligence...

Découvrir

Lors de l'événement DataOps.Rocks, organisé par Saagie le 23 septembre 2021, les data scientists de La Banque Postale ont expliqué comment l'entreprise se préparait dans la perspective de l'IA Act, en travaillant sur l'explicabilité des algorithmes.

PublicitéCréée en 2006, La Banque Postale réunit les différents services financiers du groupe La Poste. Dans son plan stratégique 2020-2030, les données occupent une place essentielle, irriguant l'ensemble des axes. Pour répondre aux enjeux actuels autour de la donnée et se préparer à ceux à venir, La Banque Postale a créé en 2021 une nouvelle direction de l'innovation, du digital et de la data. Au sein de cette direction, la data factory, confiée à Clémence Panet-Amaro, travaille notamment sur l'explicabilité des algorithmes, un sujet amené à prendre de l'ampleur avec le projet de réglementation IA Act, soumis au Parlement européen et au Conseil de l'Union européenne le 21 avril 2021. Lors de l'événement DataOps.Rocks, organisé par Saagie le 23 septembre 2021, Clémence Panet-Amaro, chief data scientist à La Banque Postale, Dilia Carolina Olivo, data scientist à La Banque Postale et Bilal Azennoud, data scientist chez Probayes, ont présenté leurs travaux.

« La data factory fonctionne un peu comme un cabinet de conseil interne, avec huit data scientists qui accompagnent la banque et ses filiales sur tous leurs projets data, animent et fédèrent la communauté data », a expliqué Clémence Panet-Amaro afin de préciser le rôle de son équipe. Les projets sur lesquels celle-ci intervient touchent de nombreux domaines : le digital, le marketing, la lutte contre la fraude et le blanchiment, la gestion du risque ou encore le juridique et la conformité. « Nous allons aussi sur certains sujets un peu plus novateurs, comme l'amélioration de processus transverses », a indiqué la chief data scientist.

L'IA Act, un texte basé sur les impacts humains

Pour une banque, amenée à traiter de nombreuses données clients sensibles, il est essentiel de garder le lien de confiance avec les clients. Dès 2016, le groupe La Poste a mis en place une charte data, posant des principes de transparence et d'usage raisonné des données. Lors du rapprochement avec la Caisse des Dépôts et CNP Assurances en 2020, l'ensemble des chartes existant dans le groupe ont été partagées, afin de s'assurer de la cohérence globale des principes posés. Sept piliers guident aujourd'hui la stratégie data du groupe : la robustesse technique et la sécurité ; le respect de la vie privée et la gouvernance des données ; la transparence ; la diversité, la non-discrimination et l'équité ; le bien-être sociétal et environnemental ; la responsabilité et enfin une action et un contrôle humains. La capacité à rendre les modèles basés sur la donnée explicables, en particulier ceux d'intelligence artificielle, contribue directement à plusieurs de ces principes. Toutefois, en démarrant leur travail sur l'explicabilité, les data scientists de la data factory ont rencontré de nombreuses questions : quels modèles faut-il expliquer ? Seulement les modèles de machine learning ou bien les modèles déterministes ? À qui ? À celui qui les conçoit, à celui qui les contrôle, à celui qui est visé par la décision de l'algorithme ? Quel est le niveau de technicité requis et comment expliquer les modèles ?

PublicitéPour Clémence Panet-Amaro, « le projet d'IA Act est un pas vers une intelligence artificielle digne de confiance », qui réduit le champ des possibles et répond aux questions précédemment énumérées. Le projet se fonde sur une approche par les risques et sur l'impact humain pour classifier les modèles en quatre catégories, de la plus risquée à la moins risquée. Le niveau 1 désigne des systèmes jugés inacceptables, comme ceux qui manipulent le comportement humain. Dans le niveau 2, très risqué, figurent des processus comme l'octroi de crédit ou le recrutement. Le niveau 3 concerne des systèmes autorisés, mais soumis à des obligations de transparence (chatbots, contenus modifiés par IA), tandis que le niveau 4, avec un risque minime ou nul, recouvre par exemple des processus comme la maintenance prédictive. La proposition de loi s'applique à presque à tous : fournisseurs, utilisateurs, importateurs et distributeurs de systèmes d'IA au sein de l'Union européenne. Enfin, tous les modèles sont visés, même les classiques modèles experts et de statistique. Les sanctions encourues sont assez substantielles et cumulatives : par exemple, 30 millions d'euros ou 6% du chiffre d'affaires annuel en cas de non-respect des usages interdits. « Elles sont prévues pour être très dissuasives », a souligné Clémence Panet-Amaro.

Identifier les variables qui ont pesé dans une décision

La Banque Postale estime que le texte de l'IA Act pourrait entrer en application en 2024. C'est notamment dans cette perspective que la data factory travaille sur l'explicabilité, même si d'autres régulations, parmi les multiples textes régissant le secteur bancaire, ont déjà alimenté la réflexion en amont. Les travaux sont menés conjointement avec la maison-mère La Poste, Probayes, (filiale du groupe La Poste depuis 2016, spécialisée depuis sa création dans les usages de l'intelligence artificielle) et l'école Telecom Paris. « Nous voulons construire une boîte à outils d'explicabilité et de lutte contre les biais, partagée et intégrée par les différentes entités du groupe », a indiqué Clémence Panet-Amaro.

Les trois data scientists ont ensuite présenté quelques-unes des méthodes utilisées pour rendre les modèles explicables. Pour les modèles prédictifs, il existe deux niveaux d'explication, un niveau global et un niveau local. Au niveau global, il s'agit d'identifier les différentes variables de données examinées par le modèle et de mesurer leur importance respective, tandis qu'au niveau local, le but est d'expliquer quelles variables ont pesé dans une décision. « Il s'agit par exemple d'expliquer à une personne pourquoi elle n'a pas obtenu son crédit. Ce deuxième niveau est important pour le client et le conseiller », a souligné Clémence Panet-Amaro. En termes d'outils, les équipes utilisent des approches assez usuelles, comme la perturbation (SHAP, LIME) et les méthodes contrefactuelles (ICE, DICE). Pour les modèles basés sur de la reconnaissance d'image, les data scientists se servent de méthodes comme l'occlusion, le gradient descent et les integrated gradients afin d'identifier les zones de l'image qui influencent la classification. Dilia Carolina Olivo a ensuite illustré la méthode d'occlusion avec un exemple portant sur la reconnaissance faciale. « La méthode consiste à cacher de manière itérative une partie de l'image, pour analyser les différences avec et sans les pixels cachés. L'objectif est de trouver la zone du visage qui contribue le plus à une classification positive (c'est la même personne) ou négative (ce n'est pas la même personne) », a-t-elle expliqué.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis