Grand Théma : les questions éthiques au coeur des projets de GenAI

Non déterministes, pré-entraînées, les IA génératives sont porteuses de risques sur le plan éthique. France Travail, par la voix de son directeur associé data et IA, et la MGEN, représentée par sa DPO et son DSI, détaillent comment ils tentent d'encadrer ces possibles dérives.
PublicitéDifficile de mettre en oeuvre l'IA générative sans s'interroger, en amont, sur les questions éthiques qu'elle soulève. Le sujet est particulièrement important dans des activités fortement régulées ou ayant de fortes exigences d'équité et de transparence. Comme c'est le cas de France Travail. Reçu dans le cadre de notre émission Grand Théma, son directeur associé en charge du programme data et IA, Sylvain Poirier a détaillé comment l'ex-Pôle Emploi exploite, mais aussi encadre, cette technologie prometteuse dans son activité.
« La data et l'IA chez France Travail, ce n'est pas nouveau. Cela fait 10 ans que nous investissons sur ce sujet », dit-il d'emblée. Notamment via un datalake et un programme centré sur l'IA et baptisé Intelligence Emploi, avec de premiers services disponibles dès 2022, comme une analyse de CV ou un service vérifiant la conformité des annonces d'offres d'emploi. « Cela nous a permis assez tôt de poser des socles pour développer des services d'IA, avec une plateforme assurant leur développement dans un cadre sécurisé et conforme à la réglementation. Et nous nous sommes aussi dotés d'une charte éthique, qui est notre boussole dans tout projet d'IA », assure le responsable. Avec la volonté affichée de développer des outils qui soient au service des conseillers, respectent les impératifs de sécurité, l'équité de traitement ou encore assurent l'explicabilité des algorithmes. Le tout est surveillé par un comité externe, « pour avoir un regard extérieur sur les services d'IA que nous développons », dit Sylvain Poirier.
ChatFT et MatchFT : premières applications concrètes
Mais ce cadre est-il encore pertinent avec l'IA générative, par essence non déterministe ? « Quand est arrivé ChatGPT en 2022, nous avons identifié un intérêt pour la technologie et créé un programme Data et IA, qui remonte à il y a tout juste un an », reprend le directeur associé de France Travail. « Nous sommes partis du terrain, des conseillères et conseillers, pour identifier les irritants et les besoins », indique-t-il. France Travail a alors identifié trois terrains d'expérimentation principaux : le gain d'efficacité des conseillers, afin qu'ils puissent réellement mobiliser leur expertise au service des demandeurs d'emploi ; la simplification de l'accès aux outils et données dans un paysage applicatif complexe ; et, enfin, la création de services innovants permettant de repenser l'expérience des usagers.
Sylvain Poirier, directeur associé en charge du programme data et IA de France Travail : « à chaque fois qu'une nouvelle idée est proposée, une déclinaison de la charte éthique nous permet d'identifier les points à sécuriser. »
PublicitéRegardez notre émission consacrée aux enjeux éthiques de l'IA
Ce qui a donné naissance à deux grands chantiers. Le premier, ChatFT, qui permet aux conseillers de requêter les bases documentaires. A date, selon Sylvain Poirier, plus de 30 000 agents -soit la moitié de cette population - utilisent déjà cet assistant. Le second, MatchFT, actuellement en test sur deux régions, est un outil intégré à l'environnement des conseillers pour les entreprises et vise à faciliter la préqualification des demandeurs d'emploi en réponse à une offre. « Cette IA va aller vérifier, auprès du candidat, un certain nombre de prérequis associés à l'offre : son intérêt, sa disponibilité, sa mobilité, etc. », détaille Sylvain Poirier.
« Pas question de lancer des centaines de prototypes »
Ces premières applications reposent sur une approche RAG, avec des bases de données déployées sur l'infrastructure de France Travail. « Et, à chaque fois qu'une nouvelle idée est proposée, une déclinaison de la charte éthique nous permet d'identifier les points à sécuriser, le travail à mener avec l'équipe RGPD et les risques associés », assure le responsable.
A la MGEN également, l'IA générative a été rapidement identifiée comme un sujet d'intérêt. « En 2024, nous avons payé pour voir, en installant des socles, commencé à travailler sur des prototypes avec les métiers. Mais nous avons choisi d'être sélectifs pour aller jusqu'à la mise en production », dit Arnaud Méjean, DSI de la mutuelle et directeur général du GIE MGEN Technologies. « Pas question de lancer des centaines de prototypes », reprend le DSI. La valeur de l'application potentielle est donc systématiquement interrogée, tout comme sont analysées la qualité et la disponibilité des données sur lesquelles cette application s'appuie.
Arnaud Méjean, DSI de la mutuelle et directeur général du GIE MGEN Technologies : « nous avons beaucoup travaillé sur la qualité de la donnée ».
Et ces premières applications reposent sur une infrastructure que la MGEN a voulu maîtriser, via un accord avec Sens, la co-entreprise entre Thalès et Google. « Quand nous utiliserons nos jeux de données, elles resteront au sein de cet environnement sécurisé, dit le DSI. Nous avons aussi beaucoup travaillé sur la qualité de la donnée et avons commencé à nous transformer à travers la création d'un lab IA qui accompagne les métiers. » Avec aujourd'hui des usages au sein de la DSI, sur le développement et le ticketing. La mutuelle, qui a récemment remporté le renouvellement du marché de l'Education nationale, est aussi en train de déployer des chatbots « qui vont permettre aux agents ou aux clients d'avoir de premières réponses, avant une discussion », souligne Arnaud Méjean.
Un rôle élargi pour la DPO de MGEN
Mais ces applications auront évidemment besoin d'un cadre strict de fonctionnement, surtout étant donné la nature des informations que manipule une mutuelle. « Nous avons anticipé l'AI Act en démarrant des travaux sur ce sujet dès 2023, souligne Béatrice Cateaux, la DPO (Data Protection Officer) de MGEN. Nous avons pris le parti de capitaliser sur ce qui avait été fait pour le RGPD et de mettre à jour notre dispositif et notre gouvernance de la donnée, notamment personnelle. Concrètement, aujourd'hui, nous avons déjà une méthode de classification des IA, conformément au texte. Pour nous, cette approche par les risques est clef, car elle permet de sécuriser les IA sans freiner l'innovation. »
Béatrice Cateaux, la DPO de MGEN : « Un des points clefs consiste à veiller à la qualité de la donnée, pour ne pas conduire à des discriminations ou amplifier des inégalités. »
Au sein de la mutuelle appartenant au groupe Vyv, le sujet a fait évoluer la fonction de DPO. « Mon périmètre s'est élargi », assure Béatrice Cateaux, qui gère désormais les aspects conformité et éthique des IA. Cette dernière indique, en particulier, surveiller les risques liés à la vie privée des adhérents et ceux associés au sentiment de perte de contrôle sur ses données que peut vivre l'assuré. Des sujets qui pré-existaient, mais qui s'amplifient à mesure que les traitements de données se multiplient et que ces derniers concernent des volumes d'information sans cesse croissants. « Et notre RSSI est, de son côté, garant du fait que la sécurité est bien embarquée dès la conception de l'IA », ajoute Arnaud Méjean.
« Un des points clefs consiste à veiller à la qualité de la donnée, pour ne pas conduire à des discriminations ou amplifier des inégalités. Et introduire un contrôle humain, quand c'est nécessaire, ce qui est fonction de l'impact que l'IA peut avoir sur nos adhérents, souligne Béatrice Cateaux. Nous essayons d'avoir une approche graduée consistant à mettre en face d'un risque un moyen de maîtrise adapté. »
Regardez notre émission consacrée aux enjeux éthiques de l'IA
Article rédigé par

Reynald Fléchaux, Rédacteur en chef CIO
Suivez l'auteur sur Twitter
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire