À la Macif, un manifeste et une gouvernance pour piloter une IA éthique

Pour ne pas passer à côté du potentiel innovant de l'IA, tout en restant conforme à ses valeurs mutualistes, la Macif a rédigé un manifeste et énoncé des règles de pilotage des projets d'IA à l'aune de l'éthique. Une ambition forte et louable qui mobilise une organisation dédiée et représente un effort important.
PublicitéPas question pour la Macif de se passer de l'IA que le secteur de l'assurance dans son ensemble a déjà commencé à exploiter. Pour autant, la mutuelle considère qu'elle ne « peut pas traiter cette technologie comme un outil ordinaire, car elle met potentiellement en tension son cadre de valeur ». À l'occasion du Sommet pour l'action sur l'IA qui s'est tenu à Paris durant une semaine à partir du 6 février, l'entreprise a ainsi tenu à faire état de ses préoccupations concernant ce qu'elle considère comme « d'importants dangers pour les valeurs qu'elle défend de manière affirmée et constante : inclusion, solidarité et lutte contre les discriminations, notamment ».
L'occasion également de partager les démarches qu'elle a engagées pour tenter de concilier usage de l'IA et comportement éthique. La mutuelle a ainsi rédigé un « manifeste pour l'utilisation éthique de l'intelligence artificielle [...] qui sera régulièrement questionné et évoluera dans le futur », explique-t-elle dans un communiqué, et a mis en place une organisation et une gouvernance pour traduire concrètement les ambitions de ce manifeste et intégrer l'éthique dans le pilotage de sa stratégie d'IA. La Macif explique avoir « souhaité que la réflexion précède l'action et [...] qu'un cadre politique soit mis en place pour faire émerger et croître les futurs usages qu'elle fera de l'IA ».
Un processus itératif en 5 étapes
En pratique, la mutuelle a imaginé un processus itératif de développement et de contrôle des systèmes d'IA en cinq phases : évaluation préalable des risques, design, développement et test, déploiement, contrôle une fois le système déployé. Avec une gouvernance qui s'appuie sur trois instances internes : le comité de direction, la commission mixte gouvernance du numérique et un groupe de travail spécialement créé pour l'IA appelé le GT-IA. Ce dernier « recueille les besoins des utilisateurs potentiels des systèmes d'IA, les analyse, en fait une approche critique, suit la conception, le développement et le contrôle des systèmes [...] ». Il a également la charge de la cartographie de toutes les initiatives d'IA de la mutuelle. La commission mixte gouvernance du numérique, qui regroupe des techniciens et des administrateurs de la Macif, peut mettre en question l'éthique d'un système d'IA en phase de conception ou lorsqu'il est déjà déployé. Enfin, le comité de direction fixe les ambitions et limites stratégiques de l'utilisation de l'IA dans l'entreprise, les priorités d'usage et prend la responsabilité de déployer ou de décommissionner un système à la suite d'une instruction éthique par la commission mixte.
Pour estimer l'impact potentiel de ses systèmes d'IA dans ce processus, la Macif reprend le découpage en trois composantes de l'ESG : sociétale, environnementale et sociale. « Il est ainsi demandé aux équipes en charge du développement des systèmes d'IA, avec l'appui du GT-IA, de se questionner sur les trois dimensions », précise le manifeste de la Macif. Pour la composante sociétale, elles devront documenter « l'objectif, les utilisateurs cibles, les parties prenantes, les gains attendus et effets néfastes potentiels ». En matière d'impact environnemental, les concepteurs de systèmes d'IA devront justifier de l'usage de technologies du marché, mesurer le rapport entre leur empreinte environnementale et le gain visé et étudier des alternatives plus classiques et frugales. Dans le cas de développements internes, les équipes IT devront veiller à en minimiser l'impact dès le départ. Une vigilance particulière étant demandée par la mutuelle pour la GenAI, dont la consommation de ressources dépasse, et de loin, celle d'autres technologies.
PublicitéLes impacts pour l'assurance, le monde mutualiste et la Macif
Enfin, en matière d'impact social, l'équipe de conception « documentera les articulations homme-machine envisagées » en identifiant les parties prenantes internes sur lesquelles l'IA pourrait avoir un impact négatif, et pour la GenAI, documentera les risques « de mauvais alignement accidentel des objectifs ou d'utilisation détournée par l'humain », en particulier dans le cas où le système rend possible « l'accès à des informations dangereuses, des comportements dégradants ou abusifs ou encore la production de résultats toxiques ou biaisés ». Le manifeste ne prend cependant pas en compte - alors qu'elle le fait pour l'impact environnemental - l'impact des technologies d'IA générative sur la société. Enfin, systématiquement, pour chacune des trois composantes, les équipes de conception des systèmes devront également « décrire les mesures de remédiation ou minimisation envisagées ».
Pour la Macif, l'objectif de son manifeste pour une IA éthique est de développer une « responsabilisation forte des techniciens en charge de ce sujet, un questionnement permanent sur le bien-fondé d'utiliser l'IA plutôt que d'autres technologies, un regard multiple et complémentaire, à la fois technique et politique, sur les cas d'usage, un principe de jurisprudence pour ne pas freiner la diffusion de cas d'usage au sein de la mutuelle et un pilotage permanent et exhaustif de tous les projets et mises en oeuvre de l'IA ». Pour cette raison, avant même de lister les enjeux éthiques de l'IA, le document en décrit en détail les technologies et le contexte. Un passage indispensable, même s'il est largement vulgarisé, pour appuyer la réflexion et la vigilance éthiques proprement dites.
L'IA est-elle compatible avec les valeurs mutualistes ?
Dans son manifeste, la Macif travaille en entonnoir. Elle part de l'ensemble du secteur de l'assurance, puis descend dans le monde des mutuelles avant de se concentrer sur son cas spécifique. Le secteur de l'assurance ne fait que « débuter sa mue », insiste le document, avec un intérêt privilégié pour la reconnaissance, le traitement et la génération de langage, la modélisation de données, la prédiction de tendances, le traitement de contenu de tout format et la prise de décision automatisée. La Macif liste plusieurs dérives possibles, comme « l'exclusion des personnes les plus exposées ou les plus fragiles du fait d'une tarification prohibitive des produits d'assurance sur certains micro-segments ». Or, le mutualisme, par sa nature même, est encore plus exposé aux dérives potentielles de ce type de l'IA. « La vision politique portée par le mutualisme est ainsi celle d'une assurance la plus accessible et inclusive possible, la protection de tous servant la liberté de chacun au sein de la société ». La Macif craint, par exemple, la proposition par l'IA de « politiques de démutualisation proposant des tarifs avantageux aux moins vulnérables ». Mais, à l'inverse, une connaissance plus fine, voire quasi individualisée des risques encourus par les sociétaires, grâce au « traitement de données issues de capteurs, de données de comportements de consommation, de données issues de l'open data public, etc. - peut être vue comme une opportunité lorsqu'elle est mise au service d'une meilleure prévention de ces risques ». Le manifeste souligne aussi à cette occasion l'importance d'une utilisation raisonnée des données personnelles.
Parce que la réponse à de tels enjeux est bien loin d'être uniquement technique, la Macif invoque aussi des notions philosophiques d'éthique, telles que la justice, par exemple. La discrimination algorithmique potentiellement induite par l'IA « est en majeure partie construite et située, c'est-à-dire relative aux modèles de justice existants dans des contextes socio-historiques donnés : ce que l'on reconnaît comme équitable ou inéquitable dépend du point de vue adopté. Que considère-t-on comme équitable ? A quel moment juge-t-on qu'il y a discrimination ou exclusion ? » Ce à quoi le manifeste ajoute qu'un « algorithme n'est jamais 'juste', car 'la' justice n'existe pas en tant que telle. Il existe seulement des conceptions particulières de ce qui est juste, équitable, responsable, solidaire, en fonction des cas d'usages et des publics ». Autrement dit, les entreprises qui développent et utilisent l'IA doivent arbitrer entre les « différentes possibilités de traitement algorithmique en mobilisant les théories de la justice jugées appropriées pour servir leurs intentions politiques et stratégiques, puis édicter les critères extra-techniques. »
Biais, explicabilité, auditabilité des algorithmes
Parmi les dangers éthiques liés à l'IA, la mutuelle décrit ainsi en détail les biais : les biais conscients ou inconscients de comportement humain, les biais méthodologiques, les biais de comportement des utilisateurs (qui peuvent faire émerger, volontairement ou non, des biais qui n'existaient pas dans l'algorithme d'origine), etc. Autre enjeu majeur pour s'assurer de la conformité d'une IA aux valeurs d'une organisation : l'explicabilité des systèmes. Un enjeu d'autant plus central que la transparence des acteurs de l'IA n'est pas leur qualité première. Dans les systèmes de deep learning, les règles inférées à partir des données sont « difficilement, voire pas du tout, interprétables par les humains ». La mutuelle envisage deux pistes pour passer outre. L'exploitation de technologies interprétables d'intelligence artificielle, construites avec un nombre réduit de paramètres, d'abord. La seconde voie, plutôt étonnante, consisterait à « construire a posteriori une explication suffisamment satisfaisante du fonctionnement d'un système opaque ». L'explicabilité des IA se réfère également à leur auditabilité et à la compréhension de leur comportement pour préserver la capacité de contrôle de ces outils par les humains. Sans surprise, la Macif pointe la nécessité de porter une attention particulière aux modèles de fondation à usage général de la GenAI, dont l'opacité rivalise avec leur efficacité.
Enfin, pour traiter de l'éthique de l'IA au sein de son organisation, la Macif a établi une gouvernance du numérique à la croisée de trois éléments : la régulation du numérique, la gouvernance du numérique dans les entreprises et l'éthique du numérique. La mutuelle étudie ainsi les sujets d'éthique en fonction des enjeux relatifs à leurs usages réels, et analyse les différents choix de conception et d'utilisation qui s'offre à elle, ainsi que leur impact potentiel. « Cette analyse éthique mobilise de façon complémentaire trois types de raisonnement », à commencer par la prise en compte des « effets connus ou anticipés de l'usage des systèmes en termes organisationnels, économiques, stratégiques, politiques et sociétaux » et « les avantages des systèmes d'IA pour la Macif » sur le plan de la performance opérationnelle, de la qualité de service », par exemple, ou « l'impact sur l'évolution des métiers de l'assurance ». Ensuite, la prise en compte de la réglementation et des normes de la profession ainsi que des critères d'évaluation propres à la Macif, tels l'alignement avec les standards et normes de la profession ou l'apport réel de nouveaux services aux employés ou aux clients. Enfin, le questionnement « du sens et du devenir des concepts fondamentaux de l'activité assurantielle » et des valeurs portées par la Macif, comme l'apport par l'IA d'une évolution des pratiques de mutualisation et de sélection des risques, etc.
La santé, un secteur qui prise l'IA
La santé est un secteur qui a déjà beaucoup intégré l'IA, et ce, bien avant l'arrivée de la GenAI, notamment via l'analyse de radiographies, de scanners ou d'IRM pour la recherche ou encore l'aide au diagnostic en temps réel. Poussé entre autres par l'AI Act, certains acteurs du domaine cherchent à préserver un comportement éthique, malgré l'exploitation de ces solutions. L'Assurance Maladie a ainsi publié fin janvier sa politique d'usage de l'IA, essentiellement bâtie autour de la définition de l'AI Act européen et l'attachement aux règles de l'ESG. Ce qui n'a pourtant pas empêché la Cnam d'être interpellée par la Quadrature du Net, Mediapart et Amnesty International pour sa notation algorithmique jugée discriminatoire des assurés. Le fonds Mutuelles Impact de la Mutualité Française et la MGEN ont quant à eux investi l'an dernier dans Ethik AI, une jeune pousse qui travaille sur le développement d'une méthode de supervision humaine de l'IA, sur des « principes de régulation en amont et aval de l'algorithme ».
La démarche de la Macif apparait d'une tout autre envergure. Reste à en mesurer les résultats. Comment va-t-elle concilier le temps long d'une analyse et d'un pilotage éthique avec l'urgence de l'innovation technologique face à la pression concurrentielle ? Quelles compétences va-t-elle mobiliser sur des sujets aussi complexes et opposés que l'éthique et les technologies d'IA ? Quels outils et méthodes compte-t-elle mettre en oeuvre pour traiter les biais, par exemple ? À ce jour, la Macid n'a pas répondu à nos questions sur ces sujets.
Article rédigé par

Emmanuelle Delsol, Journaliste
Suivez l'auteur sur Linked In,
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire