Stratégie

Sanofi soigne préventivement l'éthique de son IA

Sanofi soigne préventivement l'éthique de son IA
Le géant pharmaceutique français Sanofi anticipe les questions d'éthique posée par l'IA. (Photo : Sanofi Vitry-sur-Seine)

À l'occasion du salon Vivatech, Sanofi a présenté sa démarche en matière d'IA responsable. Indispensable pour un Big Pharma appartenant à un secteur de la santé déjà scruté en matière d'éthique. Surtout à l'heure où la société s'oriente massivement vers l'usage de l'intelligence artificielle.

PublicitéLe 21 mai, le géant pharmaceutique français Sanofi a annoncé un partenariat avec OpenAI et Formation Bio. Si le premier est la star parmi les stars de l'IA générative avec ChatGPT, le second est un laboratoire d'un nouveau genre. Cette start-up née en 2016 et dont un des investisseurs n'est autre que le fondateur d'Open AI, Sam Altman, travaille sur de nouvelles molécules, uniquement à partir de data, de LLM, d'IA en général et d'autres technologies. L'annonce de cette collaboration s'inscrit dans la stratégie de plus en plus active de Sanofi autour de l'intelligence artificielle.

Or, dans un domaine aussi sensible et scruté en matière d'éthique que la santé, l'industriel ne peut pas faire l'impasse sur une politique adaptée à ses projets d'IA. D'autant qu'en sus du secteur industriel de l'entreprise, l'intelligence artificielle sous toutes ses formes est porteuse de ses propres sujets d'inquiétude en matière d'éthique : exploitation de données sensibles ou personnelles, biais, hallucinations, absence de transparence, etc.

C'est justement le sujet dont sont venus parler, au salon Vivatech le 22 mai, la responsable de la stratégie globale data et IA de Sanofi, Yasmine Zaimi, et le directeur éthique et intégrité business Benelux, également directeur de la gouvernance de l'innovation responsable, Cédric Verschueren. Seuls 42% des entreprises de plus de 100 employés se seraient lancées dans des projets d'IA, selon une étude commandée par IBM en janvier 2024, ont-ils expliqué. « Et le 3e frein le plus cité est justement l'inquiétude liée à l'éthique », a précisé Yasmine Zaimi, se référant à cette enquête. Les deux autres freins les plus cités dans l'étude, devant l'éthique, étant le manque de compétences et la complexité en matière de data.

Une forte croissance des « incidents » liés à l'IA depuis 2022

Des craintes justifiées comme l'a expliqué, chiffres et exemples à l'appui, Cédric Verschueren en s'appuyant cette fois sur l'AI index report 2024 de l'Institut Human-centered AI (HAI) de l'université californienne de Stanford. « Le nombre d'incidents liés à l'IA a augmenté de 32% entre 2022 et 2023 [autrement dit, depuis l'arrivée de l'IA générative, NDLR]. Et depuis 2013, ils ont tous simplement été multipliés par 10 ». Parmi les plus notables dans le monde de la santé, celui provoqué par un algorithme à base de règles justement exploité par Stanford en décembre 2020 pour sélectionner les employés à vacciner en priorité contre le Covid19. L'exclusion de soignants, pourtant confrontés directement aux patients, dans les résultats a mis à jour un défaut de l'algorithme. Celui-ci discriminait certaines personnes simplement en fonction de leur âge ou de leur ancienneté dans leur poste.

Autre incident notable, l'importation de préjugés raciaux, sociaux, économiques ou socio-économiques par le biais des données d'entraînement. Des chercheurs ont prouvé la présence de ceux-ci dans des modèles de données destinés aux algorithmes de classements de radiographies, par exemple, qui servent à identifier des fractures par exemple. Sans oublier les corrélations qui n'ont pas de sens ou encore le jailbreaking. Celui-ci consiste à détourner l'usage d'une IA générative par exemple et à générer potentiellement des informations nuisibles ou à révéler des informations sensibles.

PublicitéUne question d'équilibre

Yasmine Zaimi a rappelé l'ambition de Sanofi, celle-là même qui transparaît dans le partenariat avec OpenAI et Formation Bio : devenir rien moins que la première entreprise biopharmaceutique alimentée par l'IA à grande échelle. « Pour ce faire, nous ferons appel à des technologies comme l'active learning [sélection intelligente des échantillons les plus pertinents pour l'annotation des données nécessaires à l'entraînement de modèles de machine learning] pour mieux identifier et comprendre les maladies en améliorant l'identification des cibles et le processus de recherche. Et en bout de chaîne, nous disposons déjà d'une IA qui optimise la production, en fonction des matières premières disponibles sur un site de fabrication. » L'IA sert aussi tout simplement à l'industriel à s'adapter à une demande croissante sans augmenter proportionnellement ses coûts. « Qui plus est, c'est une technologie évolutive qui permet de transformer des processus entiers, de générer du contenu en masse, etc. »


Yasmine Zaimi, responsable de la stratégie globale data et IA, et Cédric Verschueren, directeur éthique et intégrité business Benelux, également directeur de la gouvernance de l'innovation responsable, lors de Vivatech 2024. (Photo ED)

Justement parce que l'IA ouvre autant d'opportunités à Sanofi, Yasmine Zaimi a rappelé les risques qu'il y aurait pour l'industriel à ne pas prendre en compte les questions d'éthique associées. Comme pour les risques financiers ou environnementaux majeurs, « il s'agit de trouver un équilibre entre la capacité à poursuivre notre stratégie d'innovation et la minimisation des risques associés », a-t-elle résumé. « Le risque dépend cependant de la partie de la chaîne de valeur dans laquelle s'inclut le cas d'usage, a précisé de son côté Cédric Verschueren. En particulier pour une entreprise pharmaceutique comme la nôtre, présente tout au long de cette chaîne de valeur, de la recherche au développement, à la fabrication, à la supply chain, aux activités commerciales, etc. »

Une politique éthique à 5 piliers

Sanofi a donc sans surprise décidé d'adopter une approche basée sur le risque. Nommée RAISE pour Responsible AI @ Sanofi, elle repose sur 5 piliers. Le pilier principal consiste, pour l'industriel, à assumer sa responsabilité en matière de résultat d'un traitement par l'IA tout au long du cycle de vie de celui-ci : conception, développement, déploiement et utilisation. Les 4 autres piliers associés sont la robustesse et la sécurité, l'équité et l'éthique, la transparence et la clarté, et enfin l'écoresponsabilité. « Sans oublier que la décision finale revient toujours à la personne impliquée dans le processus », a rassuré Cédric Verschuren.

La confidentialité des données est un des sujets centraux, avec des modèles de base d'entraînement des modèles d'IA contenant des informations personnelles et sensibles sur les patients qui ont donné leur consentement. « En matière de protection de la vie privée, il y a un compromis à trouver, insiste Cédric Verschuren. Nul doute, il faut des données patients pour entraîner les algorithmes. Mais il faut les protéger et ne pas les conserver. » L'équité consiste elle à définir des modèles d'IA complets inclusifs, qui fonctionnent pour tous les patients. Ce qui impose des ensembles de données d'entraînement les plus larges possibles. Enfin, l'explicabilité consiste à comprendre de façon détaillée ce qui sous-tend une décision proposée par l'IA.

Des instances d'organisation et de contrôle

Il y a tout juste un an, en avril 2023, Sanofi a donc classiquement commencé par créer un groupe de travail transverse sur l'IA responsable. Composé d'experts en droit, confidentialité, achats, éthique, politique et cybersécurité, mais aussi IA et data, il a défini la vision et la politique interne du groupe en la matière. Fin 2023, un comité de gouvernance de l'IA responsable a été mis en place qui a entre autres rédigé et diffusé un document de politique interne à toute l'entreprise. Un travail qui a embarqué toute l'entreprise avec l'appui de dispositifs de formation, de communication et d'acculturation. « L'IA responsable n'est pas un sujet uniquement numérique, a rappelé Yasmine Zaimi. C'est un sujet sociotechnique. Il faut impliquer l'éthique, la cybersécurité, la RSE, etc. »

Sur la base des démarches et de l'organisation validées en 2023, ont été lancés, en février 2024, une formation à l'IA responsable et une démarche globale d'évaluation des risques liés à l'IA. Sans oublier l'intégration de la démarche RAISE dans le code de conduite de l'entreprise. Pour Cédric Verschuren, il est par ailleurs essentiel d'établir des priorités pour piloter les contrôles d'un système d'IA avec rigueur, en fonction du niveau de risque qui lui est associé. L'entreprise développe donc des méthodes pour identifier ce degré de prise de risque, en fonction des projets. Une délicate question d'équilibre.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Anticipez-vous une réorganisation de vos équipes réseau liée à la modernisation de votre infrastructure ?