Technologies

Pourquoi faut-il expliquer l'intelligence artificielle ?

Pourquoi faut-il expliquer l'intelligence artificielle ?
Du RGPD au futur IA Act, les règlementations imposent de se préoccuper dès à présent de l'explicabilité de l'IA.
Retrouvez cet article dans le CIO FOCUS n°200 !
Intelligence artificielle : la comprendre et l'encadrer pour en tirer des bénéfices

Intelligence artificielle : la comprendre et l'encadrer pour en tirer des bénéfices

Si le concept d'intelligence artificielle date des prémices de l'informatique, son développement réel est bien plus récent. Il faut en effet de la puissance de calcul et du stockage en grandes quantités et à coût raisonnable pour pouvoir réellement y recourir. Aujourd'hui, l'intelligence...

Découvrir

Pratiquement tous les domaines et secteurs d'activité déploient aujourd'hui des cas d'usage basés sur des technologies d'intelligence artificielle. Mais la fréquente opacité des algorithmes utilisés, en particulier quand il s'agit d'apprentissage machine, soulève en retour un besoin accru de transparence et d'explicabilité, surtout quand ces technologies ont un impact sur l'individu.

PublicitéLe développement des technologies de machine learning (ML) ou apprentissage machine a donné un nouvel élan à l'intelligence artificielle (IA). De la médecine aux véhicules autonomes, de la logistique à la cybersécurité, en passant par le monde militaire et policier, la finance, le marketing ou encore le recrutement : ces technologies d'IA sont aujourd'hui présentes dans tous les domaines. Selon les cas, elles servent à aider la prise de décisions d'un humain ou à déclencher des actions automatiques. Mais cet essor nécessite des garde-fous, en particulier quand les décisions prises ou guidées par l'IA ont des conséquences importantes sur les individus. Face à l'opacité de certains algorithmes, les individus ont en effet des droits, dont celui d'avoir une explication et de pouvoir contester les décisions les concernant. Mais cela suppose de comprendre comment un modèle d'IA fonctionne et comment il est arrivé à son résultat. Ce constat alimente un champ de recherche particulièrement dynamique à l'heure actuelle, celui de l'IA explicable, souvent abrégé en XAI (eXplainable AI).

Historiquement, les premiers modèles d'IA ont d'abord essayé de retranscrire des cheminements logiques sous forme de symboles. À la différence de cette IA dite symbolique, les modèles de machine learning, très populaires aujourd'hui, se construisent par l'apprentissage, à partir d'ensembles de données qui leur sont fournis en entrée. Il existe trois grandes catégories de machine learning. Dans l'apprentissage supervisé, le plus fréquent, des experts humains indiquent à l'algorithme comment classer chaque élément de l'échantillon via des labels sur les données, jusqu'à ce que l'algorithme puisse inférer par lui-même le résultat. Avec le ML non supervisé, on laisse l'algorithme explorer les données par lui-même, pour qu'il découvre des corrélations ou des regroupements. Enfin, dans le ML avec renforcement, l'algorithme effectue des actions et apprend en fonction des réactions de l'environnement à celles-ci. Dans toutes ces approches, le modèle de décision n'est pas défini de façon formelle, mais induit à partir des données. Certains algorithmes de ML restent encore interprétables par un humain, dès lors qu'ils ne sont pas trop complexes, comme ceux basés sur la régression linéaire, la régression logistique ou les arbres de décision. D'autres en revanche s'avèrent plus difficiles à comprendre. Leurs résultats, qu'il s'agisse de prédictions, de recommandations ou de classifications sont alors difficiles à expliquer. Certaines techniques de ML sont particulièrement opaques. Un guide récent publié par l'Information Commissioner's Office (ICO) et l'Alan Turing Institute cite en exemple les réseaux de neurones artificiels, les méthodes basées sur les ensembles les machines à vecteurs de support et la forêt aléatoire, qualifiés de « boîtes noires ».

PublicitéProtéger les droits fondamentaux des individus

Cette opacité soulève un certain nombre d'enjeux éthiques. Dès lors que les décisions basées sur des algorithmes d'IA concernent des individus, ceux-ci doivent en être informés. Ils sont en droit d'obtenir une certaine transparence, peuvent exiger de façon légitime une explication et contester la décision si jamais elle se révèle erronée ou injustifiée. Dans le cas où la décision est justifiée, l'expliquer permet aussi à l'individu d'agir pour avoir un meilleur résultat. Cela peut être par exemple un patient qui va modifier son alimentation pour diminuer un risque médical, un candidat qui va revoir son CV pour mieux mettre en valeur son expérience ou même une entreprise qui va retravailler son site Web pour améliorer son référencement. Plus les décisions touchent des domaines sensibles, plus les exigences de transparence et d'explicabilité sont généralement élevées. Plusieurs réglementations ont pour objectif de protéger les droits fondamentaux des individus face à l'usage de l'IA. C'est le cas notamment du RGPD, dont l'article 22 dit par exemple qu'aucun individu ne peut être sujet à des décisions entièrement automatisées ayant des conséquences légales, ou significatives, sauf si des conditions précises sont réunies : le droit d'obtenir une intervention humaine de la part du responsable du traitement, le droit d'exprimer son point de vue et celui de contester la décision. L'explicabilité risque de devenir encore plus essentielle avec la future directive européenne IA Act, qui distingue quatre niveaux de cas d'usage. Le projet de réglementation laisse en effet présager un net renforcement des obligations en vigueur, en particulier sur les cas d'usage à très haut niveau de risque.

Un autre enjeu clef est le risque de biais. La pertinence des algorithmes de ML dépend fortement de la qualité, de la quantité et de la diversité des données fournies, et les exemples ne manquent pas de situations où l'usage de l'IA a débouché sur des biais importants, pouvant entraîner des discriminations. Parmi les cas d'école figurent les algorithmes de reconnaissance faciale, qui il y a quelques années affichaient des écarts de performance notables selon le genre et la couleur de peau des individus, en raison d'un échantillon de photos où les hommes blancs étaient davantage représentés. L'explicabilité contribue aussi à déceler des biais éventuels, car elle se penche également sur la manière dont les modèles sont conçus et formés.

Une transparence associée à certains risques

En dehors de ces enjeux éthiques, l'explicabilité de l'IA apporte d'autres bénéfices. Pour les entreprises, offrir davantage de transparence sur la manière dont elles utilisent l'IA peut notamment augmenter la confiance des clients. Expliquer aide également à corriger et améliorer les modèles. Même dans le cas d'algorithmes ne touchant pas directement des individus, comme en météorologie, le fait de pouvoir expliquer les éléments qui interviennent dans les résultats peut permettre de comprendre pourquoi ces derniers sont parfois erronés.

Dans leur guide, l'ICO et l'Alan Turing Institute mettent toutefois en garde contre certains risques liés au fait de rendre les algorithmes d'IA explicables. L'un d'entre eux concerne le risque de voir l'IA détournée par des utilisateurs. S'ils en connaissent les mécanismes sous-jacents, ils sont alors en mesure de fournir les données pour arriver au résultat souhaité. Quand l'IA est utilisée par exemple pour la détection de fraudes, il convient d'être davantage vigilant sur le niveau d'information fourni sur le fonctionnement des algorithmes. Un autre risque, plus classique, est d'ordre concurrentiel : quand l'algorithme apporte un avantage sur le marché à une entreprise, celle-ci peut hésiter à l'expliquer trop en détail. Enfin, le facteur du coût de l'explication entre dans la balance. Pour savoir à quel niveau l'entreprise doit investir, un rapport pluridisciplinaire coécrit par plusieurs chercheurs de Telecom Paris, Institut Polytechnique de Paris conseille d'évaluer le rapport risques-bénéfices de l'explication. Les auteurs indiquent en exemple qu'il y a peu de bénéfices à savoir précisément sur quoi Netflix base ses recommandations. En revanche, si une IA est impliquée dans un accident grave, l'explication offre alors un bénéfice élevé.

Le 4 mars, un second article abordera ce que signifie expliquer l'IA et les différentes manières d'y parvenir.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis