L'intelligence artificielle doit être gérée comme un nouvel employé

Le CPI-B2B (Club de la Presse Informatique B2B) a débattu le 19 avril 2017 sur l'intelligence artificielle dont même la définition mérite questionnement.
PublicitéL'intelligence artificielle (IA) redevient un sujet d'actualité au fil de ses succès spectaculaires. Mais, en fait, ses vrais succès sont souvent plus discrets, tout comme ses implémentations réelles. Lors de sa réunion du 19 avril 2017, le CPI-B2B (Club de la Presse Informatique B2B) en a débattu avec la participation de représentants de fournisseurs mais aussi de Bertrand Braunschweig, directeur du centre de Saclay - Île-de-France de l'INRIA (Institut national de recherche en informatique et en automatique). L'intégration d'une IA à un processus s'apparente plus à un recrutement d'humain qu'à un déploiement de système informatique, ce qui n'est pas le moindre des paradoxes soulevés au cours de cette matinée.
Bertrand Braunschweig a ainsi mentionné, comme exemple des succès spectaculaires, la victoire d'IBM Watson au Geopardy. Les technologies mises en oeuvres sont ici nettement plus complexes que pour gagner contre un grand maître aux échecs : traitement du langage naturel, recherche de documentation, deep-learning et auto-apprentissage. Mais des nouveaux services moins mis en avant montrent également les avancées en matière d'IA, en particulier en matière de reconnaissance d'image ou de reconnaissance faciale, très utilisées pour la vidéosurveillance et la sécurité. Comme Bertrand Braunschweig, on peut aussi citer un assistant de Facebook qui décrit les images aux aveugles, un traducteur temps réel dans une messagerie instantanée... La reconnaissance de la parole d'Apple Siri, Microsoft Cortana ou Amazon Alexa passerait presque pour ringard. Des milliards d'euros sont investis par les grands acteurs technologiques : Google, Facebook, Intel, IBM, etc.
Un vrai problème de définition
Mais si on dépense des milliards d'euros ou de dollars pour l'IA, on est bien en peine de définir exactement ce dont on parle. « Chacun a sa définition et aucune n'est satisfaisante » a soupiré Bertrand Braunschweig. Il s'est tout de même risqué à une proposition : « il s'agit de faire faire à une machine ce qui est normalement fait par un être humain. En gros : analyser, comprendre, décider. » Chez Accenture, la définition est donnée en quatre verbes : percevoir, comprendre, agir et apprendre. Ce cabinet part du principe que le premier rôle d'une IA est de simplifier la relation humain-machine en interprétant la volonté humaine à l'attention d'un automatisme au lieu de forcer l'humain à respecter la logique de l'automatisme.
Il existe globalement deux sortes d'IA. La première, la plus ancienne, celle des « systèmes experts », est manuelle. Il s'agit de reproduire des process formels pré-établis. Les décisions prises par l'IA sont alors traçables et explicables mais la création des algorithmes de process est très lourde et il faut arbitrer les désaccords sur les process. Il s'agit d'une logique « If... Then... Else... ». La deuxième, plus récente, est l'IA auto-aprenante. Dans ce cas, l'IA est « récompensée » ou « punie » en fonction du résultat obtenu et elle va alors chercher à optimiser son résultat au fil de ses succès et de ses échecs. Il reste alors à ne rien oublier dans les critères de « récompense » ou de « punition » (si massacrer l'humanité optimise le résultat final, on pourrait avoir des problèmes). Surtout, il y a un « effet boîte noire » avec l'impossibilité, bien souvent, de comprendre comment la machine a abouti à telle conclusion.
PublicitéLa performance pure de l'IA progresse...
Les humains comprennent mieux le langage que les IA. Stéphane Roman (Oracle) a ainsi pris l'exemple : « passe moi la bouteille ». De quelle bouteille s'agit-il ? La réponse va dépendre de l'analyse de l'intention prêtée au locuteur. Pour Capgemini, il faut savoir passer de la logique « If... Then... Else... » à l'apprentissage au fil de l'eau. Mais les réseaux de neurones et toutes les techniques connues d'IA existent depuis plus de quinze ans. La vraie révolution, comme l'a souligné Stéphane Rion (Teradata), c'est la quantité de données pouvant être traitée et surtout le prix et la puissance des composants disponibles. Les outils actuels sont ainsi bien plus puissants que ceux de jadis même si les principes de base sont les mêmes.
La limitation des IA est ainsi souvent celle de leur capacité de traitement. La plupart des IA sont qualifiées de « faibles ». Et, même les plus puissantes, procèdent en général par « deep learning », c'est à dire par la multiplication des couches de traitement, donc d'étapes, afin de simplifier le problème initial. A chaque couche, le process avance. L'exemple typique est l'analyse d'image avec reconnaissance faciale où on peut visualiser les progrès étape par étape. « Aujourd'hui, le taux d'erreur en reconnaissance d'images d'une IA peut être inférieur à celui d'un être humain, la reconnaissance faciale par IA étant meilleure que celle des humains depuis 2006 » a affirmé Bertrand Braunschweig. Le taux d'erreur est actuellement infime (moins de 0,01 % dans de bonnes conditions de prise de vue).
... mais reste limitée.
Quand on parle de « taux d'erreur » ou d'« apprentissage », cela signifie clairement que la fiabilité de l'IA n'est pas absolue, comme un processus totalement fiable et rigide. « Il ne faut pas gérer une IA comme un programme informatique mais comme une personne à former » a ainsi plaidé Cyrille Bataller (Accenture). Remplacer une décision humaine par une décision informatique mais traiter l'ordinateur comme une personne ? C'est là un beau paradoxe, parfaitement assumé.
L'IA va permettre de massifier des opérations trop lourdes à opérer manuellement. Et pousser à focaliser les efforts humains sur la vraie valeur ajoutée. La masse de données traitées va ainsi s'accroître considérablement à quantité de personnel stable. L'exemple typique est celui de l'analyse de la vidéosurveillance. L'IA peut remonter aux humains des alertes potentielles qui vont être estimées par des humains qui resteront maîtres de la gestion des exceptions et de la décision finale. « La reconnaissance de l'écriture manuscrite d'une note de frais ou d'une ordonnance de médecin avant injection des données dans un système informatique, peut nécessiter plus ou moins d'apprentissage selon la clarté de l'écriture » a reconnu Mourad Sadok (Unit 4).
Une fiabilité à prendre en compte
Il en résulte une fiabilité qu'il faut juger. Aucun taux de fiabilité n'est bon ou mauvais dans l'absolu. Pour Stéphane Roman (Oracle) : « un bandeau publicitaire mal ciblé sur dix mille, c'est très bien ; un avion automatique qui s'écrase sur dix mille, avec 200 passagers, c'est très mauvais. » Et on ne répétera jamais assez que la corrélation ne vaut pas causalité. Une étude tendait ainsi à montrer que placer une veilleuse dans les chambres d'enfants rendait ceux-ci myopes. Mais, en fait, les parents myopes, transmettant les gênes de la myopie, avaient besoin de mettre une veilleuse pour s'occuper de leurs enfants. Pour la programmation d'une intelligence artificielle, une telle erreur peut être problématique. Dans une analyse de texte, la reconnaissance de l'ironie va poser problème : « trois heures pour faire Paris-Marseille en TGV, bravo la SNCF » n'a pas le même sens que « trois heures pour faire Gare-de-Lyon-Châtelet en RER A, bravo la RATP ». Comme pour un enfant, c'est l'apprentissage et la prise en compte du contexte et des références (temps moyen de trajet dans le cas d'espèce) qui va résoudre le problème.
Surtout, les méthodes les plus « modernes » ne sont pas forcément les meilleures. Les taux de fiabilité sont confidentiels mais aussi bien dans un groupe bancaire que dans les caisses d'allocations familiales, les approches de type systèmes experts « If... Then... Else... » se sont révélées bien plus pertinentes que le Deep Learning pour le repérage de la fraude. C'est le modèle de décision qui est important, plus que la quantité de données ou la puissance pure.
Article rédigé par

Bertrand Lemaire, Rédacteur en chef de CIO
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire