Technologies

Intégrer l'IA agentique : pourquoi ce ne sera pas si simple

Intégrer l'IA agentique : pourquoi ce ne sera pas si simple
L’intégration de l’IA agentique dans les processus suppose d’avoir maîtrisé l’accès aux données, d’encadrer les agents avec une gouvernance spécifique ou encore d’en contrôler le comportement. (Photo : Ergoneon/Pixabay)

La complexité de l'existant et la sécurité sont des préoccupations majeures avant d'imaginer brancher des agents à base d'IA sur les SI. Tout comme la résorption de la dette technique.

PublicitéL'IA agentique est la grande percée technologique de ces douze derniers mois, et cette année, les entreprises vont commencer à déployer ces systèmes à grande échelle. Selon une enquête réalisée en janvier par KPMG auprès de 100 cadres supérieurs de grandes entreprises, 12 % des sociétés déploient déjà des agents d'IA, tandis que 37 % sont en phase pilote et que 51 % étudient la possibilité de les utiliser. Selon un rapport du cabinet Gartner, datant d'octobre dernier, un tiers des applications d'entreprise incluront l'IA agentique d'ici 2033, contre moins de 1% en 2024. Selon le cabinet, 15% des décisions opérationnelles quotidiennes seront ainsi prises de manière autonome.

En ce qui concerne les développeurs d'IA en particulier, tout le monde semble avoir déjà adopté cette évolution de l'IA générative. « En fait, nous avons commencé nos travaux dans l'IA en utilisant des agents presque dès le départ », indique Gary Kotovets, responsable data et analytics de Dun & Bradstreet.

Les agents d'IA sont alimentés par des modèles d'IA générative mais, contrairement aux chatbots, ils peuvent gérer des tâches plus complexes, travailler de manière autonome et collaborer avec d'autres IA pour former des systèmes capables de gérer des processus entiers, de remplacer des employés ou d'atteindre des objectifs métiers complexes. Tout cela crée de nouveaux défis, qui s'ajoutent à ceux déjà posés par l'IA générative elle-même. En outre, contrairement aux automatismes traditionnels, les systèmes agentiques ne sont pas déterministes. Ce qui les met en porte-à-faux par rapport aux plateformes Legacy, par essence très déterministes.

Agents tributaires de la qualité des données

Dès lors, constater que 70 % des développeurs déclarent avoir des difficultés à intégrer les agents d'intelligence artificielle dans leurs systèmes existants n'est guère surprenant. C'est ce qui ressort d'une enquête réalisée en décembre par la société Langbase, spécialisée dans les plateformes d'IA, auprès de 3 400 développeurs mettant au point des agents d'IA.

Le problème est en somme assez simple : avant de pouvoir intégrer les agents d'IA dans l'infrastructure d'une entreprise, celle-ci doit être mise à niveau et se conformer à des standards modernes. En outre, comme les agents nécessitent un accès à de multiples sources de données, des obstacles à l'intégration des données et des complexités nouvelles en matière de sécurité et de conformité se font jour. « Disposer de données propres et de qualité est la partie la plus importante du travail, déclare Gary Kotovets. Vous devez vous assurer de ne pas être confronté à un scénario de type 'garbage in, garbage out' ». Un classique de la gestion de données, mais qui reste des plus valides à l'heure du passage à l'échelle des applications d'IA.

PublicitéIndispensable modernisation de l'infrastructure

En décembre dernier, Tray.ai, éditeur d'une plateforme d'intégration de l'IA, a mené une enquête auprès de plus de 1 000 professionnels des technologies en entreprise. Le constat ? 90 % des organisations reconnaissent que l'intégration avec les données métiers est essentielle à la réussite de leur stratégie, mais 86% d'entre elles disent qu'elles devront mettre à niveau leur existant technologique pour déployer des agents à base d'IA.

Pour Ashok Srivastava, responsable des données chez l'éditeur de solutions de gestion pour PME et particuliers Intuit, « votre plateforme doit être ouverte pour que le LLM puisse raisonner et interagir avec elle de manière simple. Si vous voulez trouver du pétrole, vous devez percer le granit pour l'atteindre. Si toute votre technologie est enfouie et n'est pas exposée à travers le bon ensemble d'API, et à travers un ensemble flexible de microservices, offrir des expériences agentiques à vos utilisateurs s'annonce difficile. »

Intuit lui-même traite 95 Po de données, génère 60 milliards de prédictions ML par jour, suit 60 000 attributs fiscaux et financiers par consommateur (et 580 000 par client professionnel). L'éditeur traite 12 millions d'interactions assistées par l'IA chaque mois, interactions qui sont disponibles pour 30 millions de consommateurs et un million de PME. En modernisant ses propres plateformes, Intuit a non seulement été en mesure de fournir de l'IA agentique à grande échelle, mais aussi d'améliorer d'autres aspects de son fonctionnement. « La vitesse de développement a été multipliée par huit au cours des quatre dernières années, explique Ashok Srivastava. Tout cela n'est pas dû à l'intelligence artificielle. Une grande partie est attribuable à la plateforme que nous avons construite. »

Les agents et les batchs

Mais toutes les entreprises ne peuvent pas investir dans la technologie comme l'a fait Intuit. « La grande majorité des systèmes d'enregistrement dans les entreprises est encore basée sur des systèmes Legacy, souvent hébergés sur site, et ces systèmes alimentent encore de larges pans des entreprises », souligne Rakesh Malhotra, directeur au sein du cabinet de conseil EY. Ce sont ces systèmes transactionnels et opérationnels, ces systèmes de traitement des commandes, ces ERP et SIRH qui, actuellement, créent de la valeur pour l'entreprise. « Si la promesse des agents est d'accomplir des tâches de manière autonome, vous devez avoir accès à ces systèmes », ajoute-t-il.

Mais cette connexion demeure inutile lorsqu'un système fonctionne en mode batch. Avec les agents d'IA, les utilisateurs s'attendent généralement à ce que les opérations se déroulent rapidement, et non pas 24 heures après, observe Rakesh Malhotra. Il existe des moyens de résoudre ce problème, mais les entreprises doivent y réfléchir attentivement.

« Les organisations qui ont déjà mis à jour leurs systèmes transactionnels pour s'interfacer avec leurs anciennes plateformes ont une longueur d'avance », ajoute l'expert d'EY. Mais disposer d'une plateforme moderne avec un accès API standard ne permet de parcourir que la moitié du chemin. Les entreprises doivent encore faire en sorte que les agents d'IA communiquent avec les systèmes en place.

Les défis de l'intégration des données

Indicium, prestataire de services de données d'origine brésilienne, est une entreprise numérique dotée de plateformes modernes. « Nous n'avons pas beaucoup de systèmes Legacy », confirme Daniel Avancini, responsable data de l'entreprise. Indicium a commencé à construire des systèmes multi-agents à la mi-2024 pour la recherche de connaissances internes et d'autres cas d'utilisation. Les systèmes de gestion des connaissances sont à jour et prennent en charge les appels d'API, mais les modèles d'IA génératives communiquent en anglais. Et comme les agents d'IA individuels sont alimentés par l'IA générative, ils parlent également cette langue, ce qui crée des problèmes lorsqu'on essaie de les connecter aux systèmes de l'entreprise.

« Vous pouvez faire en sorte que les agents d'IA renvoient du XML ou un appel d'API », explique Daniel Avancini. Mais lorsqu'un agent, dont l'objectif principal est de comprendre les documents de l'entreprise, essaie de dialoguer en XML, il peut commettre des erreurs. Mieux vaut faire appel à un spécialiste, conseille le chief data officer. « Donc vous avez besoin d'un autre agent dont le seul travail consiste à traduire l'anglais en API, ajoute-t-il. Il faut ensuite s'assurer que l'appel à l'API est correct. »

Une autre approche pour résoudre le problème de la connectivité consiste à encapsuler les agents dans des logiciels traditionnels, de la même manière que les entreprises utilisent actuellement l'intégration RAG pour connecter les outils d'IA générative à leurs workflows au lieu de donner aux utilisateurs un accès direct et sans intermédiaire à l'IA. C'est ce que fait par exemple l'équipementier réseau Cisco. « Nous concevons les agents autour d'une sorte de modèle de base, mais systématiquement environné par une application traditionnelle », explique Vijoy Pandey, vice-président sénior de l'entreprise, qui dirige également Outshift, le moteur d'incubation de Cisco. Cela signifie qu'il y a un code traditionnel s'interfaçant avec les bases de données, les API et les environnements cloud et gérant les problèmes de communication.

Contrôler les accès des agents

Outre la question de la traduction, un autre défi de l'intégration de données réside dans le nombre de sources de données auxquelles les agents doivent avoir accès. Selon l'enquête de Tray.ai, 42% des entreprises ont besoin d'accéder à huit sources de données ou plus pour déployer avec succès des agents d'IA. 79 % d'entre elles s'attendent d'ailleurs à ce que les défis liés aux données aient un impact sur les déploiements d'agents. En outre, 38 % des entreprises affirment que la complexité de l'intégration apparaît comme le principal obstacle au passage à l'échelle des agents d'IA.

Pire encore, la raison pour laquelle une entreprise utilise l'IA plutôt que des logiciels traditionnels réside dans la capacité des agents à apprendre, s'adapter et trouver de nouvelles solutions à de nouveaux problèmes. « Vous ne pouvez pas prédéterminer les types de connexions dont vous aurez besoin pour cet agent, dit donc Vijoy Pandey. Vous avez ainsi besoin d'un ensemble dynamique de plugins.'

Toutefois, donner trop d'autonomie à l'agent pourrait s'avérer désastreux, c'est pourquoi ces connexions devront être soigneusement contrôlées. « Ce que nous avons construit s'apparente à une bibliothèque chargée dynamiquement, explique le cadre de Cisco. Si un agent a besoin d'effectuer une action sur une instance AWS, par exemple, vous allez récupérer les sources de données et la documentation API dont vous avez besoin, en fonction de l'identité de la personne qui a demandé cette action [donc de ses droits d'accès, NDLR], au moment de son exécution. »

Adapter la sécurité au niveau d'autonomie des agents

Que se passe-t-il alors si un humain ordonne au système agentique de faire quelque chose qu'il n'est pas en droit de faire ? Les modèles d'IA génératives sont en effet vulnérables aux messages astucieux qui les incitent à franchir les limites des actions autorisées, des pratiques connues sous le nom de 'jailbreaks'. Ou encore que se passe-t-il si l'IA elle-même décide de faire quelque chose qu'elle n'est pas censée faire ? Ce qui pourrait se produire si des contradictions apparaissent entre l'entraînement initial d'un modèle, son fine-tuning, les prompts ou ses sources d'information. Dans un rapport de recherche publié par l'éditeur d'outils d'IA générative Anthopic à la mi-décembre, en collaboration avec Redwood Research, des modèles à la pointe des développements essayant d'atteindre des objectifs contradictoires ont tenté de passer outre leurs limites, ont menti sur leurs capacités et se sont livrés à d'autres types de tromperie.

Selon Vijoy Pandey de Cisco, avec le temps, les agents d'IA devront avoir plus d'autonomie pour effectuer leur travail. « Mais deux problèmes subsistent, reconnaît-il. L'agent d'IA lui-même pourrait faire quelque chose [d'inapproprié]. Et puis, il y a l'utilisateur ou le client. Quelque chose de bizarre peut très bien se produire. » L'expert de Cisco explique réfléchir à ce sujet en termes de rayon d'action : si quelque chose ne va pas, que ce quelque chose émane de l'IA ou de l'utilisateur, quelle est l'ampleur du rayon d'action potentiel ? Lorsque celui-ci est important, les garde-fous et les mécanismes de sécurité doivent être adaptés en conséquence. « Au fur et à mesure que les agents gagnent en autonomie, il faut mettre en place des garde-fous et des cadres de sécurité adaptés pour ces niveaux d'autonomie », ajoute-t-il.

Agents conformes à la loi ?

Chez Dun & Bradstreet aussi, les agents d'IA sont strictement limités dans ce qu'ils peuvent faire, dit Gary Kotovets. Par exemple, l'un des principaux cas d'utilisation consiste à donner aux clients un meilleur accès aux dossiers que le prestataire possède sur environ 500 millions de sociétés dans le monde. Ces agents ne sont pas autorisés à ajouter des enregistrements, à les supprimer ou à apporter d'autres modifications. « Il est trop tôt pour leur donner cette autonomie », souligne responsable data et analytics.

En fait, pour l'heure, les agents ne sont même pas autorisés à rédiger leurs propres requêtes SQL. Les interactions avec les plateformes de données sont gérées par des mécanismes existants et sécurisés. Les agents sont utilisés pour créer une interface utilisateur intelligente, se positionnant au-dessus de ces mécanismes. Toutefois, à mesure que la technologie s'améliore et que les clients souhaitent davantage de fonctionnalités, cette situation pourrait changer. « Cette année, l'idée est d'évoluer avec nos clients, explique Gary Kotovets. S'ils souhaitent prendre certaines décisions plus rapidement, nous créerons des agents en fonction de leur tolérance au risque. »

Dun & Bradstreet n'est pas la seule à s'inquiéter des risques liés aux agents d'IA. En plus de la qualité de données, de la confidentialité et de la sécurité, Insight Partners constate que la conformité se hisse parmi les principales préoccupations des entreprises. Et pose des obstacles supplémentaires au déploiement d'agents d'IA, en particulier dans les secteurs sensibles, fortement régulés ou soumis à des réglementations sur la souveraineté des données ou sur la protection des données personnelles.

Par exemple, lorsque les agents d'Indicium tentent d'accéder à des données, l'entreprise remonte à la source de la demande, c'est-à-dire à la personne qui a posé la question enclenchant l'ensemble du processus. « Nous devons authentifier la personne pour nous assurer qu'elle dispose des autorisations nécessaires, explique Daniel Avancini. Toutes les entreprises ne comprennent pas la complexité de ce processus. »

Tester, contrôler, étudier tout écart

Daniel Avancini ajoute que ce type de contrôle d'accès précis peut s'avérer difficile à déployer, en particulier avec les systèmes Legacy. Une fois l'authentification établie, elle doit en effet être préservée tout au long de la chaîne d'agents traitant la question. « C'est un véritable défi, dit le responsable data. Il faut disposer d'un très bon système de modélisation des agents et de nombreux garde-fous. Il y a beaucoup de questions sur la gouvernance de l'IA, mais peu de réponses ». Et comme les agents parlent anglais, il existe une infinité d'astuces pour les tromper. « Nous procédons à de nombreux tests avant de mettre en oeuvre quoi que ce soit, puis nous effectuons des contrôles. Tout ce qui n'est pas correct ou ne devrait pas être là mérite d'être examiné. »

Au sein de la société de conseil informatique CDW, les agents d'IA sont déjà utilisés pour aider le personnel à répondre aux appels d'offres. Cet agent est étroitement verrouillé, explique Nathan Cartwright, architecte en chef de l'IA. « Si quelqu'un d'autre lui envoie un message, il le renvoie », précise-t-il. Un prompt système spécifie par ailleurs l'objectif de l'agent, de sorte que tout ce qui n'est pas lié à cet objectif est rejeté. De plus, des garde-fous empêchent toute communication d'informations personnelles et limite le nombre de demandes que l'agent peut traiter.

L'observabilité appliquée à l'IA

Ensuite, pour s'assurer que ces garde-fous fonctionnent comme attendu, chaque interaction est contrôlée. « Disposer d'une couche d'observabilité pour voir ce qui se passe réellement est essentiel, explique Nathan Cartwright. La nôtre est totalement automatisée. Si une limite de taux ou un filtre de contenu est atteint, un courriel est envoyé pour demander une vérification de l'agent concerné. »

Roger Haney, architecte en chef de CDW, estime que le fait de commencer par des cas d'utilisation restreints et ponctuels permet de limiter les risques. « Lorsque vous vous concentrez réellement sur ce que vous essayez de faire, votre domaine est relativement limité, explique-t-il. C'est là que nous voyons les entreprises réussir [avec l'IA agentique]. Nous pouvons rendre l'agent performant, le rendre plus petit. Mais la première chose à faire est de mettre en place les garde-fous appropriés. C'est là que réside la plus grande valeur, plutôt que dans le fait de relier les agents entre eux. Tout part des règles métiers, de la logique interne et de la conformité que l'on met en place dès le départ. »

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis

    La question du moment
    Vous êtes-vous équipés d’outils et de processus de tri et de validation de la qualité des données ?