Passer l'IA à l'échelle industrielle : plus facile à dire qu'à faire
Avec la percée de ChatGPT, la plupart des entreprises ont établi une stratégie en matière d'IA, mais sa mise en oeuvre soulève encore bien des questions. En matière de préparation de la donnée, de compétences ou encore de maîtrise des enjeux sécuritaires.
PublicitéBien sûr, l'IA générative a un côté magique. On branche et tout semble fonctionner d'emblée - ce qui, en informatique, est pour le moins inhabituel. Mais l'apparence est trompeuse. Car pour transformer la technologie en vecteur d'efficacité, l'effet waou ne saurait suffire, comme le montrait une matinée d'échanges organisée récemment par TNP Consultants. « L'IA générative, c'est avant tout un coup marketing des Etats-Unis, lance Benoit Ranini, le président de ce cabinet fondé en 2007 et employant 750 personnes. La technologie est accessible, prémâchée et peu chère. Mais il faut maintenant mesurer ce qu'on va réellement gagner sur les chaînes de valeur. » Et résoudre certaines questions inhérentes au déploiement de l'IA, comme la qualité de données.
Ainsi, chez Carrefour, qui exploite l'IA générative pour dépasser une des difficultés inhérentes aux sites de e-commerce alimentaires : le temps nécessaire pour constituer sa liste de produits. « Un chatbot, venant piocher dans une base de données de recettes, accompagne les internautes dans la constitution de leur panier via des appels API transmis au site de e-commerce, détaille Sébastien Rozanes, le Chief Data Officer du groupe. L'application, qui propose des fonctions de personnalisation, a été simple à construire, sous un délai de seulement 6 semaines entre le démarrage du projet et la mise en production. La problématique principale n'est pas sur la construction du moteur, mais sur le travail de préparation des données. » Le sujet est d'ailleurs cité par Benoit Ranini comme une des conditions de succès des stratégies d'IA, aux côtés de la compréhension des enjeux réglementaires, de la mesure de la valeur créée et de la stratégie d'outillage.
La SNCF se frotte aux SLM
Pour nombre de spécialistes du sujet, une autre priorité clef réside dans la formation des dirigeants et des équipes métiers à la technologie. « Fin 2021, l'ensemble du Top 150 du groupe a été formé à la data pendant 2 jours. C'est ce qui m'a le plus aidé en arrivant chez Carrefour », assure Sébastien Rozanes. Même si, à l'époque, la technologie d'IA générative n'est pas encore largement disponible. Chez l'Oréal, l'université interne de la technologie et de la data possède, elle aussi, un programme dédié aux dirigeants du groupe, mais elle vise aussi à l'acculturation de l'ensemble des collaborateurs à l'IA générative, que le groupe de cosmétiques tente d'apprivoiser avec un chatbot appelé L'OréalGPT, utilisé par 15 000 personnes au quotidien, selon Stéphane Lannuzel, le directeur 'Beauty Tech' de l'entreprise. « Dès que ChatGPT est sorti, nous avons envoyé aux salariés une liste de choses autorisées - les do's - et non autorisées - les don't - avec cette technologie. Mais ce sont surtout les don't qui nous intéressaient », glisse-t-il
PublicitéCar la technologie suscite des inquiétudes. En matière d'exfiltration de données en particulier, ce qui a poussé nombre de grandes entreprises françaises à ouvrir des chatbots sur des instances privées. « Sur les sujets d'expertise, comme la maintenance des TGV, nous étudions de plus en plus les SLM, les Small Language Model. Pour des questions économiques, mais aussi pour des enjeux de souveraineté. Nos tests laissent entrevoir des performances similaires aux LLM sur des sujets spécialisés », dit Henri Pidault, le DSI groupe de la SNCF. En limitant le nombre de paramètres des modèles de langage, les SLM simplifient les phases d'entraînement, limitant le coût et l'impact écologique du recours à l'IA générative. Pour Laurent Daudet, le DG et co-fondateur de LightOn, un éditeur français de LLM, l'enjeu de sécurité que posent les IA génératives publiques va même au-delà de la seule donnée. « Puisqu'on dispose à la fois des données d'entrée et de sortie, ce sont des savoir-faire entiers qui peuvent être menacés », juge-t-il.
Mesurer les risques, sans geler tout projet
L'intégration de l'IA dans le quotidien des métiers dépasse toutefois cette seule question de l'exfiltration de données, comme l'illustre Guillaume Poupard, le directeur général adjoint de Docaposte. L'ancien de l'ANSSI met en avant l'exemple de Pronote, un logiciel qui gère les relations entre professeurs, parents et élèves de quelque 10 000 collèges et lycées, logiciel passé dans le giron de Docaposte en 2020 : « nous avons commencé une expérimentation visant à détecter les élèves décrocheurs, et nous sommes en mesure, grâce à la technologie, de les repérer trois mois en moyenne avant les premiers signalements. Mais il ne s'agit là que de la partie facile du projet. La question aujourd'hui, c'est qui alerter et comment exploiter cette information pour réellement réduire le décrochage scolaire ? » Pour encadrer les usages de la technologie, Docaposte a monté un comité d'éthique, présidé par le professeur Jean-Gabriel Ganascia. « Comprendre, mesurer les risques est essentiel, dit Guillaume Poupard. Mais il ne faut pas que cela devienne un facteur bloquant tout développement. Faute de quoi l'Europe va une nouvelle fois se retrouver à la remorque des Etats-Unis. »
Article rédigé par
Reynald Fléchaux, Rédacteur en chef CIO
Suivez l'auteur sur Twitter
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire