Jean Laborde, Fnac Darty : « Nous travaillons avec l'IA depuis plusieurs années. Le LLM, c'est la suite de l'aventure. »
Au sein d'une nouvelle organisation chez Fnac Darty qui regroupe digital et informatique, Jean Laborde, directeur digital, a la charge du développement de la part du e-commerce dans les revenus du groupe. Dans la seconde partie de l'entretien qu'il a accordé à CIO, il explique comment l'IA générative vient prolonger une démarche IA déjà ancienne, au service des data produits et du moteur de recherche maison.
PublicitéCIO : Vous avez développé vos propres algorithmes de machine learning pour le traitement de vos données catalogue. Avez-vous aussi recours à l'IA générative ?
Jean Laborde : Oui, c'est la suite logique de notre feuille de route en IA. Nous voudrions nous servir de l'IA générative pour compléter nos fiches produit et augmenter encore leur qualité. Nous avons lancé un POC sur l'enrichissement de la base de caractéristiques connues dans la fiche avec davantage d'explications sur ce que fait le produit, ses points forts, mais en générant automatiquement certaines parties de ce texte. Nous le faisons déjà sur nos meilleures ventes et sur les produits que Fnac Darty propose directement. En revanche, nous n'avons pas la capacité humaine suffisante pour traiter le très grand nombre et la diversité des fiches, si on tient compte des offres de nos marketplaces, de la diversification, de la longue traîne.
Vous allez donc compléter l'information en exploitant l'IA générative sur vos propres bases ?
Exactement. En nous inspirant de ce que nous voulons mettre en avant, du style utilisé pour les produits Darty, etc. Nous travaillons avec la start-up israélienne AI 21Labs qui nous aide en particulier à comprendre les sources des difficultés dans la génération d'un texte pertinent. Proviennent-elles d'un algorithme, du prompt, du modèle, de l'entrainement du modèle ? Ce qui est intéressant avec cette équipe, c'est que l'on travaille bien sûr avec eux sur l'écriture du prompt, mais ils analysent aussi ce qui joue sur le résultat pour améliorer la qualité.
Pour ChatGPT, nous avons notre OpenAI Studio sur Microsoft Azure pour des questions de sécurité et de plateforme d'intégration. En parallèle, nous testons aussi les modèles du Model Garden de Google Vertex AI. Ce sont les deux grands incontournables du marché. Mais avec AI 21Labs, nous regardons aussi comment se positionnent d'autres acteurs. Nous voulons savoir si le LLM le plus large de la planète, qui est aussi forcément le plus cher, est vraiment nécessaire pour répondre à toutes les problématiques de génération de texte. Et il est probable que ce ne soit pas le cas, car pour créer des applications qui nécessitent moins de pertinence, c'est trop vaste. Cela va fonctionner, mais ça ne passera probablement pas à l'échelle. Or nous sommes dans le retail, nous ne pouvons pas nous permettre ce type de dépenses.
Est-ce pour cela que vous avez choisi de travailler aussi avec la start up AI 21Labs ?
Oui. Ils ont développé leur propre LLM. Mais ils ont démarré par de petits add-on de rewriting pour réécrire une phrase dans un mail ou dans Word par exemple, de façon plus formelle, plus familière, plus courte ou plus longue. Ensuite, ils ont augmenté la taille de leur modèle. Et sans disposer du milliard d'hyperparamètres de GPT4, ils ont probablement l'équivalent d'un GPT 3 ou 2.5. C'est le même type de stratégie que Google qui a son Model Garden et de nombreux modèles intermédiaires, à des prix différents. Or, des modèles en langage naturel entraînés sur des volumes moins importants peuvent suffire dans certaines activités.
Publicité
Lire la première partie de l'entretien de CIO avec Jean Laborde.
« La data n'est pas en dehors de l'activité. C'est le sang de tous nos processus. »
En revanche, nous ne sommes pas encore complètement arrivés à entraîner ces modèles, qui manient bien la langue et génèrent du texte, avec de la donnée interne d'entreprise. Car c'est bien là qu'il y aura création de valeur. Nous avons commencé à travailler sur l'IA générative dès l'hiver 2022, mais l'entrainement avec des data d'entreprise est encore très récent. Nous n'avons accès à OpenAI Studio chez Microsoft que depuis juin et depuis mai chez Google. Cette démarche est un important pilier de la stratégie omnicanale. Car en découlent tellement de conséquences sur la qualité du catalogue, de la base produits... Donc nous continuons d'investir, et chaque fois que nous effectuons un incrément, tout l'écosystème en bénéficie. L'IA est une démarche qui a déjà plusieurs années chez nous. Le LLM, c'est la suite de l'aventure. Cela permet d'aborder des sujets que nous n'arrivions pas bien à traiter, même avec du machine learning ou du deep learning.
L'IA générative pourrait-elle vous servir aussi à améliorer la pertinence de votre moteur de recherche ?
Au-delà de la base de données produits qualitative sur laquelle s'appuie notre moteur de recherche, nous avons déjà injecté pas mal de machine learning depuis trois ans pour tenir compte de la navigation des utilisateurs. Là encore en développement interne. Mais nous cherchons aussi à savoir si l'IA générative pourrait améliorer la pertinence des réponses dans la barre de recherche de nos sites de e-commerce. De toute évidence, nous évoluerons vers du prompt, comme c'est la tendance dans tous les moteurs grand public. Pour autant, il n'existe pas de solution packagée.
Nous avons déjà un peu d'IA générative avec nos chatbots basés sur Bert de Google, mais ce sont des LLM d'anciennes générations. Nous voudrions les faire évoluer. Et surtout, aujourd'hui, notre client accède d'un côté à la barre de search, plutôt pour la recherche produit, et de l'autre, au chatbot pour le SAV - même si le chat peut aussi donner accès à une visio avec un vendeur. Nous devons aussi réfléchir à une convergence de l'ensemble.
« Nous voulons utiliser l'IA générative pour compléter automatiquement nos fiches produits et éventuellement améliorer la pertinence des réponses dans la barre de recherche de nos sites de e-commerce. » (Photo : Thomas Léaud)
L'idée, ce serait donc de faire converger moteur de recherche, chatbot, et même interaction en vidéo avec le vendeur ?
Oui. C'est autant une réflexion métier que technologique. C'est vraiment l'idée d'une nouvelle interface avec le client. Avec une barre à la mode Google qui grossit toujours plus, finalement... De la même façon, le menu de navigation est voué à disparaitre. Environ 70% du trafic est mobile. Or, par définition, sur le peu d'espace de l'écran d'un smartphone, il faut un seul point de contact, quelle que soit la demande. La complexité réside dans l'articulation de l'ensemble. Si le client veut se débrouiller seul en self care, il faut des robots conversationnels hyperfluides de type ChatGPT, mais si pour aller au bout de sa demande, il veut entrer en contact avec une personne, il se déconnecte. Et là, il faut du répondant en magasin, dans un call-center, avec la récupération du contexte, pour enchaîner sur la demande. Nous n'en sommes qu'au niveau de la réflexion, et je ne vois personne pour l'instant qui ait réussi la mise en oeuvre de ce type de réponse globale. Mais c'est une tendance de fond et je pense que d'ici environ 18 mois, on saura réaliser cette convergence.
C'est notre stratégie et ce sera notre valeur ajoutée, notre force par rapport à un pure player comme Amazon. Nous sommes présents avec nos magasins en ville partout en France. Nous sommes proches des consommateurs sur l'app, sur les sites mobiles, mais aussi parce qu'ils peuvent être mis en contact avec un expert, avec un vendeur, un technicien du SAV à côté de chez eux. Notre enjeu et notre stratégie, c'est un omnicanal digitalisé au maximum, parce que cela apporte de la puissance, une présence partout 24 heures sur 24, 7 jours sur 7. mais l'humain doit être présent dès que nécessaire.
Le moteur de recherche Fnac.com a été complètement développé en interne il y a plusieurs années. Outre l'IA générative, avez-vous prévu d'autres évolutions ?
Depuis plus d'un an, nous testons le moteur de Google pour entreprise en parallèle, sur une partie de notre trafic Fnac.com. Les deux solutions cohabitent et nous mesurons et comparons les performances. Mais, en réalité, nous avons déjà un très bon niveau de performance avec notre propre moteur. Il tourne sur notre catalogue de 20 millions de produits très différents, qui vont du livre au jouet en passant par l'informatique, la télévision ou le gros électroménager. Google peut convenir à une entreprise qui n'a pas encore d'outil et cherche un moteur basique pour démarrer, avec un indexeur simple et des règles simples. Pour nous, l'incrément de performance est insuffisant.
C'est une question de modèle économique. L'incrément de performance du moteur de recherche suit une sorte d'asymptote, et nous nous rapprochons du plafond de verre. Pour progresser dans la pertinence, nous allons plutôt devoir avoir recours à du conversationnel, pour disposer de plus d'informations sur la requête et le contexte dans lequel le client a fait cette requête.
Comptez-vous faire converger les outils de recherche de Fnac et de Darty ?
Historiquement, nous n'avons pas de moteur de recherche interne très avancé chez Darty, donc c'est sur cela que nous nous concentrons désormais. Nous réalisons là aussi un POC avec le moteur externe actuel de Darty, un autre moteur externe plus évolué et avec Google. Et, effectivement, si ces outils ne se révèlent pas suffisamment pertinents dans le contexte Darty, nous transposerons notre outil Fnac. À ceci près qu'il s'agit d'une solution maison, personnalisée pour Fnac, qui n'est pas plug and play et n'a pas été pensée pour d'autres contextes. Nous devrons mener un effort de standardisation. C'est un autre des projets de la feuille de route, que nous réalisions en parallèle sur la partie e-commerce, sur cet enjeu important de l'aide au choix et de la simplification du parcours client.
Article rédigé par
Emmanuelle Delsol, Journaliste
Suivez l'auteur sur Linked In,
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire