DeepSeek est-il aussi un séisme pour les stratégies IA des entreprises ?

En janvier, le Chinois DeepSeek bousculait le marché de l'IA générative avec un modèle surprenant les observateurs par son ratio efficacité/coût de conception. Mais quel est l'impact de ce développement sur les stratégies IA des entreprises ? Les experts de Club Med, Crédit Agricole et Veolia répondent.
PublicitéAlors que le secteur de l'IA suivait son petit bonhomme de chemin - marqué par des investissements colossaux dans les infrastructures comme ceux du projet Stargate de la nouvelle administration américaine (500 Md$) -, le lancement du modèle de raisonnement R1 par DeepSeek le 20 janvier a provoqué un mini-séisme. La raison ? Non pas tant le niveau proposé par le modèle de la société chinoise - équivalent tout de même aux derniers-nés d'OpenAI -, mais le coût nécessaire pour y parvenir. Selon DeepSeek, entraîner son modèle V3 - le modèle de fondation servant de base à R1 - n'aurait coûté que 6 M$. Même si ce chiffre est probablement sous-évalué, l'ampleur de l'écart avec les estimations concernant les familles GPT ou Gemini a suffi à faire plonger les valeurs technologiques américaines.
Mais cet abaissement de la barrière à l'entrée dans la création de grands modèles de langage a-t-il des conséquences pour les entreprises, aujourd'hui cantonnées à l'usage de modèles prêts à l'emploi sous forme d'API ? Et les multiples techniques d'optimisation de l'apprentissage utilisées par la société chinoise (architecture Mixture-of-experts, distillation, apprentissage par renforcement, voir encadré) ouvrent-elle de nouvelles perspectives pour les projets de GenAI ? Ce sont ces questions que nous avons posées à trois spécialistes de la data en entreprise, tous lancés dans une stratégie d'exploitation de la GenAI.
1) Les perspectives ouvertes par DeepSeek
« L'une des perspectives les plus intéressantes de DeepSeek réside dans le ratio obtenu entre la performance statistique du modèle et l'effort déployé pour son entraînement, explique d'emblée Aldrick Zappellini, le Chief data officer groupe du Crédit Agricole. Si on se fie aux déclarations de DeepSeek, c'est probablement le meilleur ratio connu à ce stade. C'est donc ce point qu'il faut creuser en premier. L'enjeu étant de disposer d'une forme de LLM déployable sur des infrastructures internes, offrant ainsi une maîtrise des coûts et de l'impact environnemental. Mais cela suppose que ces futurs modèles disposent aussi des garanties suffisantes en matière de limitation des hallucinations, de garde-fous et de cybersécurité. D'où l'importance de nos tests, bien plus complets que ceux des 'leaderboards'. » Une référence ici aux tableaux comparatifs évaluant les différents modèles, un système présentant des limites ; les éditeurs d'outils d'IA ayant tendance à optimiser leurs solutions pour les tests servant à la construction de ces outils.
Certes, les déploiements de modèles sur des infrastructures internes sont déjà envisageables avec des SLM, des modèles plus petits et plus spécialisés. « Mais ces modèles ont un champ d'action plus étroit en termes de variété de tâches couvertes, reprend Aldrick Zappellini. Avec les pistes explorées par DeepSeek, déjà esquissées par Llama auparavant, on peut imaginer s'approcher des capacités d'un LLM à des coûts voisins de ceux de l'adaptation d'un SLM. »
Publicité
Siddhartha Chatterjee, Chief data officer de Club Med : "comme DeepSeek a publié ses résultats en Open Source, tous les acteurs vont reprendre, à plus moins longue échéance, les approches de celui-ci ».
Chez Veolia, Fouad Maach, le responsable architecture, ingénierie et expertise au sein de la DSI groupe, souligne également l'intérêt des choix techniques opérés par la société chinoise dans l'entraînement de son modèle, même si elles étaient déjà explorées par d'autres acteurs du domaine avant elle. « Le modèle R1 surprend par ses performances prometteuses et par les stratégies d'entrainement employées, qui permettent de réduire les coûts de construction du modèle, dit-il. Même si les coûts communiqués sont volontairement amoindris, une simple division par 5 de l'effort d'entrainement d'un LLM serait déjà considérable. »
Au sein du Club Med, Siddhartha Chatterjee, le Chief data officer, livre une analyse voisine. Là encore, en mettant en exergue deux aspects clefs de R1, « d'abord, par l'aspect économique, même si les chiffres avancés par l'entreprise chinoise peuvent évidemment être questionnés. Ensuite, les innovations ayant permis à DeepSeek de parvenir à ce résultat, notamment l'utilisation de l'apprentissage par renforcement automatisé, l'architecture de type Mixture-of-experts (MOE) et la distillation de modèles pour améliorer les performances. » Selon le CDO, la distillation, déjà mise en lumière par Microsoft avec ses modèles Phi, ouvre la porte à des transferts de connaissances depuis des LLM vers des SLM, sur des territoires spécialisés. « Surtout, DeepSeek s'appuie sur une technique automatisée d'apprentissage par renforcement, exploitant de grands modèles de langage, là où OpenAI et Anthropic par exemple avaient jusqu'alors recours à des humains lors de cette phase d'apprentissage, reprend-il. Comme DeepSeek a publié ses résultats en Open Source, tous les acteurs vont reprendre, à plus moins longue échéance, ces approches. » A plus brève échéance, Club Med entend aussi qualifier les performances de DeepSeek pour ses besoins spécifiques en Chine, en mettant ses modèles en concurrence avec Qwen, conçu par une autre société d'origine chinoise, Alibaba.
Cette diffusion des approches techniques exploitées par la start-up chinoise au sein de l'écosystème de la GenAI dans son ensemble pourrait bien être une des principales conséquences de l'annonce du 20 janvier, abaissant la barrière à l'entrée sur un marché où la mise de départ se chiffrait jusqu'alors plutôt en milliards. « Les résultats de DeepSeek montrent que la puissance de calcul ne fait pas tout, même si les techniques d'entraînement de la société chinoise dépendent toujours de modèles de fondation, nécessaires au transfert de connaissances », résume Siddhartha Chatterjee. Or, ceux-ci ont toujours bien besoin d'une infrastructure massive pour leur entraînement.
2) Des stratégies bien en place, une baisse des coûts déjà enclenchée
A ce stade, l'arrivée de DeepSeek ne se traduit toutefois pas forcément par une inflexion dans la stratégie GenAI des entreprises citées au préalable, leurs responsables respectifs étant des plus prudents face aux soubresauts d'un marché de la GenAI prompt à s'emballer. Chez Veolia, Fouad Maach n'envisage ainsi pas de remettre en cause les principes qui ont présidé à la naissance et à l'évolution de l'application de GenAI maison, Veolia Secure GPT. « Nos principes restent inchangés : un déploiement serverless, donc une consommation au token, des déploiements chez les trois principaux hyperscalers et l'identification de la région cloud la plus optimisée en termes d'impact environnemental, indique-t-il. Nous n'entraînons pas de modèle, nous n'effectuons pas de fine-tuning. A ce stade, nous estimons que les différents acteurs présents sur le marché sont mieux placés que nous sur ces opérations. La spécialisation de notre GenAI repose plutôt sur les capacités agentiques de notre plateforme, lui permettant d'interagir avec notre système d'information. » Autrement dit, le démarche de la multinationale consiste à se spécialiser sur ce que Fouad Maach qualifie de couche haute de l'infrastructure de GenAI, à savoir l'intégration des capacités des LLM avec les SI internes.
Fouad Maach, responsable architecture, ingénierie et expertise au sein de la DSI groupe de Veolia : « entre 2022 et 2023, les coûts unitaires des LLM ont été divisés par un facteur proche de 10. Et on assiste à la même tendance entre 2024 et 2025 ».
Et ce d'autant plus que ces principes sont aujourd'hui confortés par la baisse continue des coûts des services de GenAI. « Nous constatons une baisse du coût d'utilisation de la GenAI, qui doit être liée à celle de la facture d'électricité des fournisseurs de technologies, puisqu'il s'agit là du principal inducteur au sein de leur modèle économique. Entre 2022 et 2023, ces coûts unitaires ont été divisés par un facteur proche de 10. Et on assiste à la même tendance entre 2024 et 2025 », indique Fouad Maach. Selon ce dernier, sur les petits modèles de type SLM, les coûts sont désormais très faibles, de l'ordre de quelques centimes par million de tokens générés. « Nous sommes d'ailleurs en train d'évaluer l'impact environnemental et économique de petits modèles connectés à notre SI via notre plateforme agentique », ajoute-t-il.
Cette tendance à la baisse des coûts est confirmée par Siddhartha Chatterjee, du Club Med : « Hors modèles de raisonnement qui restent chers, les modèles de langage sont en train de devenir des commodités avec des coûts divisés par un facteur proche de 10 chaque année. Les coûts les plus importants d'un projet d'IA générative se situent donc plutôt dans l'ingénierie de prompts, dans la mise au point du RAG ou encore dans la qualité de données, les frais générés par l'usage de la technologie à proprement parler ne représentant environ qu'un dixième du budget total. » Autrement dit, pour une entreprise, l'optimisation des coûts des LLM eux-mêmes n'est guère une priorité au regard des dépenses globales engagées sur les projets d'IA générative.
Par ailleurs, le déploiement en production d'un nouveau modèle - qu'il s'agisse de DeepSeek ou autre - suppose de valider un certain nombre de tests techniques et de sécurité, eux-mêmes chronophages. Si Veolia a ainsi testé DeepSeek R1 sur son infrastructure de développement, la multinationale n'envisage pas d'ajouter ce modèle aux 16 autres LLM déjà proposés sur sa plateforme maison. « D'abord parce qu'il s'agit d'un modèle de raisonnement, par essence plus énergivore qu'un LLM plus classique. Nous voulons comparer les coûts et performances de ces modèles avant de les ouvrir à nos utilisateurs. Ensuite, parce que nous voulons vérifier en détails que la version Open Source de DeepSeek R1 est bien compatible avec nos exigences légales », indique Fouad Maach.
3) Priorité à l'IA agentique et aux tests de sécurité poussés
Chez Veolia, si les tests sur les modèles de raisonnement s'avèrent concluants, la multinationale envisage d'utiliser cette technologie au sein de sa plateforme agentique. « Notre idée consiste à demander à l'agent de supervision de s'appuyer sur un modèle de raisonnement pour décider quel agent appeler pour chacune des tâches, ces dernières étant ensuite confiées à des LLM ou SLM chargées d'interroger des bases de connaissances, des bases de données ou encore des applications », détaille le responsable architecture. La plateforme de GenAI de Veolia, que le géant de l'énergie, de l'eau et des déchets a mis très tôt à disposition de ses salariés, propose à la fois des fonctions de chat et, depuis octobre dernier, une approche agentique, au sein de laquelle différentes IA interagissent entre elles. Cette architecture est, par exemple, en mesure de transformer un prompt en appel API ou en requête SQL venant interroger une base de données classique. Veolia Secure GPT revendique plus de 55 000 utilisateurs actifs, un total appelé à croître rapidement avec l'extension de l'interface à de nouvelles langues.
Aldrick Zappellini, Chief data officer groupe de Crédit Agricole : « Depuis un an, nous avons mis en oeuvre notre propre protocole de tests des modèles. Nous y étudions leur précision, leur propension à halluciner, la simplicité à prompter, l'impact environnemental généré ou encore les coûts. »
Au sein du Club Med, les perspectives ouvertes par l'IA agentique suscitent également l'intérêt de Siddhartha Chatterjee, qui indique vouloir travailler sur la construction d'une plateforme de cette nature. « Via différentes interfaces - outils de vente, canal WhatsApp... -, cette plateforme devra distribuer les tâches à différents agents spécialisés, souligne le CDO. Et ces derniers n'auront pas toujours besoin de grands modèles pour fonctionner ». Sauf que la priorité du moment pour Siddhartha Chatterjee réside plutôt dans le passage à l'échelle de son chatbot, afin de le déployer sur 25 marchés en l'adaptant aux langues et vocabulaires spécifiques à ces différents pays. « On fera donc un peu moins de R&D cette année », souligne le responsable. Le groupe de loisirs veut aussi tester l'IA multimodale, pour générer des photos et des vidéos. « Le niveau de qualité est satisfaisant quand il s'agit d'animer une image statique ou de compléter une photo, en créant par exemple un décor en dehors du champ de la prise de vue initiale », souligne Siddhartha Chatterjee.
Au sein du Crédit Agricole, qui opère dans un secteur très régulé, c'est la question de la conformité des modèles aux standards réglementaires, éthiques et de sécurité internes qui est la plus prégnante. « Nous abordons tout nouveau modèle avec prudence », résume son Chief data officer, Aldrick Zappellini. « Depuis un an, nous avons mis en oeuvre notre propre protocole de tests des modèles d'IA générative, en se référant à des cas d'usage réels reflétant la vraie complexité de nos données. Nous y étudions la précision des modèles, leur propension à halluciner, la simplicité à prompter, l'impact environnemental généré ou encore les coûts. Cette étape permet de désamorcer les effets d'annonce », détaille-t-il
Si DeepSeek n'est pas encore passé par ce tamis, une évaluation du modèle devrait être lancée durant le second trimestre, sur la base de la version Open Source disponible sur Hugging Face et documentée par les équipes de ce dernier. « Entrer dans les standards industriels d'une banque comme la nôtre suppose de passer avec succès toute une série d'étapes, dont la gestion des risques incluant du Red Teaming, des audits de sécurité, etc. C'est un processus qui prend du temps et s'avère bien plus complexe que de simplement valider la capacité d'un modèle à effectuer telle ou telle tâche », reprend Aldrick Zappellini.
Article rédigé par

Reynald Fléchaux, Rédacteur en chef CIO
Suivez l'auteur sur Twitter
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire