La course à l'IA masque aussi une guerre culturelle

Certains experts estiment que DeepSeek pourrait secrètement diffuser des préjugés culturels et politiques. Une machine à exporter la vision du monde du gouvernement chinois ?
PublicitéLa publication du logiciel chinois DeepSeek a suscité des débats passionnés, mais les critiques ont largement ignoré un problème de taille : la possibilité pour la Chine d'utiliser un tel modèle d'IA pour imposer un modèle culturel et politique au reste du monde. Si DeepSeek a suscité des inquiétudes concernant la cybersécurité, la protection de la vie privée, la propriété intellectuelle et d'autres questions, certains experts en IA s'inquiètent aujourd'hui de sa capacité à diffuser de la propagande.
Cette inquiétude s'est notamment renforcée lors de la présentation du modèle d'IA et du chatbot en janvier dernier, lors de laquelle la société Hangzhou DeepSeek Artificial Intelligence Basic Technology Research Co. les a envisagés comme une sorte d'encyclopédie permettant de former la prochaine génération de modèles d'IA.
Bien entendu, les craintes de partialité dans l'IA n'ont rien de nouveau, même si les exemples passés semblent souvent involontaires. Ceux qui s'inquiètent de DeepSeek reconnaissent qu'il ne s'agit pas du seul grand modèle de langage (LLM) susceptible de servir d'outil d'entraînement pour de futurs modèles, et que le gouvernement chinois ne sera probablement pas le seul gouvernement ou organisation à envisager d'utiliser des modèles d'IA comme outils de propagande. Mais la décision de l'entreprise chinoise de publier son modèle de rendu sous la licence libre MIT pourrait en faire un modèle intéressant à utiliser dans le processus de distillation pour former des IA plus petites.
Distillation facile : un cheval de Troie ?
DeepSeek a ainsi été conçu pour faciliter la distillation d'autres modèles, suggèrent certains experts en IA. Les organisations qui construisent de petits modèles d'IA à bas prix, notamment dans les pays en développement, pourraient se tourner vers cette IA entraînée à diffuser la vision du monde du gouvernement chinois. La société Hangzhou n'a pas répondu à une demande de commentaires sur ces préoccupations.
L'entreprise a utilisé du matériel peu coûteux pour construire DeepSeek, et le coût relativement bas laisse présager un avenir où le développement de l'IA sera accessible à de nombreuses organisations, souligne Dhaval Moogimane, responsable de la pratique technologie et logiciels de la société de conseil West Monroe. « Ce que DeepSeek a fait, d'une certaine manière, c'est mettre en évidence l'art du possible », ajoute-t-il.
Hangzhou a développé DeepSeek malgré les contrôles américains sur l'exportation des GPU à haute performance couramment utilisés pour concevoir et tester les modèles d'IA, prouvant ainsi la rapidité avec laquelle les modèles d'IA avancés peuvent émerger malgré les obstacles, ajoute Adnan Masood, architecte en chef de l'IA de UST, cabinet de conseil en transformation numérique.
PublicitéAvec un coût d'entrée plus faible, il est désormais plus facile pour les organisations de créer des IA puissantes... intégrant des préjugés culturels et politiques. « Sur le terrain, cela signifie que des populations entières peuvent consommer à leur insu des récits façonnés par une machine de politique étrangère, explique Adnan Masood. Le temps que les responsables politiques s'en rendent compte, ces récits peuvent déjà être ancrés dans l'esprit du public. »
La technologie au service de la propagande
Bien que peu de gens aient parlé des modèles d'IA en tant qu'outils de propagande, cet aspect ne devrait pas constituer une grande surprise, ajoute Dhaval Moogimane. Après tout, de nombreuses technologies, dont la télévision, l'internet et les médias sociaux, sont devenues des moyens de promouvoir des programmes politiques et culturels lorsqu'elles ont atteint le marché de masse. Les DSI et responsables IT doivent être conscients de la possibilité que le gouvernement chinois et d'autres organisations fassent passer leurs propres idées au travers de modèles d'IA, ajoute-t-il.
Au travers des phase d'entraînement, « il existe une opportunité d'utiliser les modèles pour façonner le récit, façonner les esprits, façonner les résultats, à bien des égards, façonner ce qui est partagé », ajoute le responsable de West Monroe. L'IA est en train d'émerger comme un nouvel outil pour ce que l'on appelle le soft power, note-t-il.
Si DeepSeek et d'autres modèles d'IA limitent les références à des incidents historiquement sensibles ou reflètent des points de vue approuvés par l'État sur des territoires contestés - deux biais possibles intégrés dans les IA développées par la Chine - ces modèles deviennent des agents du changement dans les débats culturels mondiaux, ajoute Adnan Masood (UST).
Le défi de la validation des modèles
« À notre époque, l'IA est devenue un multiplicateur de force pour la conformité idéologique et l'exportation des éléments nationaux de soft power, explique Adnan Masood. Avec les deepfakes et les chatbots automatisés qui inondent déjà le discours public, il est clair que l'IA est en train de devenir un outil de leadership à fort impact pour le positionnement culturel et politique. »
L'IA trompe déjà de nombreuses personnes lorsqu'elle est utilisée pour créer des deepfakes et d'autres formes de désinformation, mais les biais au sein d'un outil d'entraînement d'IA peuvent être encore plus subtils, ajoute Dhaval Moogimane. « En fin de compte, s'assurer que vous validez certaines des influences culturelles et des résultats du modèle nécessitera des tests et de la formation, mais cela sera un défi », ajoute-t-il.
Attention au choix des modèles d'IA
Dhaval Moogimane recommande aux entreprises de créer des architectures d'IA modulaires afin de pouvoir adopter facilement de nouveaux modèles au fur et à mesure de leur publication. « Il y aura des innovations constantes dans les modèles au fur et à mesure de l'évolution de la technologie, affirme-t-il. « Assurez-vous de créer une architecture évolutive afin de pouvoir remplacer les modèles au fil du temps. »
Outre la mise en place d'une infrastructure d'IA modulaire, les DSI devraient également évaluer soigneusement les outils et les frameworks d'IA en termes d'évolutivité, de sécurité, de conformité réglementaire et d'équité avant de les sélectionner, ajoute Adnan Masood. Les responsables informatiques peuvent utiliser des cadres déjà établis tels que le cadre de gestion des risques de l'IA du NIST, les principes de l'OCDE ou les lignes directrices de l'UE sur l'IA digne de confiance pour évaluer la fiabilité et la transparence des modèles, ajoute-t-il. Les DSI doivent surveiller en permanence leurs outils d'IA et pratiquer une gouvernance responsable du cycle de vie de ceux-ci.
« Ce faisant, ils s'assurent que les systèmes d'IA apportent une valeur ajoutée à l'entreprise grâce à des gains de productivité et d'efficacité, mais aussi qu'ils maintiennent la confiance des différentes parties prenantes et respectent les principes de l'IA responsable », ajoute l'architecte en chef de l'IA de UST.
Les DSI et autres décideurs en matière d'IA doivent réfléchir de manière critique aux résultats de leurs modèles d'IA, tout comme les consommateurs de médias sociaux doivent évaluer l'exactitude des informations qu'ils reçoivent, souligne Stepan Solovev, PDG et cofondateur de Soax, fournisseur d'une plateforme d'extraction de données. « Certaines personnes essaient de comprendre ce qui est vrai et ce qui ne l'est pas, mais d'autres se contentent de consommer ce qu'elles reçoivent et ne se soucient pas de vérifier les faits, explique-t-il. C'est l'aspect le plus préoccupant de toutes ces révolutions technologiques : les gens n'ont généralement pas l'esprit critique, surtout lorsqu'il s'agit du premier prompt que vous soumettez à l'IA ou des premiers résultats que vous obtenez sur les moteurs de recherche. »
Dans certains cas, les responsables IT ne se tourneront pas vers des LLM tels que DeepSeek pour former des outils d'IA spécialisés et s'appuieront d'emblée sur des modèles plus spécialisés, explique-t-il. Dans ces situations, il est moins probable que les utilisateurs soient confrontés à un modèle d'entraînement entaché de préjugés culturels.
Néanmoins, les DSI devraient comparer les résultats entre modèles ou utiliser d'autres méthodes pour vérifier les résultats, suggère Stepan Solovev. « Si une IA diffuse un message biaisé, une autre IA, ou des fact-checkers humains renforcés par l'IA, peuvent la contrer tout aussi rapidement, ajoute-t-il. Nous allons assister à un jeu du chat et de la souris, mais avec le temps, je pense que la vérité et la transparence l'emporteront, surtout dans un marché d'idées ouvert. »
La concurrence comme remède
« Le défi consiste à maintenir cette concurrence équitable et à veiller à ce que les entreprises et les particuliers aient accès à plusieurs modèles afin de pouvoir les comparer », ajoute Stepan Solovev. Comme ce dernier, Manuj Aggarwal, fondateur et DSI du fournisseur de solutions informatiques et d'IA TetraNoodle Technologies, voit dans l'expansion rapide du marché de l'IA un moyen de remédier à la partialité potentielle d'un DeepSeek ou d'autres LLM.
« Il est très peu probable qu'un seul modèle ait une influence majeure sur le monde, dit-il. DeepSeek n'est qu'un modèle parmi tant d'autres, et bientôt, nous en verrons des milliers provenant de tous les coins du monde. Aucune IA ne peut à elle seule dicter des récits à grande échelle lorsque tant de systèmes divers interagissent. »
Depuis la sortie de DeepSeek, Mistral AI a, par exemple, mis son modèle d'IA sous licence libre, et des modèles tels que Llama de Meta et Grok de xAI étaient déjà disponibles en Open Source, notent Manuj Aggarwal et d'autres experts de l'IA. Néanmoins, le fondateur de Terra Noodle recommande aux DSI qui utilisent des LLM pour entraîner leurs propres modèles d'IA de s'en tenir à des marques auxquelles ils font confiance.
« Depuis la première élection de [Barack] Obama, les campagnes [politiques] s'appuient sur des analyses basées sur l'IA pour cibler les électeurs avec précision, explique-t-il. Aujourd'hui, avec des modèles comme DeepSeek, les enjeux sont encore plus importants. La question n'est pas de savoir si l'IA sera utilisée à des fins de propagande ; il s'agit de savoir quel contrôle les différentes entités auront » pour contrer ces tentatives.
Article rédigé par
Grant Gross, CIO US (adapté par Reynald Fléchaux)
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire