Le masculinisme des Gafa influencera-t-il l'IA ? Le point de vue des GenAI

Nous avons demandé à ChatGPT, Grok, Mistral et Perplexity l'influence qu'auraient les tendances masculinistes, qui font surface chez les Gafa, sur l'égalité femmes-hommes. Mistral et plus étonnamment, Grok répondent sans détours, mais le résultat relève plutôt de la synthèse des impacts génériques de l'IA.
PublicitéLes biais de l'IA restent un sujet complexe à aborder et à traiter pour les entreprises, comme le souligne par exemple le « manifeste pour l'utilisation éthique de l'intelligence artificielle » rédigé par la Macif. A l'occasion de la Journée internationale des droits des femmes du 8 mars, il est intéressant de s'interroger sur ceux qui concernent spécifiquement l'égalité femmes-hommes. Avec deux évolutions majeures depuis quelques mois : l'explosion de la GenAI, d'une part, et le tournant « masculiniste » pris par les Gafa, et plus largement la Silicon Valley, depuis l'élection du nouveau président des États-Unis. Des Gafa dont les plateformes et algorithmes dominent en grande partie le numérique mondial. Comment ce virage idéologique pourrait-il, à l'heure de la GenAI, influencer l'égalité femmes-hommes ? Pourquoi ne pas demander aux instruments mêmes de l'amplification des discriminations, les GenAI, de répondre à cette question ?
C'est ce que nous avons fait, en posant à ChatGPT, Grok, Mistral et Perplexity la question suivante : « Quelle influence le renforcement de la tendance masculiniste des Gafa aura-t-il dans l'IA sur l'égalité hommes-femmes en général et dans la tech en particulier ». Sans en tirer de conclusion définitive sur l'influence du masculinisme à travers les IA, et encore moins sur la performance comparée des IA, car notre requête est sans aucun doute très imparfaite, et qu'aucun secret sur le fonctionnement des algorithmes n'est parvenu jusqu'à nous. Reste que le résultat de l'expérience dresse néanmoins un panorama très étendu des influences déjà néfastes de l'IA sur l'égalité femmes hommes, les perspectives d'une aggravation de la situation et l'ébauche de quelques solutions.
Stéréotypes renforcés et discriminations perpétuées
Toutes les GenAI consultées (versions accessibles gratuitement) identifient la même liste d'impacts de l'IA sur l'égalité femmes hommes : un renforcement des stéréotypes de genre, un accès réduit aux métiers de la technologie, un impact sur les politiques de diversité et d'inclusion et des implications sociétales. Elles en déduisent, en toute logique, qu'une tendance masculiniste chez les Gafa ne ferait que les accentuer.
Les GenAI s'accordent ainsi, pour commencer, sur le renforcement par l'IA des stéréotypes de genre - avant même d'évoquer le masculinisme - car, comme elles le rappellent, les algorithmes s'alimentent à des sources de données historiques, contenant des stéréotypes qu'elles perpétuent. « Les algorithmes, programmés principalement par des hommes, reflètent leur vision du monde et reproduisent automatiquement leurs stéréotypes de genre, les diffusant à grande échelle [...] en associant certains métiers à un genre spécifique, par exemple », rappelle Perplexity. Les quatre IA identifient aussi les domaines dans lesquels les femmes sont d'ores et déjà discriminées dans la société, et pourraient l'être davantage par les IA, comme l'accès aux soins, le recrutement, l'accès aux prêts ou au travers des systèmes de reconnaissance faciale. Perplexity renvoie, entre autres, vers un article sur le colloque « Femmes et IA : briser les codes », organisé au Sénat le 7 mars 2025. Grok, le modèle du désormais très influent Elon Musk, souligne même le risque de voir « pérenniser une vision du monde où les hommes sont perçus comme la norme, reléguant les femmes à un statut secondaire ». On serait tentés d'ajouter un emoji...
PublicitéMistral, Grok : les risques lié au masculinisme des Gafa
ChatGPT insiste sur le cercle vicieux qui conduirait à une proportion moins importante de femmes dans les secteurs technologiques (un faible nombre de femmes dans la technologie signifie peu de femmes pour donner l'exemple à d'autres, entrainant un nombre encore plus faible de femmes à postuler dans ces métiers). Et cela ne s'arrête pas là, comme l'ajoute Perplexity, « avec moins de femmes dans les équipes de développement d'IA, les biais sexistes risquent de se perpétuer, créant un [autre] cercle vicieux difficile à briser ». L'IA cite sur ce point un article de 2021 dans The Conversation, « Pourquoi est-il important d'avoir une égalité femmes-hommes dans le monde de l'IA ? », de la chercheuse en IA Marjorie Allain-Moulet.
Deux IA se distinguent de façon intéressante avec des éléments qui répondent au sujet précis des Gafa, de leur influence, et du masculinisme dans ce contexte, et non au seul sujet des biais de l'IA. Le Français Mistral et, plus étonnant, Grok, l'IA d'Elon Musk. Cette dernière traite sans détour la question en soulignant même qu'une « idéologie valorisant la domination masculine pourrait augmenter les comportements sexistes ou le harcèlement, poussant davantage de femmes à quitter le secteur (on sait déjà que la moitié des femmes dans la tech partent après 35 ans) » et ajoute que « les Gafa, en tant que leaders mondiaux, influencent les normes du secteur. Une tendance masculiniste pourrait décourager les initiatives de diversité et d'inclusion, freinant les efforts pour attirer et retenir les talents féminins ». Plus globalement, un virage masculiniste pourrait, d'après les réponses de Grok, « légitimer des discours rétrogrades sur les rôles de genre, en s'appuyant sur leur immense visibilité (par exemple, via les réseaux sociaux ou les contenus promus par leurs algorithmes) ». Un autre emoji ?
Un impact potentiel sur les politiques publiques
Mistral, lui, évoque par exemple l'impact sur les politiques publiques. L'IA précise ainsi : « Les Gafa, avec leur influence croissante, pourraient utiliser l'IA pour influencer les politiques publiques de manière à renforcer leur propre position. Cela pourrait inclure des initiatives qui ne prennent pas en compte les besoins spécifiques des femmes, exacerbant ainsi les inégalités de genre dans la société ». Étonnamment, le Français, peut-être influencé par sa propre situation, souligne aussi la difficulté des plus petits acteurs à entrer dans le jeu (« les barrières à l'entrée pour les concurrents »), renforçant le rôle des plus grands, y compris sur l'exacerbation des inégalités de genre dans la société. Enfin, Mistral souligne que l'IA peut néanmoins aussi servir de levier pour favoriser l'égalité, entre autres en formant les développeurs à identifier les biais introduits dans les algorithmes.
Pour les quatre outils de GenAI, des pistes existent en effet pour éviter les biais. A commencer par la diversité des données d'entraînement, et même le prétraitement et le posttraitement de celles-ci (une solution dont on sait pourtant qu'elle crée d'autres biais), ainsi que le test des modèles avec différents jeux de données. Outre l'explicabilité et la transparence des algorithmes, sur laquelle les entreprises n'ont cependant pas la main, l'implication permanente des humains dans le processus, au travers d'une gouvernance adéquate, d'audits réguliers des modèles avec des jeux de données diversifiés ou de l'implication d'experts en éthique, sociologie ou psychologie, est également citée. Sans surprise.
Cette consultation imparfaite de la GenAI sur ses propres biais est sans doute néanmoins salutaire, ne serait-ce que pour rappeler l'étendue de l'influence de l'IA pour les femmes dans le monde des technologies, et plus largement dans la société. Un exercice qui pourrait sans nul doute être répliqué sur d'autres sujets sociétaux...
Article rédigé par

Emmanuelle Delsol, Journaliste
Suivez l'auteur sur Linked In,
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire