La Maison Blanche devrait durcir les règles d'usage de l'IA par ses fonctionnaires fédéraux
Le Président des États-Unis Joe Biden devrait annoncer des règles imposant aux agences gouvernementales d'évaluer plus précisément les outils d'IA afin de s'assurer qu'ils sont sûrs et qu'ils n'exposent pas d'informations sensibles.
PublicitéAprès que ses efforts pour encadrer l'IA générative (genAI) aient été jugés trop vagues et inefficaces, l'administration Biden devrait annoncer d'autres règles plus restrictives concernant l'utilisation de cette technologie par les fonctionnaires fédéraux. Le décret, qui devrait être présenté lundi 30 octobre, devrait également assouplir les règles d'immigration concernant les travailleurs du secteur technologique, pour permettre à ces derniers d'entrer plus facilement sur le territoire et de contribuer au soutien du développement des États-Unis. Mardi 24 octobre soir, la Maison Blanche a envoyé des invitations pour un événement intitulé « Safe, secure, and trustworthy artificial intelligence », organisé lundi 30 octobre par le Président, selon The Washington Post.
L'IA générative, qui progresse à une vitesse fulgurante et suscite l'inquiétude des experts du secteur, a incité ce dernier à publier des « orientations » en mai dernier. La vice-présidente Kamala Harris a également rencontré les CEO de Google, de Microsoft et d'OpenAI - le créateur de ChatGPT - pour discuter des problèmes potentiels de l'IA générative, notamment en matière de sécurité, de protection de la vie privée et de contrôle. Avant même le lancement de cet outil en novembre 2022, l'administration Biden avait dévoilé un projet de « charte des droits de l'IA » ainsi qu'un cadre de gestion des risques liés à celle-ci. Elle a également proposé une feuille de route pour la création d'une ressource nationale de recherche sur l'IA.
Un décret pour renforcer les moyens en matière de cybersécurité
Le nouveau décret devrait renforcer les défenses du pays en matière de cybersécurité en exigeant que les grands modèles de langage (LLM) soient évalués avant d'être utilisés par les agences gouvernementales américaines. Celles-ci comprennent le ministère de la Défense, le ministère de l'Énergie et les agences de renseignement, toujours selon The Washington Post. Ces règles viendront solidifier l'engagement pris sur volontariat par 15 entreprises qui développent des IA, de faire le nécessaire pour garantir une évaluation des systèmes d'IA générative compatible avec une utilisation responsable. « Je crains que nous n'ayons pas de très bons antécédents dans ce domaine ; l'exemple de Facebook en est la preuve », a déclaré Tom Siebel, CEO du fournisseur d'applications d'IA d'entreprise C3 AI et fondateur de Siebel Systems, lors de la conférence EmTech du MIT en mai dernier. « J'aimerais croire que l'autorégulation fonctionne, mais le pouvoir corrompt, et le pouvoir absolu corrompt totalement ».
PublicitéBien que l'IA générative offre des avantages considérables grâce à sa capacité à automatiser des tâches et à créer des réponses textuelles sophistiquées, des images, des vidéos et même des codes logiciels, la technologie est également connue pour ses dérapages. Les hallucinations, par exemple, « se produisent parce que les LLM, dans leur forme la plus classique, n'ont pas de représentation interne du monde, explique Jonathan Siddharth, CEO de Turing, une entreprise de Palo Alto, en Californie, qui utilise l'IA pour trouver, embaucher et intégrer des ingénieurs en logiciel à distance. Il n'y a pas de notion de fait avec ces outils. Ils prédisent le mot suivant sur la base de ce qu'ils ont vu jusqu'à présent - il s'agit d'une estimation statistique ».
Un risque d'exposition de données sensibles
L'IA générative peut également exposer de manière inattendue des données sensibles ou personnellement identifiables. Au niveau le plus élémentaire, ces outils rassemblent et analysent des quantités massives de données provenant directement d'Internet, d'entreprises et même de sources gouvernementales afin d'offrir un contenu plus précis et riche à leurs utilisateurs. Mais ces informations recueillies par l'IA ne sont pas nécessairement stockées en toute sécurité. Les IA peuvent ainsi les rendre vulnérables à une exploitation par des tiers. Les smartphones et les voitures autonomes, par exemple, suivent la géolocalisation des utilisateurs et leurs habitudes de conduite. Une démarche censée aider la technologie à mieux comprendre les habitudes de l'utilisateur pour lui être davantage utile. Reste que le système récolte également à cette occasion des informations personnelles qu'il envoie vers de volumineux datasets pour entraîner les modèles d'IA.
Le prochain décret du gouvernement des États-Unis pourrait exiger des d'IA de réviser leurs pratiques, selon Adnan Masood, architecte en chef de l'IA chez UST, société de services de transformation numérique. Les nouvelles règles peuvent également entraîner une augmentation des coûts opérationnels dans un premier temps.
« L'alignement sur les normes nationales permettrait de rationaliser les processus d'achats du gouvernement en ce qui concerne ces produits et favoriser la confiance des consommateurs privés, indique Adnan Masood. Et si la réglementation est nécessaire pour atténuer les risques de l'IA, elle doit cependant être finement équilibrée pour maintenir un environnement propice à l'innovation. Si nous faisons trop pencher la balance vers une surveillance restrictive, en particulier dans le domaine de la R&D et de l'open source, nous risquons d'étouffer l'innovation et de céder du terrain à des juridictions plus indulgentes dans le monde. »
Lutter contre les biais inhérents à l'IA
L'IA générative est également vulnérable aux biais inhérents à l'intelligence artificielle, dans les applications de recrutement assistées par l'IA par exemple, qui ont tendance à choisir des hommes plutôt que des femmes, ou des candidats blancs plutôt que des minorités. De plus, ces outils parviennent de mieux en mieux à imiter le langage naturel, les images et les vidéos, et il sera bientôt impossible de discerner les faux résultats des vrais. Les entreprises doivent donc mettre en place des garde-fous contre les pires résultats, qu'ils soient accidentels ou malveillants.
Les efforts déployés par les États-Unis pour contrôler l'IA font suite à ceux déployés par les pays européens pour s'assurer que la technologie ne génère pas de contenu contraire aux lois de l'UE, notamment en matière de pornographie enfantine ou, dans certains pays de l'UE, de négation de l'Holocauste. L'Italie a tout simplement interdit la poursuite du développement de ChatGPT pour des raisons de protection de la vie privée, après que l'application de traitement du langage naturel a été victime d'une violation de données impliquant des conversations d'utilisateurs et des informations de paiement.
L'UE, pionnière en matière de réglementation
Le règlement sur l'intelligence artificielle (AI Act) de l'Union européenne est le premier du genre adopté par un ensemble de pays occidentaux. Il s'appuie fortement sur les règles existantes, telles que le règlement général sur la protection des données (RGPD), la loi sur les services numériques et la loi sur les marchés numériques. La loi sur l'IA a été proposée à l'origine par la Commission européenne en avril 2021. Les États et les municipalités envisagent d'imposer leurs propres restrictions à l'utilisation de robots basés sur l'IA pour trouver, sélectionner, interviewer et embaucher des candidats à l'emploi, en raison de problèmes de confidentialité et de partialité.
La Maison-Blanche devrait également s'appuyer sur l'Institut national des normes et de la technologie (NIST) pour renforcer les guides de test et d'évaluation des systèmes d'IA - des dispositions qui s'appuieraient sur les engagements volontaires en matière de sûreté, de sécurité et de confiance que l'administration Biden a obtenus de 15 grandes entreprises technologiques cette année en matière d'IA.
L'initiative de Joe Biden est d'autant plus importante que l'IA générative connaît un essor continu, qui se traduit par des capacités sans précédent en matière de création de contenu, de deepfakes et, potentiellement, de nouvelles formes de cybermenaces. « Cela montre que le rôle du gouvernement n'est pas seulement celui d'un régulateur, affirme Adnan Masood, mais aussi d'un facilitateur et d'un consommateur d'IA. En imposant des évaluations de la technologie au niveau fédéral et en soulignant son rôle dans la cybersécurité, le gouvernement américain reconnaît la double nature de l'IA, à la fois comme atout stratégique et comme risque potentiel ».
Article rédigé par
Lucas Mearian, IDG NS (adapté par Célia Séramour)
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire