Déclaration de Bletchley : La promesse d'une trentaine de pays de lutter contre les risques majeurs liés à l'IA
La déclaration de Bletchley, signée lors du AI Safety Summit constituera une ligne de pensée commune afin de superviser l'évolution de l'IA et de garantir que la technologie progresse en toute sécurité. Au programme la collaboration entre plusieurs régions du monde pour augmenter la connaissance scientifique et prévenir des risques de désinformation, de cybersécurité, mais aussi de guerre nucléaire.
PublicitéLa Chine et les États-Unis ont accepté de collaborer avec au moins 25 autres pays pour atténuer les risques liés à la progression de l'IA. Ils ont signé avec certains d'entre eux, dont l'Allemagne, la France, l'Inde ainsi que l'UE, un accord, baptisé « Bletchley declaration », lors du sommet britannique sur la sécurité de l'IA. Objectif : établir une ligne de conduite commune pour superviser l'évolution de l'IA et veiller à ce que la technologie progresse en toute sécurité. L'accord porte le nom de Bletchley Park où s'est tenu le rendez-vous. À Milton Keynes en Angleterre (une centaine de kilomètres de Londres), ce site historique a abrité l'équipe dirigée par Alan Turing pour déchiffrer les codes de la machine allemande Enigma pendant la Seconde Guerre mondiale.
Le sommet au cours duquel l'accord a été signé s'est déroulé en présence de plusieurs dirigeants politiques et des CEO d'entreprises technologiques, dont Elon Musk et Sam Altman (OpenAI). La déclaration de Bletchley invite les pays signataires à adopter deux grandes approches pour contrôler les risques de guerre nucléaire, chimique ou biologique pouvant provenir de l'utilisation de l'IA. « Nous sommes particulièrement préoccupés par ces risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que dans les cas où les systèmes d'IA les plus poussés peuvent amplifier des risques tels que la désinformation. L'imposant potentiel de ces modèles d'IA peut entraîner des dommages graves, voire catastrophiques, délibérés ou involontaires », souligne l'accord.
Deux approches pour prévenir les risques liés à l'IA
La première approche consiste à identifier les risques de sécurité liés à l'IA qui suscitent des préoccupations communes, et à développer une connaissance commune détaillée de ceux-ci à partir de données scientifiques et factuelles. Les pays signataires évalueront ensuite l'évolution des capacités de l'IA et en mesureront l'impact sur la société dans son ensemble, selon l'accord.
La deuxième approche consiste à élaborer des politiques fondées sur les risques dans les pays membres afin de garantir la sécurité. Celles-ci peuvent varier en fonction des circonstances nationales et des cadres juridiques applicables. « Cette deuxième approche consiste à demander une transparence accrue de la part des acteurs privés qui développent des fonctions d'IA de pointe, mais aussi à établir des mesures d'évaluation appropriées ainsi que des outils de test de la sécurité, et à développer dans le secteur public des compétences et une recherche scientifiques pertinentes », peut-on lire dans l'accord.
PublicitéLes États-Unis ont pris de l'avance en matière de régulation de l'IA
Au début du mois de mai, des centaines de dirigeants de l'industrie technologique, d'universitaires et d'autres personnalités ont signé une lettre ouverte avertissant que l'évolution de l'IA pourrait conduire à un phénomène d'extinction et déclarant que le contrôle de cette technologie devrait être une priorité mondiale absolue.
Cette semaine, OpenAI, à l'origine de ChatGPT, a déclaré qu'il préparait une équipe pour empêcher ce que l'entreprise appelle les modèles d'IA d'avant-garde de déclencher une guerre nucléaire et d'autres menaces. L'administration du président américain Joe Biden a également publié cette semaine un décret attendu depuis longtemps, qui définit des règles claires et des mesures de contrôle pour veiller à ce que l'IA soit maîtrisée, tout en lui offrant la possibilité de se développer.
Article rédigé par
Anirban Ghoshal, IDG NS (adapté par Célia Séramour)
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire