Passer au contenu

Le National Institute of Standards and Technology lance la version 1.0 du cadre de gestion des risques liés à l’IA

Auteur(s) : Simon Hodgett, Sam Ip, Sam Dobbin

Le 2 février 2023

Le 26 janvier 2023, le National Institute of Standards and Technology (NIST) des États-Unis a publié son cadre de gestion des risques liés à l’IA, l’AI Risk Management Framework [PDF] (CGR liés à l’IA 1.0) (en anglais seulement), qui énonce des principes visant à doter les entreprises et les particuliers d’approches permettant d’accroître la fiabilité des systèmes d’intelligence artificielle (IA). Le NIST a également publié un manuel d’accompagnement, le NIST AI RMF Playbook (en anglais seulement), un vidéo explicatif, l’AI RMF Explainer Video (en anglais seulement), une feuille de route, l’AI RMF Roadmap (en anglais seulement), un tableau de concordance (entre le CGR liés à l’IA 1.0 à d’autres normes et cadres), l’AI RMF Crosswalk (en anglais seulement), et diverses Perspectives (déclarations publiées par des entreprises et des particuliers intéressés) (en anglais seulement). Bien que le NIST soit une agence des États-Unis, elle est très présente sur la scène internationale et bon nombre de ses normes ont été mises au point en collaboration avec des parties prenantes du monde entier et adoptées par celles-ci, y compris le CGR liés à l’IA.

Simultanément à la publication du CGR liés à l’IA 1.0 et des documents qui l’accompagnent, le NIST a tenu un événement de lancement auquel ont participé des conférenciers et des panélistes membres de la Maison-Blanche, de la Chambre de commerce et du Technology Industry Council des États-Unis, ainsi que de diverses initiatives et entreprises du secteur de la technologie et de l’IA. 

Cadre de gestion des risques liés à l’IA 1.0

Le CGR liés à l’IA fait suite à une directive du Congrès américain visant à élaborer un cadre de gestion des risques liés à l’IA et à promouvoir la fiabilité et le développement responsable des systèmes d’IA. En plus d’exposer les risques liés à l’IA et les caractéristiques des systèmes d’IA dignes de confiance, le CGR liés à l’IA a pour objet principal d’établir quatre fonctions de haut niveau qui sont essentielles à la compréhension et à la gestion des risques liés à l’IA : gouverner, cartographier, mesurer et gérer. (Ces fonctions sont décrites en détail dans notre article précédent, qui présente le cadre.)

Publiée seulement quatre mois après la deuxième ébauche du CGR liés à l’IA, la version 1.0 développe la plupart des éléments de la deuxième ébauche et aborde également de nouvelles considérations, renforçant ainsi son objectif d’être pratique, souple et adaptable à diverses technologies d’IA et à des entreprises de toutes tailles.

Événement de lancement du cadre de gestion des risques liés à l’IA 1.0

L’événement de lancement du CGR liés à l’IA a comporté des allocutions de Don Graves (sous-secrétaire du département du Commerce des États-Unis), d’Alondra Nelson, Ph. D. (assistante adjointe du président et sous-directrice principale pour la science et la société au bureau de la politique scientifique et technologique de la Maison-Blanche) et de Zoe Lofgren (membre principal du comité de la Chambre des représentants des États-Unis sur la science, l’espace et la technologie). Des panels ont également été organisés pour discuter des capacités du CGR liés à l’IA et des lacunes qu’il pourrait présenter.

Les principaux points à retenir des allocutions des conférenciers et des panélistes sont les suivants :

  • Les systèmes d’IA sont par nature des systèmes sociotechniques, car les gens sont souvent au centre (c’est-à-dire que les systèmes d’IA sont utilisés par les gens, sont gouvernés par eux et ont un impact sur eux).
  • Le CGR liés à l’IA a la souplesse nécessaire pour s’adapter aux besoins des petites et grandes entreprises des secteurs public, privé et à but non lucratif.
  • Des cas d’utilisation plus précis devraient être intégrés au CGR liés à l’IA. Il est essentiel de développer les capacités actuelles du CGR liés à l’IA pour qu’il puisse s’appliquer à un plus grand nombre de situations particulières du monde réel afin d’étendre l’adoption de l’IA à un plus grand nombre d’applications et de traiter et d’atténuer les risques propres à l’IA tels que la perpétuation des préjugés et la diffusion d’informations fausses. 

Dans l’ensemble, la communauté de l’IA est très impatiente de mettre en œuvre le CGR liés à l’IA dans les pratiques et le déploiement de l’IA dans tous les secteurs pertinents, comme l’emploi et le logement, entre autres. Plusieurs panélistes, dont Navrina Singh (fondatrice et chef de la direction de Credo AI), ont insisté sur l’importance de dispenser une formation internationale à grande échelle sur le CGR liés à l’IA, car celui-ci pourrait devenir la « référence standard » s’il est mis en œuvre dans le monde entier.

Et la suite?

Le NIST prévoit de mettre à jour périodiquement le manuel d’accompagnement du CGR liés à l’IA du NIST à l’aide des commentaires de la communauté de l’IA, la prochaine mise à jour étant prévue pour le printemps 2023. Le NIST prévoit également de lancer un centre de ressources sur l’IA digne de confiance et responsable qui proposera des conseils et une assistance aux entreprises qui utilisent le CGR liés à l’IA 1.0. La feuille de route du CGR liés à l’IA (en anglais seulement) que le NIST a publiée récemment contient la liste complète de ses priorités concernant le développement futur du CGR liés à l’IA.