Trouver le juste équilibre : quelle approche le Canada devrait privilégier en matière de réglementation de l’IA Trouver le juste équilibre : quelle approche le Canada devrait privilégier en matière de réglementation de l’IA

19 mars 2026 12 MIN DE LECTURE

Key Takeaways

  • L’IA est la technologie qui a connu l’adoption la plus rapide de l’histoire de l’humanité, et le Canada se trouve à un tournant quant à la manière de la réglementer.
  • À l’heure actuelle, ne disposant pas d’un cadre global en matière de réglementation de l’IA, le Canada s’appuie plutôt sur des lois sectorielles et des lois d’application générale.
  • La prochaine stratégie nationale en matière d’IA offre au Canada l’occasion d’établir un cadre réglementaire mesuré, fondé sur les préjudices, qui traite les risques émergents liés à l’IA sans freiner l’investissement et l’innovation dans le domaine.

Alors que l’intelligence artificielle continue de transformer les secteurs d’activité et de remodeler la vie de tous les jours, l’approche du Canada en matière de gouvernance de l’IA a atteint un tournant. Le gouvernement fédéral a récemment mené des consultations publiques et lancé un « sprint de 30 jours sur l’IA » en vue de l’élaboration d’une stratégie nationale renouvelée en matière d’IA.

Les consultations publiques, menées par Innovation, Sciences et Développement économique Canada (ISDE), visaient à recueillir les commentaires des acteurs du secteur, du milieu universitaire et de la société civile sur l’avenir de la stratégie du Canada en matière d’IA et de son environnement réglementaire. Ces consultations s’inscrivent dans le cadre de vastes débats mondiaux sur la sécurité et la gouvernance de l’IA, marqués notamment par la publication, plus tôt cette année, du Rapport international sur la sécurité de l’IA 2026, dirigé par le pionnier canadien de l’IA Yoshua Bengio, et par un contexte d’attention accrue du public à l’égard de la sécurité de l’IA et de la responsabilité des plateformes numériques au Canada.

Dans l’ensemble, cette dynamique a relancé le débat sur la manière dont le Canada devrait réglementer l’IA tout en conservant sa position de chef de file mondial dans la recherche et l’innovation dans le domaine.

L’état actuel de la réglementation de l’IA au Canada

À l’heure actuelle, le Canada ne dispose pas d’un cadre global en matière de réglementation de l’IA. La Loi sur l’intelligence artificielle et les données, présentée dans le cadre du projet de loi C-27 en 2022, a finalement été abandonnée lors de la dissolution du Parlement en 2025. En conséquence, en matière d’IA, le Canada ne dispose pas du type de cadre réglementaire global couvrant l’ensemble de l’économie que d’autres pays ont mis en place.

Dans la pratique, cependant, les technologies d’IA sont déjà réglementées au Canada par une combinaison de lois sectorielles et de lois d’application générale.

Par exemple, au Québec, la Loi 25 impose des exigences aux organisations dont les décisions sont fondées exclusivement sur un traitement automatisé des renseignements personnels, y compris des obligations liées à la transparence et au droit de demander une révision de la décision par un être humain. D’autres lois sectorielles régissent certaines technologies basées sur l’IA : la Loi sur la sécurité automobile du gouvernement fédéral et les codes de la route des provinces fournissent des cadres de réglementation pour les véhicules autonomes. De même, la Loi de 2023 visant à œuvrer pour les travailleurs de l’Ontario impose la transparence lorsque les employeurs utilisent l’IA pour présélectionner, évaluer ou sélectionner des candidats à un emploi, des dispositions qui sont entrées en vigueur le 1er janvier de cette année.

Au-delà de ces mesures ciblées, le Canada dispose d’un ensemble de lois d’application générale qui couvrent de nombreux préjudices potentiels liés à l’IA. La Loi sur la protection des renseignements personnels et les documents électroniques régit la collecte, l’utilisation et la communication des renseignements personnels dans le cadre d’activités commerciales, et ses exigences s’appliquent que le traitement des données soit effectué par des êtres humains ou par des systèmes d’IA. Les lois fédérales et provinciales sur les droits de la personne interdisent la discrimination fondée sur des motifs protégés, y compris lorsque des systèmes d’IA participent à la prise de décisions qui touchent des personnes physiques. De même, les lois sur le travail et l’emploi continuent de régir les relations en milieu de travail et les obligations des employeurs, même si l’IA transforme la manière dont le travail est exécuté et les décisions en matière d’emploi sont prises.

Dans l’ensemble, ce patchwork législatif signifie que le Canada réglemente déjà de nombreux aspects du déploiement de l’IA, bien qu’indirectement.

Leçons à tirer des approches adoptées ailleurs dans le monde

La réglementation de l’IA est extrêmement complexe. Les décideurs politiques doivent concilier des considérations contradictoires, notamment la prévention des préjudices, les répercussions sociales dans leur ensemble, la croissance économique et le positionnement géopolitique.

Trois facteurs clés contribuent à cette complexité. Tout d’abord, l’IA est une technologie à usage général, à l’instar de l’électricité, de la machine à vapeur et d’Internet. Dans le passé, les sociétés n’ont jamais tenté de réglementer une technologie à usage général à un niveau macroéconomique de la manière dont on envisage aujourd’hui de le faire pour l’IA. Ensuite, l’IA générative est la technologie qui a connu l’adoption la plus rapide de l’histoire de l’humanité, des outils tels que ChatGPT ayant été adoptés par la population en général en moins de trois ans. Ce rythme pose des défis considérables aux cadres réglementaires, qui évoluent généralement sur des horizons temporels beaucoup plus longs. Enfin, il existe un intérêt politique légitime à encourager le développement et l’adoption de l’IA en raison des avantages économiques et sociaux que cette technologie peut apporter.

Dans ce contexte, des pays de partout dans le monde ont commencé à expérimenter diverses approches en matière de réglementation et de gouvernance de l’IA.

La Loi sur l’intelligence artificielle de l’Union européenne (la « Loi de l’UE sur l’IA ») représente l’une des approches les plus complètes en matière de réglementation de l’IA actuellement en vigueur. Cette loi prévoit un cadre fondé sur les risques qui adapte les exigences réglementaires en fonction du potentiel de préjudice. Dans la pratique, cependant, la Loi de l’UE sur l’IA est à la fois très prescriptive et lourde sur le plan opérationnel. Les coûts de conformité sont considérables et les sanctions en cas de non-conformité sont extrêmement sévères, ce qui expose les entreprises faisant affaire dans le domaine de l’IA à des risques financiers importants.

En comparaison, en matière de gouvernance de l’IA, les États-Unis ont adopté une approche décentralisée et axée sur les agences, qui met l’accent sur le leadership et l’innovation dans ce domaine. À l’échelon fédéral, plutôt que d’introduire un cadre global sur l’IA, le gouvernement américain s’appuie sur les lois existantes, les mesures exécutives, notamment le décret 14365, et les mécanismes de surveillance sectoriels des agences. Les États, quant à eux, ont commencé à adopter des lois ciblées traitant de risques particuliers liés à l’IA, notamment la discrimination algorithmique, la transparence de l’IA et le déploiement de systèmes d’IA à haut risque.

Ces approches divergentes mettent en évidence les tensions politiques fondamentales auxquelles sont confrontés les gouvernements. Les cadres réglementaires prescriptifs apportent de la clarté, mais risquent d’imposer un important fardeau de conformité et de ralentir l’innovation, tandis que les approches décentralisées peuvent favoriser le développement des technologies, mais aussi entraîner l’introduction d’une réglementation fragmentée qui crée de l’incertitude.

Un cadre réglementaire équilibré, fondé sur les préjudices

Alors que le Canada définit sa propre approche en matière de gouvernance de l’IA, les décideurs politiques doivent trouver le juste équilibre entre la gestion des risques émergents et le maintien au pays d’un environnement attractif pour la recherche, l’investissement et la commercialisation dans le domaine de l’IA, une priorité affichée par le gouvernement actuel.

Les commentaires sur l’IA recueillis par le gouvernement fédéral dans le cadre de ses consultations mettent en évidence cette tension et la nécessité de trouver un équilibre entre innovation et gouvernance responsable. De nombreux participants ont souligné l’importance de cadres réglementaires transparents, fondés sur les risques et susceptibles de renforcer la confiance du public envers les systèmes d’IA. Les contributeurs ont également insisté sur l’importance d’une réglementation claire et de normes prévisibles, d’autant plus que les organisations canadiennes cherchent à déployer l’IA à grande échelle. Dans le même temps, certaines parties prenantes ont mis en garde contre des approches réglementaires susceptibles d’imposer un fardeau disproportionné aux développeurs et aux déployeurs d’IA, compte tenu notamment de la concurrence mondiale au chapitre des investissements et des talents dans le domaine de l’IA.

Ces considérations soulignent l’importance de calibrer soigneusement l’approche du Canada en matière de réglementation. Un cadre trop lourd risque de décourager involontairement l’investissement dans les technologies d’IA et leur adoption, entravant ainsi les gains de productivité nécessaires. Cette préoccupation est amplifiée par le contexte concurrentiel, en particulier l’approche relativement peu interventionniste qui prévaut actuellement aux États-Unis en matière de réglementation de l’IA. Un cadre trop contraignant pourrait pousser le développement et le déploiement de l’IA vers des pays où les exigences réglementaires sont moins strictes, ce qui pourrait nuire à la capacité du Canada à livrer concurrence au sein de l’économie mondiale de l’IA.

À la lumière de ces considérations, en ce qui concerne la réglementation de l’IA, le Canada devrait adopter une approche mesurée, fondée sur les préjudices, qui s’articule autour de quatre principes fondamentaux.

Le premier principe consiste en l’application des lois existantes. Le Canada dispose déjà d’un corpus législatif substantiel couvrant la protection des consommateurs, la vie privée, les droits de la personne, la responsabilité du fait du produit et les normes professionnelles. De nombreuses utilisations de l’IA susceptibles de causer des préjudices sont déjà interdites ou réglementées en vertu de ces lois existantes. Avant de créer de nouvelles règles exprès pour l’IA, les décideurs politiques devraient s’assurer que les lois existantes sont effectivement appliquées et mises en œuvre dans le contexte de l’IA.

En deuxième lieu, si les lois existantes comportent des lacunes avérées, des mesures ciblées peuvent s’avérer appropriées. Cependant, les décideurs politiques doivent veiller à ne pas confondre des questions distinctes ni à apporter des réponses trop générales à des préoccupations particulières. Par exemple, bien qu’elles soient liées, la sécurité en ligne et la réglementation de l’IA traitent de catégories différentes de risques et ne devraient pas être considérées comme interchangeables. Les discussions récentes qui ont suivi le tragique incident de Tumbler Ridge, en Colombie-Britannique, illustrent ce défi. Le débat public a notamment porté sur la question de savoir si les développeurs ou les plateformes d’IA devraient repérer et signaler les comportements potentiellement préjudiciables des utilisateurs. Cependant, comme l’ont fait remarquer certains commentateurs, de telles propositions soulèvent des questions plus larges concernant la responsabilité des intermédiaires, la vie privée des utilisateurs et la gouvernance des plateformes en général, plutôt que la réglementation de l’IA en tant que tel. Si les fournisseurs d’IA se voyaient assujettis à des obligations de signalement étendues, ils pourraient devoir surveiller davantage les interactions des utilisateurs et, du coup, porter atteinte à leur vie privée. Ces discussions illustrent l’importance de veiller à ce que les réponses réglementaires restent adaptées aux risques particuliers en jeu et tiennent compte des conséquences imprévues.

En troisième lieu, le Canada devrait s’appuyer sur ses organismes de réglementation sectoriels existants, là où ils se trouvent, plutôt que de créer des mécanismes de surveillance entièrement nouveaux. Des organismes tels que Santé Canada, le Bureau du surintendant des institutions financières et Transports Canada possèdent une expertise approfondie dans leur domaine et des relations bien établies avec les entités réglementées. Ces organismes de réglementation devraient disposer de la latitude nécessaire pour appliquer des règles d’application générale aux applications d’IA au sein de leurs secteurs ou pour élaborer de nouvelles exigences propres à chaque secteur lorsque le contexte le justifie. Grâce à une telle approche, la réglementation peut refléter les profils de risque et les réalités opérationnelles des différents secteurs d’activité.

Enfin, le Canada devrait envisager d’adopter une loi de type « filet de sécurité » fondée sur les préjudices, qui offre un cadre souple qui peut s’adapter aux préjudices imprévus ou aux risques émergents. Plutôt que de prescrire des règles pour chaque application possible de l’IA, une telle loi établirait des principes et des mécanismes permettant aux organismes de réglementation d’intervenir rapidement en cas de préjudices importants. En outre, elle pourrait définir les catégories d’utilisation de l’IA qui doivent être interdites, tout en permettant, par voie de règlement, l’introduction de restrictions, de mesures de protection ou d’obligations de conformité supplémentaires à mesure que la technologie évolue et que de nouveaux risques apparaissent. Grâce à une telle approche, le Canada pourrait disposer d’un cadre réglementaire allégé pendant les périodes de stabilité, tout en conservant la capacité d’agir de manière décisive lorsque les circonstances l’exigent.

La suite des choses

Dans l’attente de la publication prochaine de la stratégie renouvelée du Canada en matière d’IA, les décideurs politiques ont l’occasion de clarifier l’approche du pays en matière de gouvernance de l’IA.

Un cadre équilibré qui privilégie la mise en application des lois existantes, la prise de mesures ciblées dans les cas où la réglementation existante comporte des lacunes avérées et le recours aux mécanismes de surveillance sectoriels pourrait permettre au Canada de faire face aux risques émergents tout en continuant à favoriser un climat d’innovation et d’investissement dans le domaine de l’IA.

Il sera essentiel pour le Canada de trouver le juste équilibre s’il souhaite conserver sa réputation de chef de file mondial dans le domaine de l’IA, tout en veillant à ce que le déploiement des technologies d’IA reste conforme aux attentes du public en matière de sécurité, d’équité et de responsabilité.