Blogue sur le droit de l’emploi et du travail

IA et recrutement : nouvelle obligation de déclaration dans les annonces de postes en Ontario IA et recrutement : nouvelle obligation de déclaration dans les annonces de postes en Ontario

3 février 2026 10 MIN DE LECTURE

Key Takeaways

Le 1er janvier 2026, les nouvelles exigences de la Loi de 2000 sur les normes d’emploi, L.O. 2000, chap. 41 (la LNE) de l’Ontario sur les déclarations dans les annonces de postes sont entrées en vigueur. Elles s’appliquent aux employeurs qui comptent 25 employés ou plus le jour où ils affichent une annonce publique de poste. Une « annonce publique de poste » est un « [a]ffichage externe de poste dont un employeur ou la personne qui agit en son nom fait l’annonce au grand public de quelque façon que ce soit ». Sont toutefois exclues de cette définition les campagnes générales de recrutement qui ne font pas l’annonce d’un poste précis, les annonces affichées à l’interne et les annonces concernant un travail exécuté à l’extérieur de l’Ontario (y compris les cas où du travail doit être exécuté à l’extérieur et à l’intérieur de l’Ontario, si le travail extraprovincial n’est pas une prolongation du travail exécuté en Ontario).

Les nouvelles règles obligent notamment les employeurs à déclarer tout recours à l’IA pour trier, évaluer ou sélectionner les candidats aux postes visés par des annonces publiques de postes (pour en savoir plus sur toutes les obligations entrées en vigueur le 1er janvier 2026, lisez l’article publié en décembre 2025 sur le blogue sur le droit du travail et de l’emploi intitulé Rappel aux employeurs de l’Ontario : nouvelles exigences en matière d’annonce publique de poste).

Portée de l’obligation de déclaration concernant l’IA

En décembre 2024, nous avons donné nos premières impressions sur l’obligation de déclaration concernant l’IA en Ontario (voir l’article Loi de 2024 visant à œuvrer pour les travailleurs, quatre : obligation en matière de divulgation liée à l’« intelligence artificielle »). Peu de choses ont changé depuis. Le ministère n’a toujours pas donné de précisions sur la portée du terme « intelligence artificielle », sur l’interprétation qu’on doit faire d’autres termes clés comme « trier », « évaluer » et « sélectionner » ou sur le degré de détail qu’il faut donner à propos du recours à l’IA. L’absence d’orientations surprend, vu la place de plus en plus imposante que prend l’IA dans les milieux de travail, y compris lors du processus de recrutement (pour une discussion sur les éléments à considérer par l’employeur qui souhaite utiliser l’IA, voir l’article de novembre 2025 sur le blogue sur le droit du travail et de l’emploi intitulé L’IA en milieu de travail : ce que les employeurs de l’Ontario doivent savoir).

Sans définition légale ni directives du ministère, les employeurs ont de quoi se poser des questions sur le respect des nouvelles exigences en pratique.

Questions fréquentes des employeurs

Q : Que savons-nous sur la façon dont il faut interpréter les termes liés à l’IA qui n’ont été définis ni dans la loi ni dans des directives ministérielles?

R :Le règlement d’application adopte une définition de l’IA semblable à celle du cadre de l’Organisation de coopération et de développement économiques (OCDE) qui englobe les systèmes automatisés qui font des déductions à partir d’entrées afin de générer des résultats tels que des prévisions, des contenus, des recommandations ou des décisions qui peuvent influer sur des issues. Compte tenu de cette définition et des discussions qui ont eu lieu pendant les travaux parlementaires, on peut penser que l’obligation de déclaration a une large portée qui englobe les outils fondés sur l’apprentissage automatique et les déductions couramment utilisés en recrutement qui pourraient exacerber des problèmes d’iniquité et de préjugés (p. ex. ChatGPT).

La loi ne définit pas les termes « trier », « évaluer » et « sélectionner », mais on peut raisonnablement présumer qu’on doit leur attribuer leur sens courant. Les travaux parlementaires montrent que l’obligation de déclaration a été introduite comme mesure de transparence pour les demandeurs d’emploi, en réponse à des inquiétudes sur les préjugés, la protection de la vie privée et l’opacité, lorsque l’IA est utilisée tôt dans le processus de recrutement (au moment de l’examen des CV et du triage, notamment). En pratique, la disposition semble viser les outils alimentés par l’IA qui ont une incidence sur le parcours des candidats dans le processus de recrutement (s’ils le poursuivent, et de quelle façon), notamment ceux qui servent à trier les candidats, à leur attribuer un rang ou une note, à les recommander ou à les évaluer de toute autre façon, même si un humain prend la décision finale.

Comme aucun seuil n’est prescrit, les employeurs devraient adopter une interprétation défendable basée sur l’usage qui est véritablement fait de l’IA dans le processus et être prêts à expliquer en quoi cet usage correspond (ou ne correspond pas) au triage, à l’évaluation ou à la sélection de candidats au sens de l’obligation de déclaration. Cette analyse pourrait évidemment changer à la lumière d’éventuelles directives du ministère.

Q : Nous avons recours à l’IA dans notre processus de recrutement. À quoi devrait ressembler notre déclaration?

R :La LNE exige des employeurs qu’ils déclarent le recours à l’IA pour le triage, l’évaluation ou la sélection des candidats, mais ne précise pas sous quelle forme ni le degré de détail attendu. Une courte déclaration qui ne fait que confirmer que l’IA a été utilisée pourrait satisfaire à l’interprétation littérale, mais les travaux parlementaires suggèrent que l’obligation vise à favoriser une véritable transparence pour les personnes dont l’évaluation ou la progression du dossier a pu être influencée par l’IA. Les employeurs pourraient, comme stratégie d’affaires ou de communication, choisir de donner davantage de détails, comme le type d’outil d’IA utilisé, la ou les étapes du processus de recrutement auxquelles il est intervenu et la surveillance humaine qui a été exercée. Une déclaration détaillée peut améliorer la transparence perçue et l’engagement des candidats, mais elle peut aussi être un frein pour les personnes qui ne sont pas d’accord avec l’utilisation de la technologie par l’entreprise, ou encore amener un flot de questions qui peut devenir difficile à gérer pour l’équipe interne.

Vu l’absence actuelle d’orientations, il n’y a pas de solution idéale. L’approche à retenir variera selon le milieu de travail, l’usage qui est fait de l’IA et les objectifs globaux de l’employeur en matière de communication, de gestion des risques et de recrutement.

Q : Quels documents faut-il mettre à jour vu la nouvelle obligation de déclaration concernant l’IA?

R : Les employeurs devraient mettre à jour quelques documents clés à la lumière des nouvelles exigences. Il convient d’ajouter aux modèles d’annonces publiques de postes un espace servant à déclarer le recours à l’IA dans les cas où cette technologie est utilisée pour trier, évaluer ou sélectionner les candidats. Les politiques de recrutement et les documents de formation doivent mentionner expressément cette obligation et donner des directives aux membres concernés du personnel pour les aider à déterminer quand la déclaration est nécessaire, à respecter les exigences lorsqu’ils font affaire avec des recruteurs ou des plateformes d’emploi tiers et à répondre aux questions des candidats sur le recours à l’IA dans le processus de recrutement. De plus, si l’employeur a une politique sur l’IA – ce que nous recommandons par ailleurs fortement dans les secteurs fondés sur les connaissances –, il devrait la mettre à jour pour y intégrer l’obligation de déclaration.

Q :Quelles sont les conséquences du non-respect de l’obligation de déclaration concernant l’IA?

R : Une personne morale déclarée coupable de non-respect de la LNE (ou de ses règlements) s’expose théoriquement à une amende pouvant aller jusqu’à 100 000 $ (ou plus, si elle a déjà été déclarée coupable d’une infraction à la LNE). Chaque situation mérite des conseils juridiques ciblés, mais, selon notre expérience, les autorités ontariennes n’optent généralement pas pour une approche d’entrée de jeu agressive en présence d’infractions non pécuniaires. Un employeur peut aussi entacher sa réputation s’il ne respecte pas les exigences. L’omission de déclarer le recours à l’IA pourrait être vue comme un manque d’honnêteté ou de transparence, ce qui pourrait rebuter des candidats de qualité et nuire aux recommandations de bouche à oreille.

Bonnes pratiques pour les employeurs

  • Noter le recours à l’IA dans les procédures de recrutement : En l’absence de définitions et de seuils clairs (ce qu’on entend par « trier », « évaluer », « sélectionner » et « intelligence artificielle »), les employeurs peuvent recenser toutes les étapes du processus de recrutement, relever celles qui font intervenir l’IA et adopter une déclaration qui peut être défendue à la lumière du texte de la LNE et des commentaires faits à son sujet. Concrètement, il s’agit de noter à quel moment un outil est utilisé pour analyser des CV, classer des candidats, générer des évaluations ou influer de toute autre façon sur la progression d’un candidat dans le processus de recrutement – même lorsqu’il s’agit d’étapes préliminaires, que les outils sont intégrés à la plateforme d’un tiers ou qu’il y a une surveillance humaine. Comme l’IA est maintenant intégrée à la plupart des logiciels de base (MS Teams, Outlook, Google Workspace, etc.), nombre d’employeurs se contentent d’ajouter une déclaration générale à toutes leurs annonces.
  • L’obligation de déclaration dans le contexte de la gouvernance de l’IA : Outre les nouvelles obligations de déclaration prévues dans la LNE, les changements à la réglementation offrent une belle occasion de revoir la stratégie générale d’atténuation des risques associés à l’IA (consultez notre article publié en septembre 2025 intitulé Votre entreprise est-elle prête pour la gouvernance de l’IA? pour en savoir plus sur la bonne intégration de ces systèmes). Les employeurs peuvent considérer les approches suivantes :
    • Cohérence interne : Les employeurs devraient avoir des pratiques internes cohérentes qui assurent le respect des exigences liées à l’IA ou des meilleures pratiques en matière d’atténuation des risques et les mettre à jour régulièrement. Pour assurer une application uniforme par les recruteurs, les gestionnaires d’embauche et les fournisseurs, les politiques et les documents de formation devraient préciser la portée et l’objectif du recours à l’IA en milieu de travail, et donner des instructions pour déterminer à quel moment et à quelle fin elle devrait être utilisée lors du processus de recrutement et pour répondre aux questions des candidats.
    • Vérification des outils de tiers : Pour assurer une conformité et une atténuation des risques continues, les employeurs devraient régulièrement vérifier les outils et les plateformes de recrutement de tiers qu’ils utilisent pour comprendre leur configuration et la place qu’ils laissent à l’IA. Les fournisseurs peuvent modifier leurs fonctionnalités et introduire des nouveautés alimentées par l’IA qui changent les risques pour la vie privée, les droits de la personne et le respect de la réglementation, entre autres.

Conclusion

L’obligation de déclaration concernant l’IA est en vigueur, mais un flou demeure quant à l’interprétation qu’il faut faire de certains termes. Nous croyons que les nouvelles exigences ontariennes ne sont que la « pointe de l’iceberg » de la réglementation de l’IA en contexte d’emploi (au provincial comme au fédéral). Les employeurs devraient se pencher sur l’usage qu’ils font des systèmes d’IA dans leur lieu de travail et ses motifs afin d’être prêts à se conformer aux règles actuelles et à venir.