Blogue sur le droit de l’emploi et du travail

Loi de 2024 visant à œuvrer pour les travailleurs, quatre : obligation en matière de divulgation liée à l’« intelligence artificielle »

20 Déc 2024 6 MIN DE LECTURE

La Loi de 2024 visant à œuvrer pour les travailleurs, quatre (le projet de loi 149) a reçu la sanction royale le 21 mars 2024. Le projet de loi 149 a modifié la Loi de 2000 sur les normes d’emploi (LNE) afin d’y inclure les nouvelles exigences en matière d’affichage de postes auxquelles sont assujettis les employeurs. Un numéro antérieur d’Actualités Osler, « “Œuvrer pour les travailleurs » veut dire plus de travail pour les employeurs” », décrivait ces exigences, y compris l’obligation incombant à l’employeur de divulguer son utilisation de l’intelligence artificielle (IA) pour trier, évaluer et sélectionner les candidats dans le processus d’embauche lorsqu’une offre d’emploi est annoncée publiquement.

La définition d’« intelligence artificielle » proposée initialement dans le projet de loi 149 était la suivante :

« Système automatisé qui, pour des objectifs explicites ou implicites, fait des déductions à partir d’entrées qu’il reçoit afin de générer des résultats tels que des prévisions, des contenus, des recommandations ou des décisions qui peuvent influer sur des environnements physiques ou virtuels. »

Nouveau règlement de la LNE

Après que le ministère du Travail, de l’Immigration, de la Formation et du Développement des compétences de l’Ontario (le Ministère) eut lancé une consultation publique sur les nouvelles règles relatives à l’affichage de postes, le Règlement de l’Ontario 476/24 (le Règlement) a été publié. Le Règlement confirme la définition de l’« intelligence artificielle » proposée initialement.

Le Règlement confirme également que la définition d’« annonce publique de poste » est un « [a]ffichage externe de poste dont un employeur ou la personne qui agit en son nom fait l’annonce au grand public de quelque façon que ce soit. » Toutefois, plusieurs types d’annonces de poste (dont les campagnes générales de recrutement et les initiatives d’embauche interne) sont exclus, et les employeurs sont dispensés de l’exigence s’ils ont moins de 25 employés le jour où une annonce publique de poste est affichée.

Toutes ces dispositions devraient entrer en vigueur le 1er janvier 2026.

Répercussions du Règlement

Comme nous l’avons déjà souligné dans le numéro des Actualités Osler mentionné ci-dessus, en l’absence d’autres précisions ou directives du Ministère, la définition de l’« intelligence artificielle » donnée dans le projet de loi 149 est complexe et ouverte à des interprétations différentes. Plus précisément, les employeurs pourraient avoir du mal à déterminer en quoi consiste l’intelligence artificielle, qui peut aller d’algorithmes simples de recherche par mots clés à des algorithmes d’apprentissage automatique qui évaluent la probabilité de réussite du candidat. Ce type de définition trop complexe et trop large risque de mener soit à une divulgation excessive, qui pourrait dissuader les candidats ou attirer des demandes inutiles, soit à l’omission involontaire de divulguer le recours à l’IA, qui pourrait entraîner des risques de non-conformité et de réputation.

Les employeurs peuvent aussi avoir du mal à interpréter des termes clés comme « trier », « évaluer » ou « sélectionner ». Par exemple, ils peuvent se demander si « sélectionner » comprend des scénarios où un être humain prend la décision d’embauche si elle s’appuie sur des séries typiques de programmes ou de systèmes, dont bon nombre incorporent de plus en plus l’IA. En l’absence d’autres directives, il peut être difficile pour un employeur de déterminer quand la divulgation est vraiment nécessaire.

Pour éviter l’ambiguïté, certains employeurs peuvent conclure qu’en renonçant tout bonnement à utiliser l’IA pour trier, évaluer ou sélectionner des candidats pour un poste, ils adoptent une stratégie viable. Cependant, après avoir conseillé des clients sur l’intégration de l’IA dans leurs flux de travail liés aux RH, nous estimons que cette stratégie n’est peut-être pas réaliste pour la plupart des entreprises. En effet, on compte de plus en plus sur l’IA pour améliorer l’efficience des flux de travail liés aux RH. Nous prévoyons plutôt que les employeurs seront plus susceptibles d’adopter un libellé normalisé pour la divulgation en matière d’IA et de l’inclure dans toutes les annonces publiques de poste, peu importe si la définition englobe l’utilisation de la technologie dans chaque cas. Cette approche peut certes atténuer les difficultés pratiques liées à la conformité, mais elle peut aussi trahir le sens du Règlement.

Le Ministère a déclaré que l’obligation de divulgation a été adoptée afin d’aider les travailleurs à prendre des décisions éclairées dans leur recherche d’emploi. Cependant, on voit mal comment une divulgation à elle seule contribue à l’atteinte de cet objectif, surtout si les déclarations elles-mêmes deviennent « génériques ». Par exemple, un employeur qui utilise l’IA pour une recherche par mots clés de base pourrait, en pratique, se servir du même libellé dans une offre d’emploi qu’un employeur qui utilise la technologie pour prédire le succès éventuel d’un candidat dans le poste. Un travailleur n’est donc pas en mesure de différencier les employeurs en fonction du degré d’influence qu’exerce l’IA dans leur processus d’embauche, ce qui risque de miner la transparence visée par le Règlement.

On se demande également si la divulgation est suffisante. Par exemple, quel niveau de détail est requis pour que l’information soit conforme? Suffit-il de déclarer que l’IA a été utilisée, ou les nouvelles règles pourraient-elles obliger l’employeur à décrire les fonctions précises qu’exerce l’IA, ainsi que les limites et les risques de la technologie, afin que le candidat puisse en comprendre les conséquences? Dans le dernier cas, l’employeur devra peut-être trouver une façon de communiquer ces limites et ces risques d’une manière facile à comprendre.

Pour les besoins de la conformité, la formation des équipes des RH est essentielle. Ces équipes devront peut-être suivre une formation aux fins suivantes :

  • identifier l’IA réellement utilisée pour évaluer, trier et sélectionner les candidats;
  • formuler un libellé transparent et exact qui respecte les exigences réglementaires et répondre aux demandes de renseignements à son sujet;
  • s’assurer qu’elles ont voix au chapitre dans les cadres et les procédures de gouvernance de l’IA qui appuient le recours responsable à la technologie.

Bien que l’obligation de divulgation, en l’absence d’autres directives ou d’interprétation jurisprudentielle, puisse au départ ne pas imposer de nouvelles exigences substantielles aux employeurs qui affichent des postes en Ontario, nous pouvons nous attendre à d’autres règlements dans ce domaine, car les décideurs s’emploient de plus en plus à encourager l’utilisation éthique de l’IA en milieu de travail. Les employeurs doivent se tenir au courant de ces développements, suivre les changements réglementaires et commencer à prendre des mesures proactives en vue de comprendre comment ces obligations s’appliqueront à leurs processus d’embauche.