L’IA face au droit à l’égalité : analyse du Règlement européen sur l’IA et des développements au Canada
Par Olivia Deschênes
Ce billet de blogue a été rédigé dans le cadre de l’École d’été du Laboratoire de cyberjustice.
La grande transformation qu’opèrent les systèmes d’intelligence artificielle (IA), y compris les systèmes de prise de décision automatisée (ADM), dans plusieurs sphères de la vie quotidienne, fait naître de nouveaux risques en matière de droits fondamentaux, en particulier le droit à l’égalité, c’est-à-dire le droit à la non-discrimination. Déjà en 2018, une panoplie de risques de ce type ont été identifiés dans le cadre d’une étude mandatée par la Commission européenne contre le racisme et l’intolérance (ECRI) du Conseil de l’Europe, qui a déclaré que ces risques pouvaient être combattus par le biais de la réglementation, ainsi que par des organismes de défense des droits de la personne.
La réalité ayant évolué dans le même sens que l’avait estimé l’ECRI, l’Union européenne (UE) a adopté le Règlement (UE) 2024/1689 sur l’intelligence artificielle (ci-après, le « Règlement ») qui est entré en vigueur le 1er août 2024. Il s’agit du premier cadre réglementaire au monde qui vise à encadrer le développement et l’utilisation des systèmes d’IA en tenant compte notamment des risques qu’ils posent en matière de discrimination. De son côté, le Canada était en voie d’adopter une législation comparable à travers le projet de loi C-27, la Loi de mise en œuvre de la Charte numérique de 2022, qui inclut la Loi sur l’intelligence artificielle et les données (LIAD), mais l’examen en comité n’a pas pu être achevé. Toutefois, les provinces réglementent également le droit à l’égalité, ce qui est également d’intérêt pour la protection du droit à l’égalité au sein des systèmes d’IA.
I. La protection contre la discrimination faite par les systèmes d’IA dans l’UE
La Charte des droits fondamentaux de l’UE dispose que toutes personnes sont égales en droit, et prohibe la discrimination fondée notamment sur la race, le sexe, les caractéristiques génétiques, ainsi que la fortune. En plus, elle dispose que des protections spécifiques, comme l’égalité entre les hommes et les femmes, y compris en matière d’emploi.
Comment le Règlement entend-il appuyer la protection contre la discrimination?
Le Règlement interdit explicitement la mise en marché, la mise en service ou l’utilisation de systèmes d’IA qui sont considérées à fort potentiel discriminatoire. Nous abordons les principales interdictions dans la présente section.
Interdiction des systèmes de notation sociale
L’article 5(1)c) du Règlement prohibe les systèmes de notation sociale, qui évaluent ou classent les individus ou les groupes sur la base de données relatives à leur comportement social dans divers contextes, ou bien de caractéristiques prédites ou déduites, afin d’en tirer des conséquences dans d’autres domaines de leur vie. Le considérant (31) du Règlement explique qu’en octroyant aux personnes ou aux groupes des notes sociales, il est possible de les assujettir à un traitement préjudiciable ou défavorable, en particulier dans des contextes autres que celui où les données ont été recueillies ou traitées à l’origine. Ce type de système de notation sociale pose également le risque de systématiser des différences de traitement ayant des effets préjudiciables sur les personnes, sans égard aux principes de droit applicable au sein des pays membres de l’UE.
Interdiction des systèmes d’identification biométrique à distance « en temps réel » à des fins répressives
Le Règlement interdit également, à son article 5(1)h) l’identification biométrique à distance en temps réel dans les espaces accessibles au public à des fins de maintien de l’ordre. Cette pratique, également interdite sauf exception limitative, est considérée particulièrement intrusive au sens du considérant (32), en ce qu’elle suscite un sentiment de surveillance constante, dissuade l’exercice des libertés fondamentales et engendre un risque élevé d’erreurs discriminatoires. Cette interdiction vise à éviter que les systèmes d’IA se traduisent par des contrôles automatisés ciblant certaines personnes sur la base de caractéristiques sensibles (âge, sexe, origine ethnique, handicap) en amplifiant les préjugés existants.
Interdiction de système de catégorisation biométrique
Dans le même ordre d’idées, l’article art. 5(1)g du Règlement proscrit, sauf exception, les systèmes de catégorisation biométrique qui classifient les personnes sur le fondement de leurs données biométriques afin d’arriver à des déductions ou des inférences notamment relatives à leur appartenance raciale, leur opinion politique, leur association syndicale, leur vie sexuelle, leur race, leurs convictions religieuses ou philosophiques, ou leur orientation sexuelle.
Interdiction des systèmes visant à inférer les émotions dans le contexte du travail ou de l’enseignement
En plus, l’article 5(1)f) du Règlement interdit la mise en marché et l’utilisation de systèmes d’IA visant à inférer les émotions dans le contexte du travail ou de l’enseignement (article 5(1)(f)), car leur fondement scientifique est fragile et leur application dans des environnements marqués par une asymétrie des pouvoirs entraîne un fort risque de préjudice. Le considérant (44) du Règlement indique que ces technologies, peu fiables et peu transposables d’une culture à l’autre, pourraient aboutir à des décisions défavorables fondées sur des critères non pertinents, ce qui justifie leur prohibition dans ces contextes.
Les systèmes d’IA à haut risque
En dehors de ces interdictions, le Règlement classe certains systèmes d’IA dans la catégorie « à haut risque » lorsqu’ils touchent à des domaines sensibles comme le recrutement, la gestion des migrations, la justice ou la formation. Pour ces systèmes, le Règlement impose aux concepteurs et aux utilisateurs des obligations strictes visant à limiter les biais discriminatoires. Ainsi, les jeux de données d’entraînement doivent être soigneusement conçus et représentatifs pour éviter de reproduire des préjugés historiques, conformément au considérant (67). Les entreprises doivent par ailleurs garantir la traçabilité des décisions, prévoir une supervision humaine effective et procéder à une évaluation préalable d’impact sur les droits fondamentaux. À ce titre, l’article 77 habilite les autorités nationales de protection des droits fondamentaux à exiger les informations nécessaires aux contrôles, à organiser des tests techniques sur les systèmes et à veiller à ce que les entreprises respectent ces obligations.
II. Quid de la protection contre la discrimination faite par les systèmes d’IA au Canada et au Québec?
Au Canada (fédéral)
Au niveau fédéral, la protection générale contre la discrimination est protégée par les instruments suivants :
- La Charte canadienne des droits et libertés (1982) qui fait partie de la Constitution du Canada, prévoit à son article 15 le droit à l’égalité, qui s’applique aux relations entre les personnes et l’État;
- La Déclaration canadienne des droits (1960) prévoit le droit à l’égalité devant la loi à son article 1(b). Cet instrument s’applique également aux relations entre les personnes et l’État;
- La Loi canadienne sur les droits de la personne (1977), prévoit le droit à l’égalité à son article 2. Cette loi protège les employés et les bénéficiaires de services du gouvernement fédéral, des entreprises sous réglementation fédérale et des gouvernements des Premières Nations.
Pourvu qu’ils soient mobilisés de façon à tomber dans l’un ou l’autre des champs d’application de ces lois fédérales, les systèmes d’IA doivent appliquer le standard correspondant de protection contre la discrimination. Abordons maintenant le cas spécifique de la LIAD.
La Loi sur l’intelligence artificielle et les données
Comme discuté précédemment, le Canada élaborait son propre cadre réglementaire visant les systèmes d’IA avec la LIAD, et rien n’indique pour le moment que l’étude du projet de loi C-27 reprendra son cours prochainement. Dans l’intérêt d’éventuellement élaborer une réglementation de ce type, il importe néanmoins d’examiner comment la LIAD, telle qu’elle a été proposée, prévoyait de protéger contre la discrimination.
Dans son Document complémentaire à la LIAD (le « Document »), Innovation, Sciences et Développement économique est venu préciser l’importance de réglementer les systèmes d’IA pour des considérations de discrimination. À cet égard, le Document cite notamment l’exemple d’un système d’IA utilisé pour filtrer des CV pour présélectionner les candidats aux entrevues, qui s’est avéré discriminatoire à l’égard des femmes. Il cite aussi un système d’IA de reconnaissance faciale qui fait preuve de préjugés envers les femmes et les personnes racisées.
En vertu de la LIAD, les risques d’IA à incidence élevée sont encadrés sur deux plans complémentaires : d’une part, le texte protège les individus contre les préjudices concrets que pourraient engendrer ces systèmes, qu’il s’agisse d’atteintes physiques, psychologiques, matérielles ou économiques, et d’autre part, il cible le risque de résultats biaisés à l’échelle collective, en interdisant les différenciations défavorables injustifiées fondées sur des motifs protégés par la Loi canadienne sur les droits de la personne (comme le sexe, la race ou l’âge). Ainsi, la LIAD aurait imposé aux entreprises sous réglementation fédérale de prévoir, dès la conception et le déploiement d’un système d’IA à incidence élevée, des mesures pour identifier, évaluer et atténuer ces préjudices individuels et ces biais systémiques, en veillant à ce que l’utilisation d’IA dans des domaines sensibles (comme le recrutement, l’accès au crédit, le service aux citoyens) n’amplifie pas les discriminations existantes et protège efficacement les personnes et les groupes vulnérables contre des effets préjudiciables.
Le Canada entendait ainsi aligner son encadrement sur les juridictions avant-gardistes à l’international, comme l’UE avec son Règlement. Cela dit, l’interruption de l’étude de ce projet de loi limite au niveau fédéral la protection contre la discrimination par les systèmes d’IA à une protection générale.
Au Québec
Notons que chaque province et territoire a également sa propre loi qui protège contre la discrimination. C’est le cas de la Charte des droits et libertés de la personne (1975) du Québec (ci-après, la « Charte québécoise »), qui protège à son article 10 contre la discrimination, et s’applique à la fois aux actions du gouvernement et dans la sphère privée (y compris les relations entre particuliers). Il faut se fier au libellé de l’article 10 de la Charte québécoise pour démontrer la discrimination au sens de cette disposition. En ce sens, il faut démontrer une différence de traitement (distinction, exclusion ou préférence) fondée sur l’un des quatorze motifs prohibés, de façon à brimer l’exercice des droits d’une personne, notamment son droit à l’égalité. La discrimination peut être directe, c’est-à-dire évidente, mais elle peut aussi être indirecte et systémique.
Ainsi, la Commission des droits de la personne et des droits de la jeunesse (CDPDJ), qui est notamment chargée d’enquêter sur la discrimination au Québec, mener des études en matière de droits de la personne et faire des représentations devant le Tribunal des droits de la personne, a publié un Guide concernant les risques que posent les systèmes d’IA, y compris en matière de discrimination. Nous pouvons donc nous attendre à ce que des dossiers de discrimination impliquant des systèmes d’IA se retrouvent devant les tribunaux, ce qui développera sans doute la jurisprudence à ce sujet, en l’absence d’un cadre législatif spécifique en la matière.
Conclusion
Pour conclure, le Règlement de l’UE s’avère sans doute l’instrument spécifique le plus prometteur pour la prévention des risques de discrimination posés par les systèmes d’IA à l’échelle mondiale. En effet, son interdiction explicite d’usages plus intrusifs qui porteraient atteinte à la protection de discrimination implique que les entreprises doivent prévoir, dès la conception, des mesures rigoureuses d’évaluation et d’atténuation des biais dans leurs systèmes d’IA.
Au Canada, la LIAD proposait une démarche parallèle, quoiqu’incomplète par rapport au Règlement de l’UE, qui était axée sur une réglementation préventive des préjudices individuels et collectifs causés par les systèmes d’IA à risque élevé. Bien qu’elle n’ait pas été adoptée à ce jour, les instruments généraux de protection des droits de la personne continueront d’assurer une certaine protection en matière de discrimination.
This content has been updated on 09/23/2025 at 11 h 00 min.
