Rétrospective des lignes directrices sur l’utilisation de l’IA par les professionnels du droit, les barreaux et les cours du Canada

Par Hugo Lagache

Le Laboratoire de cyberjustice a le plaisir de vous présenter une rétrospective des conseils et lignes directrices sur l’utilisation de l’intelligence artificielle (IA) par les professionnels du droit au Canada.

 

Allégorie de la Justice

Plusieurs tribunaux au Canada ont émis des avertissements et recommandations sur l’utilisation de l’IA. Par la suite, les barreaux de nombreuses provinces ont également publié leurs propres mises en garde à ce sujet.

Une première prise de conscience provenant des Juges

 

La reconnaissance et la mise en place de conseils sur l’utilisation de l’IA par les tribunaux peuvent être analysées en trois phases :

 

 

  • Phase 1 : En juin 2023 the Court of King’s Bench of Manitoba et the Supreme Court of YUKON ont publié des petits communiqués invitants à surveiller la fiabilité et l’exactitude des informations générées par les IA. Ces deux Cours ont demandé aux parties et aux professionnels du droit d’avertir la cour lorsque ce genre d’outil est utilisé lors d’interactions avec la Cour et de préciser le but de cette utilisation.

 

  • Phase 2 : En octobre 2023, la Cour d’appel d’Alberta et la Cour supérieure du Québec ont communiqué des mises en garde plus longues et plus détaillées. Les cours ont, à cet égard, précisé les termes employés dans leurs publications, en adoptant le terme de Large Language Models (LLM), au lieu de la simple mention d’IA. Les cours ont appelé à la prudence lors de l’utilisation de LLM et enjoint les acteurs du droit à n’utiliser que des sources provenant d’autorités publiques ou de services validés par les paires, comme CanLII. Les Cours sont aussi soucieuses de la précision et de l’authenticité des résultats d’IA. À cette fin, elles recommandent de toujours avoir un contrôle et des vérifications humaines, s’appuyant sur des bases de données sûres.

 

  • Phase 3 : En décembre 2020, la Cour fédérale a, à son tour, publié des recommandations sur l’utilisation de l’IA.

Ces recommandations se distinguent des autres, car elles ont, en premier lieu, reconnu l’aspect positif quant à la promotion de l’accès à la justice que permet les outils d’intelligence artificielle. La Cour fédérale a reconnu trois lignes directrices permettant aux juridictions d’utiliser l’IA :

 

  • Exclure l’utilisation d’IA dans le fonctionnement décisionnel
  • Respecter une liste de principe lors d’utilisations d’IA pour des tâches administratives (responsabilité, respect des droits fondamentaux, non-discrimination, exactitude, transparence, cybersécurité, intervention humaine)
  • Consulter les parties concernées lorsque des répercussions sur la profession ou le public peuvent survenir.

 

En mai 2024, l La Cour fédérale a actualisé son avis sur l’utilisation de l’IA. Premièrement, elle a demandé d’indiquer si l’ensemble ou une partie d’un travail soumis par ou pour la cour a été généré par une IA. Deuxièmement, la Cour a émis des mises en garde quant aux hallucinations et hypertrucages possiblement générés par l’IA. Elle appelle également à la prudence et insiste sur l’importance de conserver une vérification humaine des résultats produits par cette technologie. Troisièmement, la Cour affirme qu’aucune conclusion défavorable ne sera émise en raison de la simple déclaration de l’utilisation de l’IA.

 

 

Historique des lignes directrices conçues par les Barreaux provinciaux canadiens

 

The Law Society of British Columbia est le premier Barreau à avoir publié des lignes directrices, en novembre 2023.

À la différence des communiqués des Cours, le document émis par ce Barreau est plus long, prenant le temps de contextualiser l’apparition des IA génératives.

 

Ce document n’est pas simplement une mise en garde sur l’utilisation de l’IA mais a pour finalité d’inviter les avocats à se questionner sur leurs réels besoins d’utiliser une IA et rappelle leurs responsabilités dans un tel cas.

 

Le document commence par définir et distinguer l’IA de l’IA générative, des LLMs.

Puis, le document reprend un certain nombre de responsabilités issues du code de conduites professionnelles de la Colombie britannique.

À cet égard, il est rappelé le devoir

  • De compétence : se former à l’utilisation d’IA
  • De confidentialité : faire attention aux partages de données
  • D’honnêteté : Prévenir le client de l’utilisation d’IA
  • De responsabilité : invitation à être diligent
  • De sécurité des informations : Invite à savoir comment l’information est conservée et sécuriser
  • D’honoraires et débours raisonnables : invite à repenser la facturation

Les lignes directrices mettent en garde sur le plagiat, les biais, fraudes et arnaques que peuvent engendrer les outils d’intelligence artificielle.

 

The Law society of Alberta a, en janvier 2024, publié sur sa page internet, des instructions dans le but de permettre aux avocats de profiter, en toute sécurité, des opportunités qu’offrent les IA génératives.

 

À la différence avec les lignes directrices de Colombie-Britannique, dont les recommandations ont été publiées dans un document PDF, les recommandations sont intégrées sur une page internet. En effet, the Law society of Alberta a opté pour une version modifiable et adaptable, plutôt qu’un un document officiel. Ses recommandations font brièvement référence au code de conduite de l’Alberta ; toutefois, elles sont principalement basées sur les meilleures pratiques observées.

 

The Law Society of Saskatchewan a, en février 2024, publié des lignes directrices qui énumèrent les devoirs que doivent respecter les avocats lorsqu’ils utilisent l’IA. Certaines différences avec des lignes directrices fournies par the Law society of British Columbia sont notables. En effet, en plus d’une absence de définition, ont été ajoutés les devoirs de supervision et de délégation, pourtant présents aussi dans le code de conduite de Colombie britannique.

 

The Law Society of Manitoba a, en avril 2024, publié ses lignes directrices. Celles-ci reprennent le rappel et l’application des devoirs proposés par The Law Society of Saskatchewan tout en ajoutant les définitions comme présenté dans les lignes directrices publiées par The Law society of British Columbia.

 

Les dernières lignes directrices recensées dans cet article proviennent de Law Society of Ontario, publié en avril 2024. À la différence des autres lignes directrices, celles-ci se distinguent par la longueur du document ; 31 pages pour 10 pages en moyenne dans les autres provinces.

 

Nous pouvons noter que les lignes directrices débutent dans une première partie par définir et donner des exemples d’utilisations de l’IA, de l’IA générative et de LLM.

 

Une autre distinction est notable, puisqu’après avoir identifié des risques, the Law Society of Ontario combine les deux approches des autres provinces, en rappelant et appliquant les règles du code de conduite ontarien et en proposant les meilleures pratiques observées.

 

Dans une deuxième partie, les lignes directrices s’adressent aux prestataires de service envisageant d’utiliser des outils génératifs d’IA pour fournir des services juridiques au public. En effet, ils proposent des feuilles de route, ainsi que 8 meilleures pratiques pour s’assurer que l’outil soit légitime. À nouveau pour les professionnelles utilisant ces outils, sont énumérés les devoirs enjoints par le code de conduite.

Ce contenu a été mis à jour le 3 juin 2024 à 13 h 52 min.