Regard du Prof. Karim Benyekhlef, « L’IA n’est pas la panacée à la traduction de décisions judiciaires »

Prof. Karim Benyekhlef partage son regard sur l’utilisation de l’IA pour traduire les décisions judiciaires dans l’article « L’IA n’est pas la panacée pour la traduction des décisions judiciaires » de Luis Millán, publié dans le « Magazine ABC National » de l’Association du Barreau canadien.

Cet article explore la controverse entourant la demande de traduction des plus de 6 000 décisions de la Cour suprême du Canada rendues avant 1970 pour se conformer à la Loi sur les langues officielles.

Le juge en chef Richard Wagner s’oppose à cette demande en raison du coût élevé (entre 10 et 20 millions de dollars canadiens) et de l’ampleur du travail, estimant qu’elle ne serait pas particulièrement utile : « Le juge Wagner a déclaré que la traduction des décisions antérieures à 1970 serait peu utile et ne ferait que « plaire aux amoureux du patrimoine culturel juridique ». »

Cette position suscite des critiques, notamment de la part de Droits collectifs Québec, qui considère cela comme discriminatoire envers les francophones.

Le débat s’étend à l’utilisation de l’intelligence artificielle (IA) pour traduire les décisions judiciaires. Bien que l’IA puisse offrir une solution rapide et rentable, des experts avertissent que cette technologie n’est pas encore suffisamment fiable pour traduire des textes juridiques complexes, car elle risque d’introduire des erreurs et des incohérences.

À ce sujet, Prof. Benyekhlef souligne deux enjeux. D’abord, la traduction juridique implique une interprétation précise du droit :

« Le droit est un art de la subtilité des mots, dit-il. L’utilisation de l’IA lors de la traduction d’un manuel d’instructions pour assembler une table IKEA est très bien. Mais à ce stade, il n’est pas possible de traduire des jugements, surtout ceux de la Cour suprême du Canada, en utilisant uniquement des outils automatisés, peu importe la mesure dans laquelle ils sont avancés. Ils commettent des erreurs. »

 

Le Prof. Benyekhlef souligne également que l’IA a aussi une propension à inventer des choses. Une réalité à laquelle l’équipe du Laboratoire de cyberjustice a été confrontée dans son projet JusticeBot :

« L’IA a aussi une propension à inventer des choses, comme M. Benyekhlef peut en attester. Benyekhlef et son équipe de doctorants ont mené un test en utilisant JusticeBot, un outil d’IA développé par le Laboratoire de cyberjustice qui fournit de l’information juridique sur les lois du Québec en matière de logement, comparé à l’IA générative. Le nouveau modèle d’apprentissage profond, apparenté à ChatGPT, a généré des articles du Code civil du Québec qui n’existent pas. »

 

Le manque de traducteurs juridiques expérimentés et les préoccupations de sécurité ajoutent aux défis de l’adoption de l’IA dans ce domaine. En fin de compte, même avec l’IA, les traductions des décisions passées ne pourraient jamais être considérées comme officielles, ce qui complique davantage la situation.

Cliquez ici pour accéder à l’article complet

Ce contenu a été mis à jour le 4 septembre 2024 à 9 h 25 min.