Déonto et IA générative : dissonance ou syntonie?

This content is not available in the selected language.

L’intégration progressive de l’intelligence artificielle générative (ci-après, « IA ») dans la prestation des services juridiques offre des possibilités inédites aux praticiens du droit. Contrairement aux systèmes d’IA traditionnels, l’IA générative crée du nouveau contenu en modélisant les caractéristiques issues de vastes ensembles de données sur lesquels elle a été entraînée.  En effet, son utilisation a le potentiel d’augmenter l’efficacité des services rendus grâce à l’automatisation de certaines tâches administratives et répétitives, ce qui pourrait éventuellement favoriser un meilleur accès aux services juridiques. Cela étant dit, il est intéressant de noter que le gouvernement provincial a fait preuve de prudence en interdisant spécifiquement son usage dans l’administration publique en raison des risques pour la sécurité de l’information. De plus, un recours non encadré ou excessif à ces technologies soulève des enjeux déontologiques majeurs.   Il devient donc essentiel d’inciter les membres du Barreau à interagir avec ces outils de manière responsable et en conformité avec leurs obligations éthiques et professionnelles.

 

1. L’obligation de se tenir à jour relativement aux technologies de l’information

Tout d’abord, l’article 21 al. 2 du Code de déontologie des avocats prévoit que l’avocat a une obligation de se tenir à jour relativement aux technologies de l’information, ce qui implique à la fois un choix judicieux des outils d’IA générative et une compréhension technique de ceux-ci. En effet, les avocats doivent bien saisir les fonctionnalités de base de ces outils, leurs risques, leur potentiel d’erreur et surtout leurs limites. Ils sont tenus d’être vigilants face aux hallucinations que l’IA peut générer car sans vérification de ce contenu par un avocat, ces erreurs pourraient avoir des conséquences désastreuses sur leurs dossiers et sur les droits de ceux qu’ils représentent.

De plus, il est essentiel que l’avocat saisisse autant que possible les conditions d’utilisation des fournisseurs. Si l’avocat ne peut pas comprendre le processus par lequel l’IA est arrivée à une réponse (i.e. son raisonnement), comment sera-t-il en mesure d’en évaluer l’exactitude? L’opacité de ces systèmes est causée par le phénomène de la « boîte noire », c’est-à-dire l’incapacité des utilisateurs de comprendre comment une réponse est générée par l’IA. Pour cette raison, un avocat devrait éviter toute dépendance excessive aux outils d’IA juridique, en particulier lorsqu’il risque de ne pas pouvoir justifier son raisonnement auprès de son client.

 

2. Les honoraires justes et raisonnables

Ensuite, l’utilisation d’outils d’IA soulève des enjeux éthiques en matière de facturation. À cet égard, l’art. 101 du Code de déontologie des avocats prévoit qu’un avocat doit demander et accepter des honoraires justes et raisonnables, c’est-à-dire que ceux-ci doivent être « justifiés par les circonstances et proportionnels aux services professionnels rendus ». L’article 99 du Code de déontologie des avocats ajoute que l’avocat doit tenir le client informé des circonstances qui pourraient entrainer des modifications significatives au coût prévu pour ses services professionnels. L’avocat ne peut donc pas facturer un client sur la base du temps qu’aurait pris une tâche sans l’outil d’IA, mais uniquement pour le temps réellement passé pour accomplir la tâche. Un avocat qui imputerait des honoraires en fonction du temps économisé par l’automatisation de certaines tâches adopterait un comportement éthiquement répréhensible.

À l’inverse, refuser d’employer l’IA dans des situations où elle permettrait une prestation de services plus efficace placerait l’avocat en position de désavantage concurrentiel, et pourrait se traduire en une facturation excessive pour le client. Dans un tel cas, l’avocat contreviendrait à l’obligation de demander des honoraires raisonnables. À plus long terme, on pourrait envisager le scénario d’un avocat qui refuse de recourir aux outils d’IA, ce qui constituerait un manquement à son obligation déontologique de compétence, à l’instar d’une incapacité d’effectuer des recherches dans des bases de données juridiques.

 

3. Le devoir de s’absenter de toute discrimination

Ensuite, les avocats ont selon l’art. 10 de la Charte des droits et libertés de la personne un devoir de s’abstenir de toute forme de discrimination. À l’heure actuelle, certains outils d’IA, présentent un risque de biais car ils reposent sur l’apprentissage automatique plutôt que sur la programmation. Si les données utilisées pour l’entraînement sont biaisées, l’outil d’IA produira nécessairement des résultats biaisés qui peuvent apparaitre à « différentes étapes du processus de conception, de développement et d’utilisation des modèles d’IA ». Ainsi, les recherches peuvent générer des résultats discriminatoires basés notamment sur le genre ou la nationalité ethnique. Par exemple, l’algorithme d’embauche d’Amazon, ayant été entraîné sur des données où les hommes étaient surreprésentés, a systématiquement favorisé les candidatures masculines au détriment des candidatures féminines.

Face à cet enjeu, les avocats doivent prendre conscience de la manière dont les biais pourraient créer des risques pour leurs clients. Tel que suggéré par le Barreau du Québec, les juristes peuvent prévenir les biais en mettant en place des initiatives visant à renforcer la transparence. Par exemple, la ville de New York a récemment adopté une loi exigeant la création d’un groupe de travail dont le rôle est de surveiller les algorithmes utilisés par les services publics, notamment ceux servant à assigner les enfants aux écoles publiques. Parmi ces multiples responsabilités, le groupe avait pour mandat de déterminer et de partager avec le public les facteurs qui entrent dans la composition des algorithmes.

 

4. Protection des renseignements personnels : secret professionnel et confidentialité

L’émergence de l’IA complexifie et intensifie les exigences en matière de secret professionnel, de confidentialité et de protection de renseignements personnels. D’entrée de jeu, il est nécessaire que l’avocat comprenne la gestion que l’IA fait de ses données et de celles de son client. Plus précisément, il est essentiel que les juristes examinent avec soin les conditions de chaque outil employé dans la prestation des services juridiques afin de comprendre le traitement que le système fait des données. Pour respecter son obligation de confidentialité, un praticien du droit est tenu de prendre des mesures raisonnables afin d’éviter toute divulgation involontaire ou tout accès non autorisé aux informations relatives à la représentation de son client. Avant d’importer des informations confidentielles dans un logiciel, l’avocat doit vérifier que les données ne soient pas utilisées par le système pour l’entraîner, voir l’améliorer. À cet égard, le Barreau du Québec recommande plusieurs pratiques à adopter dont l’anonymisation et la dépersonnalisation des données, la documentation des instructions et des données transmises, la mise en place de formations spécifiques à la confidentialité, ainsi que l’élaboration de plans de réponse aux incidents.

De plus, l’article 28 al.2 du Code de déontologie des avocats dispose que l’avocat doit obtenir le consentement du client au sujet du mandat, ce qui laisse entendre que l’utilisation de l’IA nécessite l’accord préalable du client sous la forme d’un consentement libre et éclairé. Lorsque l’IA est utilisée dans la rédaction des documents, le client doit en être informé puisque ce dernier a le droit de s’objecter.

 

5. Responsabilité du mandat

Les membres du Barreau ont une obligation de superviser attentivement tout travail effectué par une personne qui coopère avec eux dans l’exécution de leur travail tel que le prévoit l’art. 35 du Code de déontologie des avocats. Malgré l’emploi du terme « personne », la communauté juridique reconnaît que cette obligation pourrait s’étendre aux outils technologiques. Il apparaît essentiel de préciser qu’« un avocat ayant une autorité de supervision directe sur un assistant non-avocat, y compris un outil d’intelligence artificielle, doit superviser, contrôler et réviser le travail de l’assistant non-avocat avant qu’il ne parvienne au client ». Autrement dit, une précision législative de la notion de « personne » serait nécessaire de manière à clarifier que l’avocat a aussi une responsabilité de surveiller les « non-personnes », dont les outils d’IA générative.

 

Conclusion

En conclusion, les juristes doivent être pleinement conscients des limites de l’IA juridique et se rappeler qu’aucun outil technologique ne peut se substituer à leur jugement professionnel. Si l’IA offre des avantages indéniables à ces derniers, elle impose également aux avocats une vigilance accrue quant au respect de leurs obligations déontologiques. Il revient à l’avocat de poser des limites, d’encourager la participation à des formations continues et de promouvoir un encadrement normatif qui concilie innovation technologique et le respect des obligations imposées par la loi.   

This content has been updated on 10/29/2025 at 15 h 37 min.