Deepfakes et scepticisme : la fin de la preuve audiovisuelle ?
Par Joseph Kammoun
Ce billet de blogue a été rédigé dans le cadre de l’École d’été du Laboratoire de cyberjustice.
La technologie de l’information a sans doute contribué à l’amélioration de la preuve et des règles y relatives, étant qualifié d’« outil précieux pour le système de Justice dans sa quête vers la recherche de la vérité ». Effectivement, c’est le développement de la technologie qui a mené vers l’accroissement de l’utilité de la preuve matérielle comme les photographies, et surtout, les enregistrements audio et vidéo. Cependant, les avantages de ce progrès commencent aujourd’hui à se faire éclipser par les inconvénients qui en découlent : c’est bien ce même développement incessant qui risque aujourd’hui de compromettre l’intégrité même du droit de la preuve, notamment par la naissance et l’évolution de la technologie des hypertrucages, communément appelés « deepfakes », ainsi que les répercussions sociales qui en découlent.
Deepfakes : le mensonge par la tromperie
Tel que définis par le Gouvernement du Canada, les deepfakes « consistent à manipuler des contenus à l’aide d’outils de pointe faisant appel à l’intelligence artificielle (IA) pour modifier ou créer de toutes pièces des images, des voix, des vidéos ou des textes ». Qui plus est, non seulement les produits illusoires de cette technologie deviennent de plus en plus convaincants, mais, tout comme l’IA en général, la création de deepfakes devient de plus en plus accessible et donc, naturellement, de plus en plus répandue.
Le problème juridique « traditionnel », pour ainsi dire, qui découle de cette accessibilité est bien évidemment le fait que ces faux instruments peuvent être utilisés pour fabriquer de la preuve mensongère. Comme le fait remarquer Mme Maryam Akhlaghi du Laboratoire de cyberjustice de l’Université de Montréal, leur utilisation pour des fins néfastes a déjà été observée dans différents systèmes judiciaires à travers le monde : par exemple, dans l’affaire criminelle Washington v. Puloka, où la vidéo prise par un témoin oculaire, augmentée par l’IA, a été exclue vu qu’elle présentait des « altérations trompeuses ». De plus, en 2020, dans une affaire en matière familiale au Royaume-Uni, une partie a déposé en preuve un enregistrement audio fabriqué (généré par l’IA) de la partie adverse qui se livrait à des menaces, afin d’obtenir la garde des enfants ainsi qu’une ordonnance de protection. Cette fausse preuve a été rejetée, mais cela n’empêche pas que des parties ou témoins malintentionnées s’essaient avec des pièces fabriquées devant les tribunaux – et qui sait si leur démarche mensongère ne sera pas si convaincante qu’un juge, même diligent, pourrait l’admettre par mégarde.
The Liar’s Dividend : le mensonge par le déni
En considérant le fait que cette accessibilité accrue ainsi que cette diffusion étendue des deepfakes laissent entrevoir une omniprésence éventuelle de cette technologie, il est normal que le scepticisme collectif face à l’authenticité de la preuve matérielle commence à se répandre, voire s’intensifier.
Nous arrivons alors à l’autre problème, encore plus insidieux, de la technologie des deepfakes que les professeurs et juristes Bobby Chesney et Danielle Citron surnomment « The Liar’s Dividend ». Selon ces derniers, certains menteurs chercheront à exploiter le scepticisme de masse à leur avantage, en contestant l’authenticité de documents technologiques bien réels, mais qui les mettent en cause. Autrement dit, plus le public sera renseigné sur les dangers des deepfakes – notamment les affirmations mensongères concernant la véracité des documents – plus l’authenticité des documents audiovisuels sera remise en question, ce qui permettra un mépris généralisé de cette technologie et facilitera, ironiquement, le déni mensonger de la véracité des documents.
Cet effet pervers de la sensibilisation contre les deepfakes constitue un obstacle majeur à la recevabilité de la preuve, et ce sont plusieurs individus, notamment les figures publiques, poursuivis en justice qui pourront en profiter. Un bon exemple illustrant ce phénomène est une affaire de 2016 visant le PDG de Tesla, Elon Musk, lequel fut poursuivi en responsabilité civile par la famille d’une victime d’accident routier impliquant une Tesla, laquelle serait entrée en collision alors que la fonction de conduite autonome était activée. Plus précisément, la famille avait déposé en preuve une vidéo dans laquelle Musk décrivait la fonction de conduite autonome comme étant « plus sécuritaire » qu’un chauffeur humain. Les avocats de ce dernier ont directement attaqué l’authenticité de cette vidéo en alléguant qu’elle était un deepfake.
Bien que le juge ait rejeté cette prétention dans ce cas spécifique, il n’en demeure pas moins que ce que la professeure Rebecca A. Delfino appelle la « deepfake defense » constitue un nouveau défi très réel pour le droit de la preuve en ce sens qu’elle instrumentalise la « méfiance » et « l’instabilité » du public (incluant d’eventuels jurés) qui se voit désormais incapable de distinguer le vrai du faux. On comprend que l’ampleur du « liar’s dividend », et par extension, la « deepfake defense » dépasse les cas particulier dans lesquels ils se manifestent : il s’agit plutôt d’un problème généralisé d’envergure sociale, voire existentielle, qui remet en question la manière dont la vérité et l’authenticité sont perçues et évaluées. Ce qui est d’autant plus préoccupant, c’est que ce problème pourrait s’aggraver très rapidement avec le développement continuel des technologies de l’information : bien évidemment, qui dit meilleure technologie dit aussi de meilleurs outils de tromperie audiovisuelle. Ainsi, on se pose la question suivante : comment freiner cette crise socio-juridique avant qu’il ne soit trop tard ?
Quelles sont les solutions envisageables ?
Les solutions pour combattre l’instrumentalisation du scepticisme ne sauraient être si différentes que celles à mettre en place pour combattre l’usage trompeur de deepfakes. Par exemple, tout comme la sensibilisation contre les dangers des deepfakes a mené le public à s’en méfier et à développer un regard plus critique sur la preuve audiovisuelle, il faudrait également sensibiliser le public contre le danger du scepticisme généralisé et contre ceux qui l’utiliseraient pour discréditer ce qui est objectivement vrai. Effectivement, de manière générale, il faudrait introduire et maintenir davantage de certitude dans la détection des deepfakes : plus on saura les détecter, moins les individus seront enclins à contester faussement l’authenticité d’un élément de preuve audiovisuelle. En d’autres termes, et bien évidemment, plus l’authenticité sera certaine, moins elle pourra être contestée.
Sur le plan technologique, la meilleure solution serait d’élaborer des logiciels ou outils spécialisés qui pourraient détecter un hypertrucage en examinant les composantes et détails les plus minutieux du montage d’un document audiovisuel qui par ailleurs échapperait au sens humains. Plus particulièrement, ces outils pourraient détecter des inconsistances « dans la réflexion de la lumière sur les yeux des sujets », ainsi que des « imperfections dans leurs empreintes digitales ». Cette technologie pourrait ensuite être intégrée à la législation en matière d’intelligence artificielle et de technologie de l’information comme étape d’authentification obligatoire pour tout élément de preuve audiovisuelle. Par analogie, au Québec, la Loi concernant le cadre juridique des technologies de l’information s’est adaptée à la réalité technologique de l’époque de son adoption en reconnaissant les métadonnées comme indicatif de l’intégrité – et donc de l’authenticité – des documents sur support électronique.
Pour enchaîner sur les solutions du côté législatif, les lois devraient traiter les technologies d’IA en fonction du risque qu’elles présentent, tout comme l’a fait l’Union Européenne avec l’AI Act, et comme est en train de faire le Canada avec son projet de loi C-27, soit la Loi sur l’intelligence artificielle et les données. Bien évidemment, les deepfakes et ses effets secondaires sont à haut risque, et leur incidence sur la recevabilité de la preuve devrait être reconnue comme telle par les lois éventuelles en la matière.
Cela étant, les solutions potentielles mentionnées ci-haut ne sont pas d’actualité, contrairement aux problèmes technologiques et sociaux des deepfakes. Cependant, partout dans le monde, et surtout ici au Québec, on devrait rester vigilant, respecter et renforcer, à la mesure du possible, l’application des règles actuelles entourant l’authentification et la recevabilité de la preuve. Par exemple, les parties devraient attentivement documenter et corroborer, le plus que possible, la source d’une vidéo qu’elles entendent déposer en preuve. Les juges devraient demeurer critiques quand ils sont confrontés à la preuve audiovisuelle (surtout quand c’est l’unique preuve au soutien des prétentions d’une partie) mais également face aux allégations de deepfakes par les parties qu’ils entendent. Les avocats, quant à eux, doivent prendre conscience de l’impact négatif des deepfakes sur leur pratique, et par conséquent, s’assurer de respecter leur devoirs déontologiques de fermeté, dignité et bonne foi en s’abstenant, d’une part, d’utiliser de la fausse preuve, et d’autre part, d’accuser injustement de faux ce qui est vrai.
This content has been updated on 10/02/2025 at 10 h 48 min.
